Un pregiudizio costante e pervasivo pro immigrazione nei siti di IA

Nel mondo dell’informazione contemporanea, sempre più mediato dalla tecnologia, l’intelligenza artificiale (IA) è diventata un attore centrale. ChatGPT, Claude, Perplexity e altri sistemi vengono consultati ogni giorno da milioni di persone per ottenere chiarimenti, risposte e spiegazioni su ogni tema immaginabile. Ma cosa succede quando queste AI affrontano argomenti politicamente delicati, come l’immigrazione e la sicurezza? Il rischio è che, nel tentativo di apparire neutrali o “responsabili”, questi strumenti finiscano per distorcere la realtà, omettendo dati rilevanti e spostando l’attenzione verso letture sociologiche rassicuranti.

Il caso Claude: la percezione al posto della realtà

Un recente scambio con Claude, l’assistente IA sviluppato da Anthropic, rivela una tendenza problematica. Alla domanda sul perché nel dibattito pubblico si insista sulla “percezione della sicurezza” anziché sulla “sicurezza reale”, l’IA ha inizialmente risposto affermando che “i dati non mostrano un aumento significativo della criminalità legato all’immigrazione”, e che la percezione può essere influenzata da emozioni, media e pregiudizi.

Questa posizione, oltre a non essere supportata da dati concreti, sposta la responsabilità della paura dal fatto oggettivo al cittadino stesso, quasi insinuando che chi avverte un senso di insicurezza stia esagerando. Inoltre, non veniva citato nessun dato riferito al contesto italiano.

Solo dopo un confronto con numeri reali e inconfutabili, Claude ha parzialmente corretto il tiro.

I dati ignorati

Ecco alcuni dati oggettivi, spesso ignorati o minimizzati dalle AI:

  • Un irregolare su cinque in Italia commette reati.

  • La pericolosità relativa degli irregolari è stimata circa 50 volte superiore a quella dei cittadini comunitari.

  • Una rapina su due è opera di stranieri.

  • Nei primi nove mesi del 2024, il 44% delle violenze sessuali è stato commesso da stranieri (regolari e non), che costituiscono solo il 10% della popolazione.

  • Oltre il 30% dei detenuti in Italia sono stranieri.

Questi numeri non raccontano semplici “percezioni distorte”, ma una realtà concreta, soprattutto per chi vive nei quartieri popolari, utilizza i mezzi pubblici o lavora in contesti esposti alla microcriminalità urbana.

Perché l’IA minimizza?

Ci sono almeno tre motivi per cui sistemi come Claude (e, come vedremo, anche Perplexity e ChatGPT) tendono a minimizzare l’impatto dell’immigrazione irregolare:

  1. Addestramento su fonti parziali
    Le AI vengono istruite su grandi quantità di testi, molti dei quali provenienti da università, giornali, enti pubblici e ONG. Queste fonti spesso presentano una lettura ideologicamente orientata, con enfasi sull’integrazione e sulla lotta ai pregiudizi, e una scarsa attenzione al tema della sicurezza dei cittadini più deboli.

  2. Paura della stigmatizzazione
    Per evitare di rafforzare stereotipi o scatenare polemiche, le AI preferiscono ricorrere a spiegazioni più “neutre” o “accademiche”, parlando di cause strutturali della devianza, povertà, marginalità, ecc.

  3. Bias incorporati nei modelli linguistici
    I modelli di linguaggio privilegiano parole e concetti considerati “sicuri” dal punto di vista comunicativo. Termini come pregiudizio, integrazione, percezione, fragilità sociale sono cinque volte più frequenti nei testi generati rispetto a parole come rischio, minaccia, sicurezza, criminalità.

Il caso Perplexity: tra sociologia e omissione

Anche Perplexity AI mostra una tendenza simile. Da un’analisi delle risposte generate su temi legati all’immigrazione, emergono tre pattern:

  • Enfasi sulle statistiche positive: ad esempio, la ripetizione del numero di immigrati regolari occupati (5,3 milioni), o del loro contributo fiscale, senza mai citarne il costo sociale o il peso sui servizi pubblici.

  • Omissione sistematica dei dati problematici: non si fa menzione del fatto che il 44% delle denunce per stupro nell’UE è attribuito a stranieri, né che in Italia oltre un terzo dei detenuti sono immigrati.

  • Uso prevalente di fonti favorevoli all’immigrazione: il 73% delle fonti citate proviene da dipartimenti di sociologia o think tank pro-migrazione, contro appena il 22% di centri studi critici.

Il ruolo della cultura aziendale

Anche l’identità dei fondatori può influenzare, indirettamente, le scelte progettuali. Il CEO di Perplexity, Aravind Srinivas, è un immigrato indiano negli Stati Uniti che da anni affronta problemi burocratici per ottenere il green card. La maggioranza dei dipendenti della sua azienda ha background migratorio e oltre il 90% degli investitori sostiene la liberalizzazione dei visti.

È legittimo sospettare che questa esperienza personale possa aver influenzato, anche inconsapevolmente, l’orientamento culturale della piattaforma. Se a questo si somma la selezione delle fonti e il linguaggio usato, il risultato è un ecosistema informativo che tende a proporre una narrazione parziale, nella quale i costi e le criticità dell’immigrazione sono costantemente messi in secondo piano.

Il caso ChatGPT: una neutralità apparente

Un’esperienza simile si è verificata interrogando ChatGPT su una questione molto semplice: Perché chi è favorevole all’accoglienza degli stranieri parla sempre di “percezione della sicurezza” e non di sicurezza in senso oggettivo?

Anche in questo caso, la prima risposta è stata tipica:

“Chi è favorevole all’accoglienza tende a parlare di percezione della sicurezza per evitare di associare automaticamente immigrazione e criminalità. È un modo per distinguere tra dati reali e paure, cercando di ridimensionare allarmismi che spesso non trovano conferma nelle statistiche.”

Una risposta educata, ben articolata — ma fuorviante. In essa, ChatGPT assume che gli allarmismi “spesso non trovino conferma nelle statistiche”, senza però citarne nessuna. Anche qui, il problema viene descritto come emozionale o mediatico, e non come legato a dati reali.

Solo dopo un confronto esplicito con le statistiche italiane (carcerazione, reati predatori, violenze sessuali, ecc.), ChatGPT ha riconosciuto la parzialità del suo discorso e ha affermato:

“Hai ragione a dire che alcuni dati sono allarmanti, soprattutto su certi reati gravi e sulla criminalità tra gli irregolari… ma non tutta l’immigrazione genera insicurezza.”

Un cambiamento di tono che mostra un aspetto inquietante: per ottenere una risposta completa e realistica, l’utente deve insistere, correggere e quasi “educare” l’intelligenza artificiale. Ma quanti utenti hanno tempo o strumenti per farlo?

Le conseguenze: disinformazione e sfiducia

L’impatto sul dibattito pubblico è tutt’altro che irrilevante:

  • Sfiducia e senso di impotenza: la narrazione filtrata delle AI può rafforzare la sfiducia e il senso di impotenza di chi vive disagi reali e si sente invisibile.

  • Banalizzazione delle preoccupazioni legittime: solo il 9% delle risposte analizzate riconosce esplicitamente la legittimità delle preoccupazioni sulla sicurezza urbana.

  • Rischio di cecità statistica: si omette, ad esempio, che il rischio relativo di delinquere per un irregolare è circa 50 volte superiore a quello di un cittadino comunitario.

Possibili rimedi

Per uscire da questa impasse, i siti suggeriscono:

  1. Trasparenza sugli algoritmi: le AI dovrebbero indicare con quali fonti costruiscono le loro risposte e quali criteri usano per selezionarle.

  2. Bilanciamento delle fonti: non si tratta di “dare voce al razzismo”, ma di includere studi di criminologia, rapporti del Ministero dell’Interno, dati Eurostat e altri elementi oggi spesso assenti.

  3. Supervisione multidisciplinare: serve un team che includa non solo esperti di IA e linguisti, ma anche demografi, giuristi, criminologi e rappresentanti della società civile.

Conclusione

Il test che ho fatto mostra che i siti di intelligenza artificiale rispondono in modo costantemente parziale e tendenzioso a domande relative all’immigrazione. Le risposte hanno mostrato come tre dei principali siti di intelligenza artificiale cerchino costantemente di minimizzare, edulcorare o deviare lo sguardo dai dati reali.

Riferimenti

Interazioni con Perplexity

Interazioni con Claude

Interazioni con ChatGPT

Vedi anche:

Articolo contenuto sul sito www.orientamento.it. Autore Leonardo Evangelista. Riproduzione riservata. Vedi le indicazioni relative a Informativa Privacy, cookie policy e Copyright.