
Quando lavoriamo con l’intelligenza artificiale, prima o poi ci imbattiamo in quello che viene chiamato tecnicamente “allucinazione”: l’IA ci fornisce informazioni che sembrano plausibili ma che, verificando, scopriamo essere inventate. Un riferimento normativo inesistente, una citazione di un libro mai scritto, una statistica completamente falsa.
Ma perché succede? La risposta è sorprendentemente semplice: i sistemi di IA sono progettati per non dire mai “non lo so”.
Il problema alla radice
Immagina di avere un collaboratore che, per ogni domanda che gli fai, si sente obbligato a darti una risposta. Sempre. Anche quando non conosce l’argomento, anche quando dovrebbe ammettere di non avere le informazioni necessarie.
Cosa succederebbe? Inizierebbe a improvvisare, a costruire risposte che “suonano bene”, a mettere insieme frammenti di conoscenza in modi che sembrano plausibili ma che non corrispondono alla realtà.
È esattamente quello che fanno i sistemi di intelligenza artificiale.
Come funziona tecnicamente
I modelli linguistici sono addestrati su enormi quantità di testo e imparano a riconoscere pattern, strutture, modi di esprimersi. Quando ricevono una domanda, il loro compito è generare una risposta che sia statisticamente coerente con i pattern che hanno appreso.
Il problema è che non hanno un meccanismo interno che dice: “Questa informazione specifica non la conosco con certezza, quindi è meglio non rispondere.”
Invece, generano la risposta più probabile in base ai pattern linguistici. Se chiedi “Qual è l’articolo 47-bis del decreto legislativo 150/2015?”, il sistema “sa” che:
- Le leggi italiane hanno numeri e strutture specifiche
- Gli articoli hanno una certa formulazione tipica
- Esiste un linguaggio giuridico standard
E quindi costruisce una risposta che sembra un articolo di legge, anche se quell’articolo specifico non esiste.
Perché sono progettati così
Questa caratteristica non è un difetto casuale, ma deriva da scelte progettuali precise:
Massimizzare l’utilità percepita: Un sistema che risponde sempre è percepito come più utile di uno che dice spesso “non lo so”. Gli utenti si aspettano risposte, non ammissioni di ignoranza.
Fluidità conversazionale: Un sistema che interrompe continuamente la conversazione con “non posso aiutarti” risulta frustrante da usare. È progettato per mantenere il dialogo fluido.
Generalizzazione creativa: In molti casi, la capacità di “estrapolare” e fornire risposte anche senza conoscenza diretta è un punto di forza. Ti permette di ottenere aiuto su scenari ipotetici, situazioni creative, problemi mai visti prima.
Il problema è che questo meccanismo non distingue tra “creare una soluzione utile per un problema nuovo” e “inventare informazioni fattuali che dovrebbero esistere ma non esistono”.
Quando le allucinazioni sono più probabili
Alcuni scenari aumentano drasticamente il rischio di allucinazioni:
Richieste molto specifiche: “Citami la bibliografia completa sul modello SCAMPER applicato all’orientamento adulti in Italia” – più la richiesta è di nicchia, più è probabile che l’IA inventi.
Numeri e dettagli precisi: Date esatte, articoli di legge specifici, percentuali puntuali – tutto ciò che richiede precisione assoluta è a rischio.
Fonti recenti: Normative cambiate da poco, pubblicazioni uscite dopo il cutoff di addestramento, aggiornamenti normativi – qui l’IA non può sapere e inventa.
Combinazioni insolite: Quando chiedi connessioni tra concetti che raramente appaiono insieme nei testi di addestramento, l’IA tende a costruire ponti che non esistono.
Come difendersi nell’uso professionale
Sapere che l’IA “non può dire di no” cambia completamente il modo in cui dobbiamo usarla nel nostro lavoro di orientatori:
Mai fidarsi ciecamente delle informazioni fattuali: Ogni riferimento normativo, ogni citazione bibliografica, ogni dato statistico va verificato. Sempre.
Usare l’analisi incrociata: Come abbiamo visto in altri articoli, sottoporre le informazioni a un secondo sistema di IA riduce drasticamente il rischio. Due sistemi che inventano indipendentemente la stessa informazione falsa è un’eventualità quasi impossibile.
Distinguere tra creativo e fattuale: L’IA è eccellente per progettare attività, strutturare percorsi, sviluppare metodologie. È rischiosa quando le chiedi “dimmi esattamente cosa dice la legge” o “trova questa specifica fonte”.
Chiedere fonti verificabili: Quando l’IA ti fornisce un’informazione importante, chiedi sempre: “Dove posso verificare questa informazione?” Se la risposta è vaga o generica, è un segnale di allarme.
Sfruttare il web search: I sistemi di IA dotati di ricerca web possono verificare le informazioni in tempo reale anziché affidarsi solo alla memoria di addestramento. Usali per le informazioni fattuali.
Un approccio maturo all’IA
Comprendere questo limite fondamentale non significa rinunciare all’IA, ma usarla con intelligenza professionale.
L’IA è straordinaria per:
- Strutturare progetti e attività
- Generare idee e soluzioni creative
- Analizzare e sintetizzare concetti
- Progettare percorsi e metodologie
Ma è inaffidabile quando le chiediamo di:
- Citare fonti specifiche che dovremmo poi usare
- Fornire riferimenti normativi precisi
- Dare dati statistici puntuali
- Confermare l’esistenza di documenti o pubblicazioni specifiche
La chiave è capire che l’IA non distingue tra “creare una risposta utile” e “inventare informazioni false”. Sta a noi, professionisti, fare questa distinzione e applicare i controlli appropriati.
Il futuro: sistemi più onesti?
Le prossime generazioni di sistemi di IA stanno lavorando proprio su questo problema. Sistemi che sanno dire “non ho informazioni affidabili su questo”, che distinguono tra certezza e probabilità, che segnalano quando stanno extrapolando piuttosto che riportando fatti conosciuti.
Ma nel frattempo, la consapevolezza di questo limite è la nostra migliore difesa. Non per evitare l’IA, ma per usarla nel modo più efficace e sicuro possibile nel nostro lavoro professionale.
Articolo contenuto sul sito www.orientamento.it. Realizzato da Leonardo Evangelista con l’aiuto della IA. Leonardo Evangelista si occupa di orientamento dal 1993 e di formazione dal 2004. Vedi le indicazioni relative a Informativa Privacy, cookie policy e Copyright.
