Il problema delle allucinazioni
Le intelligenze artificiali generative, come ChatGPT, Gemini, Claude, Copilot o Perplexity, sono diventate strumenti sempre più presenti nelle attività quotidiane di chi si occupa di formazione, orientamento, consulenza o ricerca. Sono capaci di produrre testi coerenti, strutturati e pertinenti su una grande varietà di temi. Tuttavia, a fronte di queste potenzialità, presentano ancora limiti rilevanti in termini di affidabilità delle risposte.
Uno dei rischi più significativi è rappresentato dal fenomeno delle allucinazioni: affermazioni false, inventate o non verificabili, prodotte dal modello in modo apparentemente credibile. Questo problema, se sottovalutato, può compromettere la qualità dei contenuti generati e la fiducia nell’uso dell’IA come supporto informativo o consulenziale.
In questo articolo analizzeremo due strategie semplici ed efficaci per ridurre il rischio di allucinazioni:
Porre lo stesso quesito a più siti di IA.
Chiedere esplicitamente la citazione di fonti a supporto delle risposte.
Il problema delle allucinazioni
Le allucinazioni nei modelli linguistici sono frasi o informazioni non corrispondenti alla realtà, anche se espresse in modo plausibile. Ad esempio, un modello può attribuire a un autore una citazione mai pronunciata, descrivere normative inesistenti o confondere due concetti simili.
Queste allucinazioni derivano da vari fattori:
I modelli non accedono direttamente a banche dati in tempo reale, a meno che non siano dotati di browsing attivo.
Funzionano attraverso la predizione probabilistica della parola successiva, non sulla verifica delle fonti.
Possono essere sovraconfidenti e completare con congetture plausibili anche quando mancano informazioni precise.
L’utente tende a fidarsi di una risposta ben scritta, senza verificarne la correttezza.
Nel campo dell’orientamento professionale, dove si analizzano profili, percorsi formativi, offerte di lavoro o normative, questo può portare a errori di giudizio, suggerimenti fuorvianti o valutazioni non fondate.
Strategia 1: confrontare le risposte di più IA
Una prima strategia consiste nel porre lo stesso quesito a più modelli di intelligenza artificiale. Ogni IA ha infatti un proprio addestramento, una propria architettura e aggiornamenti diversi. Se due o tre modelli rispondono in modo coerente e convergente, c’è una maggiore probabilità che l’informazione sia corretta. Se invece le risposte divergono, è un segnale utile che invita l’utente a riflettere criticamente, approfondire o cercare fonti esterne.
✅ Vantaggi del confronto tra modelli
Riduzione dell’errore: se un modello allucina, gli altri possono agire da “filtro correttivo”.
Diversità di punti di vista: ogni IA può offrire angolature diverse su uno stesso tema.
Controllo reciproco: la divergenza di risposte stimola l’utente a non accettare passivamente la prima risposta ricevuta.
Verifica delle omissioni: un IA può integrare ciò che un’altra ha dimenticato o sintetizzato male.
Esempio pratico (orientamento)
Domanda: Quali sono le principali differenze tra la figura del pedagogista e quella dello psicologo in Italia?
Confrontando le risposte si ottiene una visione più ampia, ricca e verificabile, evitando di fidarsi ciecamente di una sola fonte.
Strategia 2: chiedere la citazione di fonti
Un secondo accorgimento fondamentale è chiedere esplicitamente al modello di indicare le fonti a sostegno della propria risposta. Non tutti i modelli lo fanno automaticamente, ma la richiesta può guidare il sistema a:
- elencare documenti, autori o articoli a supporto;
- suggerire risorse affidabili da consultare;
- chiarire se la risposta è basata su conoscenze generali o su dati tracciabili.
IA e citazione delle fonti: cosa sapere
Perplexity è l’unico strumento che inserisce fonti in automatico, linkate nel testo, permettendo una rapida verifica delle informazioni.
Agli altri siti è necessario chiedere: “Rispondi citando fonti istituzionali aggiornate”.
✏️ Prompt consigliati
“Puoi citare 2–3 fonti attendibili a supporto della tua risposta?”
“Indica le fonti da cui hai tratto queste informazioni, se disponibili”
“Basati su documenti ufficiali o fonti accademiche e inserisci i riferimenti”
✅ Conclusione: due pratiche da adottare subito
Per rendere più affidabile l’uso dei siti di IA generativa nella pratica quotidiana, puoi adottare da subito queste due strategie:
Confronta più risposte: usa almeno due o tre modelli diversi per la stessa domanda. Se le risposte convergono, è un buon segno. Se divergono, approfondisci.
Chiedi sempre le fonti: allenati a richiedere evidenze, link, riferimenti. Ti aiuterà a distinguere tra opinione simulata e conoscenza fondata.
Articolo contenuto sul sito www.orientamento.it. Realizzato da Leonardo Evangelista con aiuto l’aiuto della IA. Leonardo Evangelista si occupa di orientamento dal 1993 e di formazione dal 2004. Vedi le indicazioni relative a Informativa Privacy, cookie policy e Copyright.