L’Intelligenza Artificiale e l’Empatia: Evidenze di Capacità Pari o Superiori a Quelle Umane

Introduzione

Negli ultimi anni, la capacità dei sistemi di intelligenza artificiale (IA) di riconoscere, interpretare e rispondere alle emozioni umane – nota come “empatia artificiale” – è diventata oggetto di crescente interesse accademico e applicativo. Diverse ricerche hanno indagato se e in quali contesti i siti e i chatbot basati su IA possano mostrare livelli di empatia pari o superiori a quelli degli esseri umani, sollevando questioni sia teoriche che pratiche sull’autenticità e l’efficacia di questa empatia simulata.

Definizione e dimensioni dell’empatia

L’empatia umana è tradizionalmente suddivisa in tre dimensioni: cognitiva (comprensione degli stati emotivi altrui), emotiva (risonanza con le esperienze emotive dell’altro) e motivazionale (preoccupazione e azione per il benessere altrui)6. L’IA, grazie ai progressi nel Natural Language Processing (NLP) e nel machine learning, è oggi in grado di riconoscere e rispondere alle emozioni umane almeno nella dimensione cognitiva, adattando tono, contenuto e ritmo delle risposte in modo personalizzato46.

Evidenze empiriche: IA più empatica degli umani?

Numerosi studi recenti hanno rilevato che le risposte generate dall’IA, in particolare dai Large Language Models come GPT, sono spesso percepite dagli utenti come più empatiche rispetto a quelle umane, anche da parte di professionisti del supporto emotivo28. In uno studio pubblicato su JAMA Internal Medicine, le risposte di ChatGPT a domande cliniche sono state giudicate più empatiche rispetto a quelle fornite da medici reali in oltre il 41% dei casi2. Un altro studio, condotto su 556 partecipanti e quattro esperimenti preregistrati, ha rilevato che le risposte empatiche di GPT sono state considerate più compassionevoli, reattive e valide rispetto a quelle di esseri umani, sia esperti sia non esperti8.

Le ragioni di questa percezione includono:

  • Struttura linguistica ottimale e priva di esitazioni
  • Assenza di giudizio e pregiudizi impliciti
  • Disponibilità illimitata e costante attenzione all’utente

Studio PNAS: Messaggi AI vs Umani

Una ricerca pubblicata sui Proceedings of the National Academy of Sciences ha prodotto risultati significativi riguardo alla percezione dell’empatia artificiale. Lo studio ha rivelato che “AI-generated messages made recipients feel more heard than human-generated messages and that AI was better at detecting emotions”. Questa scoperta suggerisce che, almeno in determinate condizioni sperimentali, i sistemi di AI possono generare risposte che i destinatari percepiscono come più empaticamente efficaci rispetto a quelle prodotte da esseri umani.

Studio Communications Psychology: Compassione Artificiale

Un altro studio rilevante, pubblicato su Communications Psychology, ha confrontato le risposte di AI con quelle di esperti umani in situazioni di supporto emotivo. I risultati hanno mostrato che “AI responses were preferred and rated as more compassionate compared to select human responders”. Particolarmente significativo è il fatto che questo pattern si è mantenuto anche quando l’identità dell’autore era nota ai partecipanti e quando l’AI veniva confrontata con operatori di crisi esperti.

Collaborazione Uomo-AI nel Supporto Mentale

La ricerca pubblicata su Nature Machine Intelligence ha esplorato le potenzialità della collaborazione uomo-AI nel supporto peer-to-peer per la salute mentale. Lo studio ha documentato che “Human-AI collaboration approach leads to a 19.60% increase in conversational empathy between peers overall”, con incrementi ancora più significativi (38.88%) tra i peer supporters che si identificavano come aventi difficoltà nel fornire supporto.

IA e Percezione dell’Empatia

Una ricerca condotta da Yin et al. (2024) ha evidenziato che le risposte generate da IA possono essere percepite come più empatiche rispetto a quelle umane, soprattutto quando i partecipanti non sono a conoscenza dell’origine artificiale del messaggio. Tuttavia, la consapevolezza che una risposta provenga da un’IA tende a ridurre la percezione di empatia, indicando un pregiudizio nei confronti delle risposte generate artificialmente .abc3340.com+2neurosciencenews.com+2reddit.com+2

IA nel Supporto alla Salute Mentale

Uno studio pubblicato su Communications Psychology ha confrontato le risposte di IA con quelle di professionisti della salute mentale, rilevando che le risposte dell’IA sono state valutate come più compassionevoli e preferite nel 68% dei casi. Gli autori suggeriscono che l’IA, priva di affaticamento emotivo, può offrire un supporto empatico costante, anche se riconoscono che ciò potrebbe non sostituire completamente l’interazione umana .abc3340.com

Limiti dell’Empatia Artificiale

Nonostante questi risultati promettenti, altri studi sottolineano i limiti dell’empatia artificiale. Ad esempio, una ricerca condotta da Roshanaei e Seif El-Nasr (2025) ha scoperto che l’IA tende a mostrare un’eccessiva empatia in situazioni negative e una risposta insufficiente in contesti positivi, evidenziando una mancanza di modulazione emotiva tipica degli esseri umani .wired.com+6news.cornell.edu+6time.com+6news.ucsc.edu

Meccanismi Sottostanti le Capacità Empatiche dell’AI

Rilevamento Emotivo Superiore

Le evidenze suggeriscono che i sistemi di AI possono eccellere nel riconoscimento e nell’interpretazione degli stati emotivi. La capacità di processare grandi quantità di dati linguistici e paralinguistici consente all’AI di identificare pattern emotivi che potrebbero sfuggire all’attenzione umana, particolarmente in contesti testuali dove le informazioni non verbali sono limitate.

Consistenza e Disponibilità

A differenza degli esseri umani, i sistemi di AI non sono soggetti a variazioni dell’umore, stanchezza o bias personali che possono influenzare la qualità delle risposte empatiche. Questa consistenza può tradursi in un’esperienza più affidabile per chi ricerca supporto emotivo.

Limitazioni e Considerazioni Critiche

Il Paradosso della Trasparenza

Nonostante l’efficacia dimostrata delle risposte AI, emerge un paradosso interessante: lo stesso studio PNAS ha rivelato che “recipients felt less heard when they realized that a message came from AI (vs. human)”. Questo suggerisce che la percezione dell’empatia artificiale è significativamente influenzata dalla consapevolezza della sua origine.

Limiti nell’Esplorazione Esperienziale

Ricerche condotte da Cornell Tech e Stanford University hanno evidenziato che, nonostante le capacità dimostrate, “conversational agents such as Siri do poorly compared to humans when interpreting and exploring a user’s experience”. Questo indica che mentre l’AI può eccellere in risposte empatiche immediate, presenta limitazioni nell’approfondimento e nell’esplorazione delle esperienze umane complesse.

Implicazioni per la Ricerca e la Pratica

Ripensare la Natura dell’Empatia

Questi risultati sollevano questioni fondamentali sulla natura dell’empatia stessa. Se l’empatia viene definita in termini di efficacia nel far sentire compresi e supportati i destinatari, allora l’AI dimostra capacità paragonabili o superiori a quelle umane in specifici contesti. Tuttavia, se l’empatia richiede una genuine comprensione emotiva e condivisione di stati affettivi, la questione diventa più complessa.

Applicazioni Terapeutiche e di Supporto

Le evidenze di efficacia dell’empatia artificiale aprono nuove possibilità per applicazioni terapeutiche e di supporto. La combinazione di disponibilità 24/7, consistenza nelle risposte e capacità di rilevamento emotivo potrebbe rendere i sistemi di AI particolarmente utili come primo livello di supporto o come strumenti di supporto avanzato per professionisti della salute mentale.

Articolo contenuto sul sito www.orientamento.it. Elaborato da Leonardo Evangelista col supporto dell’IA. Leonardo Evangelista si occupa di orientamento dal 1993 e di formazione dal 2004. Riproduzione riservata. Vedi le indicazioni relative a Informativa Privacy, cookie policy e Copyright.