Il contesto
Buona parte della produzione accademica coltiva un vizio difficile da sradicare: l’opacità. Frasi interminabili, concetti astratti stratificati senza appigli concreti, note a piè di pagina come digressioni labirintiche, neologismi forzati e citazioni autoreferenziali sono solo alcuni degli ingredienti di una scrittura che spesso rende i saggi universitari difficili da leggere, anche per chi ne condivide la formazione di base. Non si tratta di casi isolati: la fumosità è una caratteristica diffusa e, in certi contesti, addirittura premiata. Ma un cambiamento è in corso, ed è guidato da un attore inatteso: l’intelligenza artificiale.
Il paradosso accademico: oscurità come segnale di profondità
Molti studenti universitari, ma anche giovani ricercatori, imparano presto una regola non scritta: ciò che è semplice sembra ingenuo. L’idea che la complessità del pensiero debba riflettersi in uno stile difficile, involuto e denso è tanto pervasiva quanto controintuitiva. È come se la chiarezza fosse sospetta, quasi sinonimo di superficialità. Eppure, la capacità di rendere comprensibile l’articolato è una delle competenze più alte della scrittura, non una forma di semplificazione indebita.
Lo sforzo interpretativo richiesto da certi testi diventa così una barriera all’ingresso: solo chi possiede familiarità con un certo gergo specialistico e con i riferimenti interni alla disciplina può partecipare al discorso. È una forma di gatekeeping intellettuale. In alcuni casi, può essere anche una strategia di difesa: testi oscuri rendono difficile la confutazione, poiché la prima difficoltà è capire cosa effettivamente si stia affermando.
Non mancano studiosi che hanno criticato esplicitamente questa tendenza. George Orwell, nel suo celebre saggio Politics and the English Language, denunciava già nel 1946 come il linguaggio accademico (e politico) tendesse a nascondere la realtà dietro una coltre di parole astratte e formule fisse. Più recentemente, Pierre Bourdieu ha evidenziato i rischi di un uso del linguaggio come strumento di distinzione e dominanza simbolica. Ma la critica alla scrittura accademica continua a sembrare una battaglia controvento, spesso confinata ai margini delle pratiche reali della ricerca.
Il modello ChatGPT: chiarezza, sintesi, accessibilità
In questo contesto, l’intelligenza artificiale basata su modelli linguistici di grandi dimensioni (LLM), come ChatGPT, sta introducendo una discontinuità sorprendente. Questi modelli, addestrati su una vasta gamma di testi di diversa qualità e registro, sono stati progettati per produrre output comprensibili, coerenti, ben strutturati. La loro logica interna premia la chiarezza, perché il loro scopo è rispondere a una richiesta dell’utente nel modo più utile possibile.
Il risultato? Anche su temi complessi come la filosofia analitica, la sociologia critica o la teoria dei sistemi, l’intelligenza artificiale è capace di generare testi leggibili, con una struttura lineare, esempi calzanti, definizioni esplicite e concetti spiegati con ordine. E non si tratta di banalizzazione. La profondità rimane, ma si manifesta attraverso la cura nella sequenza logica, l’uso controllato dei termini tecnici, la scelta accurata delle metafore.
Chi ha provato a chiedere a ChatGPT di spiegare la teoria della performatività del linguaggio in Judith Butler, o il concetto di “biopolitica” in Foucault, si è spesso trovato davanti a una spiegazione più chiara di quella trovata in molti manuali universitari. Non è magia: è una diversa forma di progettazione testuale, guidata da criteri di leggibilità e comprensibilità, non da vincoli accademici impliciti.
Un’opportunità per ripensare la scrittura accademica
Questo nuovo scenario apre una domanda scomoda: se l’IA riesce a spiegare meglio di noi concetti che padroneggiamo, è forse arrivato il momento di rivedere il nostro modo di scrivere? Lungi dal sostituirsi alla riflessione critica, l’intelligenza artificiale ci costringe a confrontarci con le nostre abitudini espositive. E non è detto che il confronto sia sempre a nostro favore.
Per gli studenti, questo può essere uno strumento formidabile per apprendere meglio: si possono ottenere versioni “accessibili” di testi difficili, modelli di sintesi e spiegazioni che fanno risparmiare ore di tentativi frustranti. Per i docenti e i ricercatori, invece, l’IA rappresenta un’occasione per rinnovare le proprie pratiche di scrittura e comunicazione.
Non si tratta solo di divulgazione. Anche nella scrittura specialistica, la chiarezza è un valore. È del tutto possibile scrivere articoli per riviste peer-reviewed in modo sobrio, ordinato, leggibile. L’autorevolezza non deriva dallo stile oscuro, ma dalla qualità degli argomenti e dalla coerenza delle inferenze.
Alcuni rischi da considerare
Naturalmente, non mancano i rischi. L’uso dell’IA nella scrittura può generare testi formalmente impeccabili ma concettualmente vuoti, oppure veicolare affermazioni infondate con toni assertivi. C’è anche il pericolo che si affermi un nuovo stile standardizzato, piatto, privo di quella ricchezza linguistica e retorica che fa la bellezza di certi testi umani.
Per questo è importante distinguere tra chiarezza e semplificazione: la prima è un obiettivo legittimo e auspicabile, la seconda può diventare un problema se porta a eliminare la complessità del reale. Il compito del ricercatore resta quello di non tradire la densità del pensiero, ma di accompagnarla con una forma espressiva all’altezza.
Tornare alla responsabilità della forma
Quello che sta emergendo con chiarezza è che la forma non è un orpello. Scrivere bene — cioè con chiarezza, struttura, efficacia comunicativa — è parte integrante del pensare bene. L’intelligenza artificiale, con la sua capacità di rendere leggibili contenuti difficili, ci ricorda questo principio che l’università sembra aver dimenticato: la qualità di un pensiero si misura anche da come viene espresso.
L’epoca dell’IA può quindi diventare l’occasione per riqualificare il discorso accademico, recuperando la responsabilità comunicativa della scrittura scientifica. Non significa rinunciare alla complessità, ma assumerla fino in fondo, anche sul piano della forma. In fin dei conti, scrivere in modo oscuro non è un segno di profondità, ma spesso un sintomo di pigrizia concettuale.
Un’esperienza personale
Qualche mese fa dovevo sostenere un esame sul testo Sociologia del rischio, di Niklas Luhmann. L’argomentazione è sviluppata quasi esclusivamente dalla discussione di idee filosofiche e norme giuridiche relative al rischio, con un livello di astrazione molto elevato. Ci sono decine di note. Più volte ho provato a leggerlo, arrivando sempre a un punto in cui mi fermavo perché avevo perso il contatto.
Alla fine, l’ho scannerizzato capitolo per capitolo e ho chiesto a ChatGPT di riassumere ogni capitolo. In questo modo ne sono venuto a capo. Leggi la mia sintesi del libro.
Conclusione: una lezione che viene da fuori
L’IA scrive meglio dei professori. Lo fa perché sa come si scrive un testo, e in più non ha nulla da dimostrare, non cerca di impressionare colleghi o commissioni valutative, non vuole posizionarsi in una gerarchia disciplinare. Vuole solo essere utile. E questo obiettivo — l’utilità comunicativa — dovrebbe tornare a essere anche quello della scrittura accademica umana.
Articolo contenuto sul sito www.orientamento.it. Prodotto da Leonardo Evangelista con l’aiuto dell’IA. Vedi le indicazioni relative a Informativa Privacy, cookie policy e Copyright.