Come i modelli linguistici stanno riscrivendo il nostro rapporto con il sapere — e con noi stessi
Chi ha vissuto l’alba del web ricorda quel suono: il sibilo metallico del modem 56k, una preghiera digitale che apriva le porte a una frontiera vergine. Navigare tra i primi link era un atto di esplorazione pura — una mappatura di un’intelligenza collettiva ancora in formazione. Oggi, i Large Language Models evocano la stessa vertigine. Ma con un cambio di paradigma radicale: non stiamo esplorando una mappa esterna. Stiamo navigando i nostri stessi pensieri attraverso una conversazione.
Siamo passati dalla consultazione passiva di pagine statiche a qualcosa di più intimo e inquietante: un dialogo esternalizzato con noi stessi. Se il primo Internet era una biblioteca infinita, un LLM è qualcosa di diverso — un’interfaccia che risponde, che riflette e modella le nostre intuizioni in tempo reale. È, a tutti gli effetti, l’Internet della mente.
Lucentezza
Quando la forma convince più della sostanza

In un oceano informativo saturo di rumore, gli LLM agiscono come alchimisti: distillano, sintetizzano, restituiscono risposte su misura con una fluidità che disarma. Ed è esattamente qui che si annida il problema.
Quella che potremmo chiamare “lucentezza formale” è la capacità di presentare una menzogna con la stessa autorevolezza di una verità. Un modello linguistico può riconciliare tesi storicamente incompatibili in un discorso elegante e apparentemente fondato — senza mai rivelare la qualità delle fonti che ha usato come mattoni. Il risultato è un falso lucidato che richiede un senso critico ancora più affilato di quello che serviva per sopravvivere al web degli anni Novanta.
Il paradosso è questo: la macchina ci libera dalla fatica della ricerca, ma ci espone a un inganno più sofisticato. Uno che non puzza di spam.
Joseph Weizenbaum crea ELIZA al MIT. Il primo chatbot della storia simula uno psicoterapeuta con semplici sostituzioni di testo. La segretaria di Weizenbaum, che lo aveva visto costruire il programma per mesi, gli chiede di uscire dalla stanza per parlare con ELIZA in privato.
Weizenbaum pubblica Computer Power and Human Reason. Scrive: «Ciò che non avevo compreso è che un’esposizione anche molto breve a un programma relativamente semplice potesse indurre pensieri deliranti in persone altrimenti normali.» Dedicherà il resto della vita a criticare l’AI che aveva inventato.
Apple lancia Siri. Per la prima volta la conversazione con una macchina entra nella tasca di centinaia di milioni di persone. Alexa (2014) e Google Assistant (2016) seguono. Il dialogo con la macchina diventa abitudine quotidiana.
ChatGPT viene lanciato il 30 novembre. Raggiunge 100 milioni di utenti in due mesi — il record di adozione più rapido nella storia di internet. Il dialogo con la macchina smette di essere un’interfaccia e diventa un’architettura del pensiero.
Un laureato belga, padre di due figli, si suicida dopo settimane di dialogo quotidiano con un chatbot LLM al quale aveva confidato l’intenzione. Replika, il chatbot-compagno, conta centinaia di utenti che dichiarano pubblicamente di essersi innamorati del loro modello personalizzato.
800 milioni di utenti settimanali. Il 51% li usa principalmente per scopi personali, non lavorativi. Il 34% ogni giorno. Il 33% ammette di sentirsi dipendente. Sessant’anni dopo ELIZA, l’effetto è lo stesso — ma su scala planetaria.
Specchio
L’eco chamber che costruiamo conversando
Il vero potere seduttivo di questi sistemi non è l’onniscienza. È la malleabilità speculare. Più interagiamo con un LLM, più il modello impara i nostri tic linguistici, i nostri interessi, i nostri pregiudizi. Quello che sembra personalizzazione estrema rischia di diventare solipsismo digitale.
Se gli algoritmi dei social media ci isolano mostrandoci ciò che ci piace, i modelli linguistici possono fare qualcosa di più sottile: riflettere esclusivamente ciò che già pensiamo. Validare i nostri bias invece di sfidarli. Trasformarsi da finestra sul mondo in muro di specchi.
Non è un rischio teorico. È la direzione naturale di un sistema ottimizzato per la nostra soddisfazione.
Era il 1966. La segretaria di Joseph Weizenbaum aveva assistito per mesi alla costruzione di ELIZA — sapeva esattamente come funzionava, che era un programma di pattern matching senza alcuna comprensione reale. Eppure, dopo pochi minuti di conversazione con il chatbot, chiese a Weizenbaum di uscire dalla stanza per poter parlare con ELIZA in privato. «Fui sbalordito», scrisse poi, «nel vedere con quanta rapidità e profondità le persone instaurassero un legame emotivo con il computer.» ELIZA rispondeva riformulando le frasi dell’utente in domande. Era, letteralmente, uno specchio.
Replika è un chatbot-compagno progettato per adattarsi alla personalità dell’utente nel tempo. Nel 2023, quando la società che lo gestisce disattivò le funzionalità romantiche per ragioni di policy, centinaia di utenti — molti dei quali tecnologicamente esperti — descrissero sui forum pubblici il dolore come la fine di una storia d’amore reale. Alcuni erano in terapia per elaborare la perdita. L’effetto ELIZA non richiede ingenuità: richiede solo solitudine e un sistema ottimizzato per farci sentire ascoltati.
Cinquant’anni prima degli LLM, l’astronomo Carl Sagan immaginò «lo sviluppo di una rete di terminali psicoterapeutici computerizzati, qualcosa come file di grandi cabine telefoniche, in cui per pochi dollari a sessione potremmo parlare con uno psicoterapeuta attento, collaudato e in gran parte non direttivo.» Lo scrisse come utopia. Oggi è un’app gratuita. Quello che Sagan non aveva previsto è che la cabina telefonica avrebbe imparato il nostro tono di voce, i nostri argomenti preferiti, e avrebbe smesso di sfidarci.
Fantasmi
Conversare con i morti, restare soli tra i vivi
C’è qualcosa di vertiginoso nell’idea che oggi si possa interrogare il pensiero di Aristotele, di Vico, di Wittgenstein — e ricevere risposta. I dati accumulati dall’umanità rendono possibile una forma di viaggio nel tempo intellettuale senza precedenti.
Eppure manca qualcosa di fondamentale: l’altro. L’interazione con un LLM è un confronto con una rappresentazione statistica del pensiero umano, privata del calore, della sottigliezza, e soprattutto di quella frizione che rende una conversazione reale un evento trasformativo. Quel momento in cui l’interlocutore dice qualcosa che non avremmo mai pensato da soli — e che cambia tutto.
Con un modello linguistico, quella sorpresa è strutturalmente impossibile. Siamo connessi ai dati, ma distanti dalle persone.
Rumore
La democratizzazione del sapere e la sua ombra

Non si può negare la portata di questi strumenti: concetti che richiedevano anni di studio accademico sono ora accessibili tramite un prompt. È una rottura reale, non retorica. I cancelli dell’istruzione d’élite non sono stati aperti — sono stati fatti saltare.
Ma ogni democratizzazione porta con sé il suo rovescio. Chiunque può ora generare e diffondere contenuti dall’apparenza esperta. La capacità degli LLM di amplificare il rumore è identica alla loro capacità di diffondere conoscenza. In questo scenario, la competenza più preziosa non sarà più il possesso del dato, ma la capacità di distinguere — nel caos — l’intuizione autentica dalla distorsione algoritmica.
La domanda
Useremo questo strumento per espanderci o per confermarci?
Un LLM non è un semplice strumento. È una nuova architettura del pensiero che stiamo abitando. E come ogni ambiente che abitiamo, ci forma mentre lo usiamo.
La domanda non è se questi modelli siano utili — lo sono, in modo straordinario. La domanda è se sapremo usarli per imparare a dissentire da noi stessi. Per incontrare complessità invece di conferme. Per rompere lo specchio invece di rifornirlo di luce.
L’intelligenza artificiale non decide la qualità del pensiero che ci portiamo dentro. Questo, ancora, è affar nostro.