Martedì mattina leggi che l’AI rivoluzionerà la medicina. Giovedì sera scopri che potrebbe distruggere la civiltà. Lunedì successivo, un nuovo breakthrough che cambierà tutto. E poi di nuovo il panico.
È così da anni. Prima Deep Blue batte Kasparov a scacchi, e tutti gridano: “Ecco l’intelligenza artificiale!” Poi AlphaGo demolisce il campione di Go, e di nuovo: “Questa volta è diverso!” Poi arrivano i chatbot che scrivono poesie, e ancora: “Ora sì che ci siamo!”
Ma ogni volta, dopo l’entusiasmo iniziale, arriva la doccia fredda. L’AI che sembrava così intelligente non riesce a capire che una zebra non è un cavallo a strisce. Il sistema che batte i campioni mondiali non sa che l’acqua è bagnata. La macchina che scrive come Shakespeare non capisce cosa sta scrivendo.
È come vivere in un loop infinito di montagne russe tecnologiche. Su, giù, su, giù. E dopo anni di questo rodeo, ho iniziato a chiedermi: ma stiamo davvero capendo quello che succede, o siamo tutti vittime delle stesse illusioni ottiche?
La risposta l’ho trovata nel lavoro di Melanie Mitchell, una scienziata informatica che nel 2021 ha messo il dito su quattro punti dolenti. Quattro errori di ragionamento che spiegano perché continuiamo a sbagliare le previsioni sull’AI. Quattro illusioni che ci fanno vedere progressi dove forse non ci sono, e mancare i veri problemi dove invece esistono.
Non sto dicendo che Mitchell abbia ragione su tutto. Ma le sue idee sono come una lente d’ingrandimento per guardare attraverso il fumo degli annunci stampa e vedere cosa c’è davvero sotto il cofano.
Deep Blue batte Kasparov. Titoli ovunque: «L’intelligenza artificiale ha sconfitto l’uomo». Anni dopo, Deep Blue non sa che l’acqua è bagnata.
Watson di IBM vince a Jeopardy! contro i campioni umani. «Ora sì che ci siamo», dicono tutti. Pochi anni dopo, Watson Health viene venduto in perdita dopo aver fallito in oncologia.
Elon Musk promette auto a guida completamente autonoma entro un anno. Seguiranno la stessa promessa nel 2015, 2016, 2017, 2018, 2019, 2020. Nel 2025, Cruise è chiusa.
AlphaGo batte Lee Sedol. Il Go era considerato l’ultimo baluardo della cognizione umana contro le macchine. Cade anche quello. Ma AlphaGo non sa aprire una finestra.
François Chollet crea ARC-AGI: un test di ragionamento che qualsiasi bambino risolve, ma che i migliori modelli AI faticano enormemente. Nel 2025, il 50% dei task di ARC-AGI-2 sfida ancora tutti.
ChatGPT raggiunge 100 milioni di utenti in due mesi. Il nuovo ciclo di hype supera tutti i precedenti. «Questa volta è davvero diverso», dicono tutti. Come sempre.
GM chiude Cruise dopo un decennio e $30 miliardi. Ford e Volkswagen avevano già chiuso Argo AI. Apple abbandona il suo progetto auto dopo anni di lavoro segreto. Il «problema facile» della guida autonoma si rivela il più difficile di tutti.
$644 miliardi investiti in AI generativa. Il 95% dei programmi aziendali fallisce prima della produzione. Yann LeCun, pioniere del deep learning e premio Turing, dichiara che «i sistemi AI hanno ancora meno senso comune di un gatto».
Prima illusione: la strada lineare verso l’intelligenza
Immaginate di voler andare sulla Luna. Vedete una scimmia che si arrampica su un albero e pensate: “Fantastico! È un passo verso il viaggio spaziale!” La scimmia sale sempre più in alto. Dieci metri, venti, trenta. “Guarda che progressi!” dite. “Presto arriverà sulla Luna!”
Ovviamente, è assurdo. Non importa quanto in alto salga quella scimmia, non arriverà mai sulla Luna arrampicandosi. Serve qualcosa di completamente diverso: un razzo.
Eppure, è esattamente così che pensiamo all’intelligenza artificiale.
Ogni volta che un sistema AI migliora in qualcosa – battere a scacchi, riconoscere immagini, scrivere testi – pensiamo che sia un passo sulla strada liscia verso l’intelligenza umana. Come se l’intelligenza fosse una montagna con un unico sentiero che porta in cima.
Deep Blue batte Kasparov? Un passo verso l’AI generale. AlphaGo batte Lee Sedol? Altro passo. GPT scrive come un essere umano? Ancora un passo. E così via, fino all’AGI – l’Intelligenza Artificiale Generale che fa tutto come noi, ma meglio.
Ma cosa succede se non è così? Cosa succede se l’intelligenza non è una strada liscia, ma un territorio pieno di valli separate, ponti crollati, vicoli ciechi?
Prendiamo un bambino di due anni. Non sa fare calcoli complessi. Non sa giocare a scacchi. Non sa nemmeno leggere. Eppure sa che se lascia cadere un giocattolo, cadrà a terra. Sa che le persone hanno pensieri diversi dai suoi. Sa che il cane della nonna è diverso dal cane dei cartoni animati, ma sono entrambi cani.
Questo tipo di conoscenza – quella che chiamiamo “senso comune” – è invisibile proprio perché è ovvia. È come l’aria: non la noti finché non manca.
I sistemi AI più avanzati possono battere i campioni del mondo in giochi strategici, ma non sanno che se metti una tazza sottosopra l’acqua cade fuori. Possono scrivere saggi brillanti sulla fisica quantistica, ma non capiscono che non puoi spingere una corda.
È qui che l’analogia della scimmia e della Luna diventa potente. Forse i progressi nell’AI sono come quella scimmia che sale sempre più in alto sull’albero. Impressionanti, sì. Ma fondamentalmente sulla strada sbagliata.
O forse no. Forse i nuovi sistemi che vedono, ascoltano e agiscono nel mondo stanno davvero costruendo i razzi che ci serviranno. Il dibattito è aperto, ma una cosa è certa: assumere che sia tutto una strada lineare è la prima illusione che dobbiamo smontare.
Nel 2019, François Chollet creò ARC-AGI: una serie di puzzle visivi elementari che qualsiasi bambino di sei anni risolve in pochi secondi — riconoscere pattern, applicare regole semplici, generalizzare da pochi esempi. Per cinque anni, i migliori modelli AI del mondo si sono scontrati con questo test senza riuscire a superarlo. Nel 2024, OpenAI con o3 ha finalmente raggiunto punteggi vicini agli umani su ARC-AGI-1 — ma solo bruteforce con potenza computazionale enorme. Così nel 2025 è arrivato ARC-AGI-2, più difficile. Risultato: nessun sistema commerciale supera il 55% di accuratezza. Gli umani: 100%. La scimmia sale sull’albero. La Luna è ancora lì.
Seconda illusione: il mondo sottosopra della difficoltà
Nel 1988, il roboticista Hans Moravec fece un’osservazione che ancora oggi ci lascia senza parole: è più facile insegnare a un computer a risolvere problemi di matematica avanzata che fargli riconoscere un volto in una foto sfocata.
Sembra assurdo, vero? Per noi umani è l’opposto. Un bambino di tre anni riconosce sua madre anche con gli occhiali da sole, ma non sa cosa sia un’equazione differenziale.
È come se l’AI vivesse in un mondo sottosopra rispetto al nostro. Quello che per noi è difficile – calcoli, strategia, logica formale – per loro è facile. Quello che per noi è automatico – camminare, vedere, capire se qualcuno è triste – per loro è quasi impossibile.
Ecco perché abbiamo sistemi che battono i campioni mondiali di Go ma auto che dopo decenni di sviluppo ancora non riescono a guidare da sole in sicurezza. Ecco perché ChatGPT può discutere di filosofia quantistica ma non sa se una giraffa entra in un frigorifero.
Questa illusione è subdola perché ci fa calibrare male le aspettative. Vediamo un computer che risolve problemi che noi consideriamo “intelligenti” e pensiamo: “Se sa fare questo, figuriamoci il resto!” Ma il resto – navigare il mondo fisico, capire le intenzioni delle persone, avere buon senso – è esattamente quello che questi sistemi non sanno fare.
È come vedere qualcuno che sa suonare Chopin a memoria e assumere che sappia anche allacciarsi le scarpe. Nel nostro mondo, chi sa suonare Chopin probabilmente sa anche allacciarsi le scarpe. Nel mondo dell’AI, non è così scontato.
Alcuni dicono che è solo questione di tempo e di dati. Che con abbastanza esempi e potenza di calcolo, anche il “senso comune” può essere imparato. Altri sostengono che stiamo affrontando barriere fondamentali, non solo ostacoli tecnici.
La verità probabilmente sta nel mezzo, ma una cosa è certa: sottovalutare la complessità del “semplice” è la seconda grande illusione che distorce la nostra comprensione dell’AI.
Nel 2013, IBM lanciò Watson Health con una promessa rivoluzionaria: battere i medici nella diagnosi oncologica. Ospedali di tutto il mondo pagarono cifre enormi per accedere al sistema. Nel 2018, un’indagine del Wall Street Journal rivelò che Watson raccomandava trattamenti «non sicuri e non corretti» secondo i medici dell’MD Anderson Cancer Center — che aveva già speso 62 milioni di dollari nel progetto. Nel 2021, IBM vendette Watson Health a una società di private equity. Il problema non era la potenza di calcolo: era che Watson eccelleva in quello che era difficile per gli umani (processare milioni di paper medici) ma non capiva quello che per qualsiasi medico era ovvio (il contesto clinico del singolo paziente).
Terza illusione: le parole che ingannano
“Il sistema ha imparato a riconoscere i gatti.” “L’AI capisce il linguaggio naturale.” “Il modello ha sviluppato strategie innovative.”
Leggete queste frasi e cosa vi viene in mente? Probabilmente pensate a qualcosa che assomiglia al modo in cui noi umani impariamo, capiamo e sviluppiamo strategie. Ma è proprio qui che caschiamo nella terza illusione.
È come chiamare “alba” il momento in cui accendete una lampada al buio. Tecnicamente, c’è più luce di prima. Ma non è la stessa cosa dell’alba vera, con il sole che sorge lentamente, i colori che cambiano, il calore che aumenta.
Quando diciamo che un’AI “capisce” il linguaggio, stiamo usando una scorciatoia mentale. È comodo, veloce, intuitivo. Ma è anche pericoloso, perché ci fa dimenticare la differenza tra sembrare intelligente ed essere intelligente.
Prendiamo GPT o ChatGPT. Questi sistemi producono testi che sembrano scritti da umani intelligenti. Rispondono a domande, scrivono saggi, fanno conversazione. È tentante dire che “capiscono” quello che scrivono.
Ma sotto il cofano, sono macchine statistiche sofisticate. Calcolano probabilità. Predicono quale parola viene dopo, basandosi su miliardi di esempi. È come se avessero memorizzato tutti i libri del mondo e sapessero quali frasi di solito seguono altre frasi, senza mai aver vissuto le esperienze descritte in quei libri.
È la differenza tra un pappagallo molto bravo e uno scrittore. Il pappagallo può imparare a dire “ho fame” quando è ora di mangiare, ma non sa cosa significa avere fame. Lo scrittore, quando scrive “ho fame”, sta comunicando un’esperienza vissuta.
Alcuni sostengono che questa distinzione non importa. Che se il comportamento è indistinguibile dall’intelligenza vera, allora è intelligenza. Altri dicono che senza vera comprensione, questi sistemi resteranno forever vulnerabili a errori imprevedibili e pericolosi.
Il problema non è solo filosofico. Quando chiamiamo questi sistemi “intelligenti”, quando diciamo che “capiscono”, stiamo costruendo aspettative sbagliate. E aspettative sbagliate portano a decisioni sbagliate su dove e come usare queste tecnologie.
Nel 2021, le ricercatrici Emily Bender, Timnit Gebru e colleghe pubblicarono un paper destinato a fare storia: «On the Dangers of Stochastic Parrots». La tesi: i grandi modelli linguistici sono pappagalli stocastici — macchine straordinariamente sofisticate che combinano testo secondo probabilità statistiche, senza alcuna comprensione di ciò che producono. Il paper costò a Gebru il posto in Google, licenziata mentre era in ferie. La reazione violenta dell’industria fu la prova migliore che il punto era stato colto. Nel 2025, i modelli sono enormemente più capaci — ma la domanda di Bender resta aperta: capire e sembrare di capire sono la stessa cosa?
Quarta illusione: il cervello senza corpo
L’ultima illusione è forse la più profonda. È l’idea che l’intelligenza sia come software – qualcosa che può girare su qualsiasi hardware, separato dal corpo che lo ospita.
È un’idea seducente. Se l’intelligenza è solo elaborazione di informazioni, allora basta costruire computer abbastanza potenti e voilà – intelligenza artificiale. Come trasferire un programma da un computer all’altro.
Ma cosa succede se l’intelligenza non funziona così? Cosa succede se il corpo non è solo il contenitore dell’intelligenza, ma parte integrante di come funziona?
Pensateci. Quando dite “ho una sensazione di pancia” per una decisione difficile, non è solo una metafora. Il vostro sistema nervoso enterico – letteralmente un “secondo cervello” nella pancia – influenza davvero le vostre decisioni. Quando gesticolate mentre parlate, non è solo decorazione – aiuta il vostro cervello a pensare.
I bambini imparano cosa significa “sopra” e “sotto” non leggendo definizioni, ma cadendo, alzandosi, arrampicandosi. Capiscono la distanza non attraverso formule matematiche, ma camminando, correndo, allungando le braccia per afferrare oggetti.
L’intelligenza umana è embodied – incarnata. Radicata nell’esperienza di avere un corpo che si muove nel mondo, che sente caldo e freddo, che prova dolore e piacere.
I sistemi AI attuali, per quanto sofisticati, sono cervelli in vasche digitali. Processano simboli, non esperienze. Manipolano testi e immagini, ma non hanno mai sentito la texture della sabbia tra le dita o l’odore della pioggia estiva.
Alcuni dicono che questo non importa. Che l’intelligenza è pattern recognition e processing, punto. Che con abbastanza dati e potenza di calcolo, anche l’esperienza corporea può essere simulata.
Altri sostengono che senza corpo, senza esperienza diretta del mondo, questi sistemi resteranno fondamentalmente limitati. Intelligenti in senso stretto, ma privi della comprensione profonda che viene dal vivere nel mondo.
È il dibattito più filosofico dei quattro, ma ha conseguenze pratiche immediate. Influenza come progettiamo i sistemi AI, dove li implementiamo, e cosa ci aspettiamo che facciano.
Nel 1990, il roboticista Rodney Brooks scrisse un paper intitolato «Elephants Don’t Play Chess» — gli elefanti non giocano a scacchi. La tesi: l’intelligenza non emerge da simboli astratti elaborati in isolamento, ma dall’interazione continua di un corpo con il mondo fisico. Un insetto sa navigare, evitare ostacoli, trovare cibo — senza niente che assomgli a un database o un motore di inferenza. Trent’anni dopo, i robot più avanzati faticano ancora a camminare su superfici irregolari, mentre un gatto di tre mesi lo fa senza pensarci. Il cervello senza corpo produce risultati straordinari in domini astratti — e rimane profondamente fragile nel mondo fisico dove noi umani viviamo.
Il cuore del problema: due visioni dell’intelligenza
Dietro queste quattro illusioni c’è una tensione più profonda. Due modi completamente diversi di pensare all’intelligenza.
Da una parte, c’è la visione “cognitiva”. L’intelligenza come fenomeno complesso, integrato, incarnato. Come un ecosistema dove senso comune, emozioni, corpo e mente si intrecciano in modi che non capiamo ancora del tutto. In questa visione, l’AGI richiede una comprensione scientifica profonda di come funziona davvero l’intelligenza.
Dall’altra, c’è la visione “computazionale”. L’intelligenza come ottimizzazione, come problem-solving su larga scala. Come qualcosa che emerge naturalmente quando hai abbastanza dati e potenza di calcolo. In questa visione, non serve capire come funziona l’intelligenza – basta scalarla.
È la differenza tra studiare gli uccelli per imparare a volare e costruire un jumbo jet. I fratelli Wright studiarono gli uccelli, ma quello che ci porta da Roma a New York non batte le ali.
La maggior parte dei ricercatori lavora da qualche parte nel mezzo, ma queste due visioni rappresentano i poli del dibattito. E la tensione tra loro definisce tutto: quali ricerche vengono finanziate, quali sistemi vengono costruiti, verso quale futuro stiamo correndo.
Perché tutto questo importa
Potreste pensare: “Bello, ma sono discussioni accademiche. Che differenza fa nella vita reale?”
Fa tutta la differenza del mondo.
Queste illusioni non sono errori innocui. Sono il combustibile di una macchina economica gigantesca. Venture capital che investe miliardi. Aziende tech che fanno la corsa agli armamenti. Governi che competono per la supremazia AI. Tutto basato su promesse di breakthrough imminenti e rivoluzionari.
Ma ogni bolla di hype ha un prezzo.
Primo prezzo: il futuro sacrificato per il presente. Quando i capitali si concentrano su demo impressionanti e benchmark facili, la ricerca fondamentale – quella lenta, metodica, necessaria per i problemi veri – resta senza fondi. È come spendere tutto il budget per effetti speciali e niente per la sceneggiatura.
Secondo prezzo: la fiducia del pubblico sacrificata per l’eccitazione del mercato. Ogni volta che un sistema “intelligente” fallisce in modi stupidi e imprevedibili, la fiducia nelle tecnologie AI erode. Le persone iniziano a vedere i ricercatori AI come venditori di fumo. E senza fiducia pubblica, anche le tecnologie utili faticano ad essere adottate.
Terzo prezzo, il più grave: la sicurezza sacrificata per la velocità. Quando credi che un sistema sia sulla strada verso l’intelligenza generale, quando pensi che “capisca” davvero quello che fa, sei tentato di usarlo in situazioni ad alto rischio. Un chatbot per la salute mentale che dà consigli pericolosi. Un sistema di hiring che discrimina senza che nessuno se ne accorga. Un’auto autonoma che “vede” un cartello che non c’è.
Ogni volta che implementiamo sistemi brittili pensando che siano robusti, stiamo facendo una scommessa rischiosa. E spesso, a perdere non sono quelli che fanno la scommessa.
In futuro
Dove ci porta tutto questo?
Mitchell paragona l’AI moderna all’alchimia. Produce risultati spettacolari, ma senza una teoria profonda di come funziona. È una metafora potente, ma penso che la conclusione pratica sia leggermente diversa.
Non dobbiamo abbandonare la nostra potente alchimia in cerca di una scienza pura dell’intelligenza. L’obiettivo dovrebbe essere infondere la nostra alchimia attuale con i principi della scienza. Rendere lo scaling più intelligente, più sicuro, più solido, integrando quello che sappiamo davvero su come funziona l’intelligenza.
Non si tratta di scegliere tra la strada del scaling e la strada della scienza cognitiva. Si tratta di tessere insieme questi due approcci apparentemente opposti. Di guidare la potenza grezza della nostra alchimia AI moderna con la comprensione profonda di una vera scienza dell’intelligenza.
Significa sviluppare un vocabolario più preciso per descrivere quello che questi sistemi possono e non possono fare. Significa investire tanto nella ricerca fondamentale quanto nelle applicazioni commerciali. Significa essere scettici dei breakthrough miracolosi quanto dei doom scenarios apocalittici.
Soprattutto, significa mantenere quella che Einstein chiamava “mente del principiante” – curiosa, aperta, disposta a essere sorpresa dai dati piuttosto che confermata dalle proprie aspettative.
Perché alla fine, la domanda non è se l’AI trasformerà il mondo. Lo sta già facendo. La domanda è se saremo abbastanza saggi da guidare questa trasformazione, o se lasceremo che siano le nostre illusioni a guidare noi.
E la risposta a questa domanda inizia con il riconoscere le illusioni per quello che sono: non verità profonde sull’AI, ma errori di ragionamento che possiamo correggere. Una volta che li vediamo chiaramente, possiamo iniziare a costruire una comprensione più solida di questa tecnologia straordinaria e terrificante che stiamo creando.
Il futuro dell’intelligenza artificiale non è scritto. Ma se vogliamo scriverlo bene, dobbiamo prima smettere di raccontarci favole sul presente.