Idee
Ma le macchine pensano davvero? ChatGPT supera esami universitari, ottiene medaglie d’oro alle Olimpiadi internazionali di Matematica e genera ipotesi scientifiche poi confermate in laboratorio. I sistemi di intelligenza artificiale basati su grandi modelli linguistici — in inglese Large Language Model, o LLM — sembrano capaci di tutto. Eppure, molti esperti del settore si rifiutano ancora di ammettere che abbiano raggiunto un livello di intelligenza paragonabile a quello umano. Perché? È la domanda al centro di un acceso dibattito (ospitato dalla rivista Nature nel febbraio 2026), che ha coinvolto ricercatori di spicco da entrambe le sponde dell’Atlantico.
Convinti della potenziale superiorità delle “macchine IA “, quattro ricercatori americani — Chen, Belkin, Bergen e Danks — sostengono su Nature che le prove siano ormai schiaccianti: i grandi modelli linguistici mostrano quelle competenze cognitive ampie e flessibili che definiscono l’intelligenza artificiale generale (AGI). Superano agevolmente il Test di Turing, ideato nel 1950 per verificare se una macchina potesse spacciarsi per umana agli occhi di un interlocutore in carne e ossa. Per tre quarti di secolo quel test era rimasto una barriera invalicabile; oggi viene superato con disinvoltura da sistemi come GPT-4.5.
Se molti esperti esitano ad ammetterlo, dicono i quattro autori, è per ragioni che hanno poco a che fare con la scienza. In parte è una questione emotiva: l’idea che una macchina possa essere intelligente quanto un essere umano genera paura, la sensazione di perdere qualcosa di esclusivo e prezioso. In parte è pratica: attorno all’intelligenza artificiale ruotano enormi interessi commerciali che distorcono le valutazioni. Il risultato è un vero e proprio “tecno-tabù”, in cui gli esperti del settore si comportano da custodi moralisti dell’intelligenza umana, scoraggiando chi vorrebbe riconoscere apertamente le capacità delle macchine.
A replicare ci pensano altri scienziati, ben più scettici. Ad esempio, tre studiosi — Quattrociocchi della Sapienza di Roma, Capraro dell’Università Milano-Bicocca e Marcus della New York University — che sulle stesse pagine di Nature smontano punto per punto le argomentazioni dei colleghi. L’errore di fondo, scrivono, è confondere la capacità di svolgere bene compiti specifici con l’intelligenza generale. I risultati degli LLM sono quasi sempre misurati su test artificiali — i cosiddetti benchmark — che isolano singole competenze dal contesto reale e sono spesso facilmente manipolabili. Nel mondo reale, come nelle diagnosi mediche o nelle decisioni aziendali complesse, gli stessi sistemi mostrano limiti evidenti.
A supporto, citano uno studio dell’economista Daron Acemoglu del MIT, pubblicato nel 2025, secondo cui l’automazione basata sull’IA aumenterà la produttività complessiva di appena lo 0,66% in dieci anni: numeri ben lontani da una rivoluzione cognitiva reale. La conclusione dei tre è netta: gli LLM simulano le tracce del pensiero, non il pensiero stesso. E sopravvalutarne le capacità, avvertono, non è solo un errore concettuale, ma un errore strategico pericoloso: rischia di attribuire a questi sistemi una fiducia e un’autorità che non meritano.
Il dibattito tra tecnici ha attirato anche filosofi e studiosi di innovazione. Alex Giordano, docente alle Università Federico II di Napoli e Giustino Fortunato, sposta la discussione su un piano più radicale: il problema non è tecnico, è ontologico. La domanda giusta non è “un LLM è intelligente quanto un umano?”, ma “cosa intendiamo con la parola intelligenza?”. Chi parla di intelligenza artificiale usa quasi sempre una definizione funzionalista: intelligente è chi sa fare cose. In questa prospettiva, un sistema che risolve problemi e scrive testi convincenti è per definizione intelligente. Ma se guardiamo l’intelligenza dalla prospettiva della vita, il quadro cambia.
Un essere umano è intelligente anche perché è vulnerabile: può sbagliare, soffrire, morire. È inserito in relazioni, dipende da un corpo, risponde delle conseguenze delle proprie azioni. Un LLM non conosce la fatica del limite, non rischia nulla, non è esposto alla propria dissoluzione. La vera discussione, conclude Giordano, non è tra chi è pro o contro l’AI: è tra due idee diverse di intelligenza e, in fondo, tra due idee diverse di cosa significhi essere umani. Un dibattito che, a ben vedere, non riguarda le macchine: riguarda noi.