Mosaico
Da decenni neuroscienziati e ingegneri cercano un modo per “tradurre” ciò che avviene nel cervello umano in un linguaggio comprensibile. Un obiettivo che fino a poco tempo fa sembrava confinato alla fantascienza, ma che oggi, grazie a nuove tecniche di neuroimaging e a modelli di intelligenza artificiale sempre più sofisticati, sta iniziando a prendere forma reale. Un gruppo di ricercatori — il cui lavoro è stato riportato dalla rivista “Nature” nell’ambito di uno studio sulle interfacce cervello-linguaggio — ha dimostrato che è possibile decodificare l’attività cerebrale di una persona e ricostruire, almeno in parte, il contenuto dei pensieri in forma testuale.
Il risultato nasce da un approccio completamente non invasivo: i partecipanti non devono subire chirurgia né impianti nel cervello, bensì semplicemente sdraiarsi all’interno di uno scanner di risonanza magnetica funzionale (fMRI), mentre ascoltano brevi racconti o immaginano di ascoltarli. La fMRI registra le variazioni del flusso sanguigno nelle diverse aree cerebrali, un indicatore indiretto ma affidabile dell’attività neurale. Questi segnali vengono poi dati “in pasto” a un modello di intelligenza artificiale addestrato a riconoscere le corrispondenze tra l’attività cerebrale e il significato delle frasi udite.
Il sistema non restituisce una trascrizione letterale, parola per parola. Piuttosto, genera un testo che riflette il contenuto concettuale del messaggio originale. Se una persona ascolta una storia che descrive qualcuno che cammina verso una porta, il modello potrebbe produrre una frase come “si avvicinò all’ingresso”, catturando il senso dell’azione anche se con parole differenti. In alcuni casi, la somiglianza con il testo di partenza è sorprendentemente alta; in altri, il modello coglie solo l’idea generale. Ma il principio funziona, e con una coerenza che fino a pochi anni fa sarebbe sembrata impossibile ottenere senza dispositivi impiantati.
Lo scopo della ricerca è duplice. Sul piano scientifico, offre uno strumento senza precedenti per esplorare come il cervello rappresenta e manipola il linguaggio, l’immaginazione narrativa e il contenuto concettuale. Sul piano applicativo, apre scenari di enorme rilevanza clinica: dispositivi simili potrebbero un giorno permettere a persone con paralisi motoria, sindromi da chiusura o disturbi gravi del linguaggio di comunicare attraverso il solo pensiero.
Naturalmente, i limiti non mancano. La decodifica funziona solo in condizioni molto controllate, con tempi lunghi di registrazione e strumenti complessi come la risonanza magnetica. La precisione è ancora lontana da ciò che servirebbe per una comunicazione continua e affidabile, e ogni modello deve essere addestrato sul singolo individuo, perché l’organizzazione cerebrale varia moltissimo da persona a persona. Anche l’interpretazione dell’IA resta vincolata all’input ricevuto durante l’addestramento: non si tratta di leggere pensieri spontanei, ma di riconoscere schemi appresi.
Accanto agli entusiasmi suscitati da questa nuova procedura, emergono inevitabilmente anche alcune questioni etiche. Chi potrebbe accedere a queste tecnologie (possibili discriminazioni)? Come garantire che vengano utilizzate solo con il pieno consenso della persona (violazione privacy)? È dunque necessario delineare fin da ora linee guida chiare per evitare il rischio di intrusioni indebite nella sfera mentale, la dimensione più intima dell’individuo.
Nonostante le cautele, il passo compiuto è significativo. Le interfacce cervello-computer non invasive stanno entrando in una fase matura, e i modelli di IA sembrano sempre più in grado di cogliere strutture profonde nel modo in cui pensiamo e comprendiamo il mondo. La strada è lunga, ma la direzione è tracciata: decodificare il pensiero umano potrebbe diventare, nei prossimi anni, una delle frontiere più affascinanti e rivoluzionarie dell’incontro fra neuroscienze e intelligenza artificiale.