Questione di coscienza. L'elaborazione di criteri per testare l'eventuale "coscienza" dei sistemi di IA

Se qualcosa è stato etichettato come 'cosciente', questo cambia molto su come noi esseri umani riteniamo che quell'entità debba essere trattata

Questione di coscienza. L'elaborazione di criteri per testare l'eventuale "coscienza" dei sistemi di IA

In un mondo caratterizzato dal vorticoso ed inarrestabile avanzamento del progresso tecnico, i sistemi di IA mostrano di divenire sempre più performanti e “creativi”, in grado di imitare in maniera sempre più dettagliata i meccanismi del comportamento umano. A tal punto che, anche tra gli scienziati addetti ai lavori, cresce un interrogativo cruciale: oltre che eccellenti imitatori, i sistemi di intelligenza artificiale potranno diventare anche “coscienti”? Un’ipotesi che la fantascienza ha già contemplato da decenni (chi non ricorda HAL 9000, il supercomputer trasformato in “cattivo” nel film del 1968 “2001: Odissea nello spazio” ?), ma che ora sta diventando sempre meno fantastica, come riconoscono persino gli stessi leader dell’IA. L’anno scorso, ad esempio, Ilya Sutskever, scienziato capo di OpenAI (l’azienda sviluppatrice del chatbot ChatGPT), in un twitt ha espresso il dubbio che alcune delle reti di IA più all’avanguardia potrebbero essere “leggermente coscienti”.
Prendendo per un attimo sul serio l’ipotesi, per gli studiosi il punto cruciale è: come faremmo a sapere se un sistema di IA sia effettivamente divenuto “cosciente” o meno?
Proprio per dare risposta a tale quesito, un gruppo di 19 neuroscienziati, filosofi e informatici si è riunito ed ha elaborato una lista di criteri che, se soddisfatti, indicherebbero che un sistema di IA ha un’alta probabilità di essere “cosciente”. Al momento, la loro guida provvisoria è stata pubblicata sul sito di preprint “arXiv”, prima di passare al vaglio (come tutte le pubblicazioni scientifiche) della revisione paritaria. Secondo Robert Long, filosofo del Center for AI Safety, di San Francisco (California, Usa) e coautore della guida, infatti, “sembrava che ci fosse una vera e propria carenza di discussioni dettagliate, empiricamente fondate e ponderate sulla coscienza delle IA”. Ovviamente, il gruppo riconosce pienamente che una simile questione comporta importanti implicazioni morali, come precisa la coautrice Megan Peters, neuroscienziata all’Università della California a Irvine: “se qualcosa è stato etichettato come ‘cosciente’, questo cambia molto su come noi esseri umani riteniamo che quell’entità debba essere trattata”. Ma Long aggiunge anche che – per quanto di sua conoscenza -, le aziende che costruiscono sistemi avanzati di intelligenza artificiale non si stanno impegnando a sufficienza per valutare i modelli di coscienza e pianificare cosa fare se dovesse accadere.
Di recente, anche la prestigiosa rivista “Nature” ha contattato sull’argomento due delle principali aziende tecnologiche coinvolte nel progresso dell’IA: Microsoft e Google. Un portavoce di Microsoft ha sottolineato come lo sviluppo dell’IA dell’azienda sia incentrato essenzialmente sull’assistenza alla produttività umana, in modo responsabile, non sulla replica dell’intelligenza umana. Tuttavia, ciò che è chiaro con l’introduzione del GPT-4 (la versione più avanzata di ChatGPT rilasciata pubblicamente) “è che sono necessarie nuove metodologie per valutare le capacità di questi modelli di IA mentre esploriamo come raggiungere il pieno potenziale dell’IA a beneficio della società nel suo complesso”. E Google invece? Semplicemente… non ha risposto!
Appare evidente che, alla base di tutto questo fermento di ipotesi e relative conseguenze operative, emerge prepotente l’esigenza di dare risposta al quesito fondamentale e previo: che cos’è veramente la “coscienza”?
A tal proposito, la Peters spiega che, ai fini del rapporto, i ricercatori si sono concentrati sulla “coscienza fenomenica”, altrimenti nota come “esperienza soggettiva” o “esperienza dell’essere”, come ci si sente, cioè, ad essere una persona, un animale o un sistema di IA (qualora uno di essi risultasse essere cosciente).
Normalmente, le neuroscienze si limitano a indagare e descrivere le basi biologiche della coscienza, elaborando a proposito varie teorie senza che vi sia consenso su quale di esse sia quella “giusta”. Per questa ragione, il gruppo di ricerca ha scelto di creare il suo quadro di riferimento a partire da una serie di queste teorie, ritenendo che, se un sistema di IA funziona in un modo corrispondente ad aspetti di molte di queste teorie, allora c’è una maggiore probabilità che sia “cosciente”. Secondo il parere di Peters e colleghi, quindi, questo sarebbe un approccio migliore per valutare la coscienza rispetto al semplice test comportamentale, per esempio chiedendo a ChatGPT se è cosciente o sfidandolo e vedendo come risponde, tenuto conto della ormai straordinaria capacità acquisita dai sistemi di IA di imitare gli esseri umani.
“Tuttavia – sottolinea il neuroscienziato Anil Seth, direttore del Centro per la scienza della coscienza dell’Università del Sussex (Brighton, UK) – abbiamo bisogno di teorie della coscienza più precise e ben testate”. E come dargli torto?
Dal punto di vista teorico, nello sviluppare i loro criteri, gli autori della ricerca hanno ipotizzato che la coscienza si riferisca al modo in cui i sistemi elaborano le informazioni (approccio denominato “funzionalismo computazionale”), indipendentemente da come sono fatti, che si tratti di neuroni, chip di computer o altro. Inoltre, hanno ipotizzato che le teorie della coscienza basate sulle neuroscienze, studiate attraverso scansioni cerebrali e altre tecniche nell’essere umano e negli animali, possano essere applicate all’IA. Sulla base di questi presupposti, il gruppo ha selezionato sei di queste teorie e ne ha ricavato un elenco di indicatori di coscienza. Un esempio: la teoria dello spazio di lavoro globale. Essa afferma che gli esseri umani e gli altri animali usano molti sistemi specializzati (chiamati anche “moduli”) per svolgere compiti cognitivi come la vista e l’udito. Questi moduli lavorano in modo indipendente, ma parallelo, e condividono le informazioni integrandosi in un unico sistema.
Ad ogni modo, gli stessi autori della guida affermano che il documento è ben lungi dall’essere un’opinione definitiva su come valutare l’eventuale “coscienza” dei sistemi di IA, invitando al tempo stesso altri ricercatori a voler contribuire nel perfezionare la loro metodologia. Nel frattempo, è già possibile applicare i criteri fin qui elaborati ai sistemi di IA esistenti.

Copyright Difesa del popolo (Tutti i diritti riservati)
Fonte: Sir