Da quando si parla di intelligenza artificiale (IA) anche al bar, una nuova parola inglese è diventata comune: bias. Quanti seguono il dibattito su questo tema incontrano questo termine almeno tre quattro volte al giorno: l’IA ha i bias. No, non sono virus informatici pericolosi tanto o più di quelli biologici. Però la loro reputazione è altrettanto negativa: sono un problema. E io capisco solo in parte il problema.
La più semplice traduzione del termine bias è: pregiudizio. Se chiedo qualcosa di più specifico al sistema di IA di Google, leggo: “In italiano, ‘bias’ (o bias cognitivo) si traduce come pregiudizio, inclinazione o tendenza. Si riferisce a una distorsione sistematica nel pensiero che porta a giudizi o decisioni non oggettive o non razionali. In pratica, è un errore di valutazione dovuto a scorciatoie mentali o percezioni soggettive della realtà”.
La definizione sembra sostenere la preoccupazione: i pregiudizi non sono buoni, portano a errori, esprimono una mancanza di obiettività, sostengono visioni distorte se non malvagie. Quello che invece mi lascia perplesso è che gridiamo allarmati al pensiero che i sistemi di IA evidenzino dei bias. Certamente non sono contento che gli esiti di questi sistemi (siano essi documenti o decisioni) siano segnati da pregiudizi; solo non ne sono stupito.
Un paio di esempi classici eclatanti. Se una IA in ambito sanitario lavora soprattutto su cartelle cliniche di pazienti uomini, farà più fatica a dare risultati precisi su casi femminili. In alcuni esperimenti americani di applicazione dell’IA nei tribunali, si sono registrati casi in cui il sistema era più propenso a un giudizio di colpevolezza contro persone di colore.
Attenzione! Se gli esiti dell’IA sono marcati da pregiudizi giustamente inaccettabili, non è perché la macchina è cattiva, razzista o ottusa. I bias digitali hanno sostanzialmente un’origine statistica, esattamente come tutti i risultati dell’IA; essi sono frutto di una raccolta infinita di dati e di una raffinatissima gestione logica degli stessi. Semplicemente questi sistemi hanno registrato ciò che noi umani facciamo, diciamo e decidiamo. Se l’IA ha dei bias è perché noi umani siamo pieni di pregiudizi, talvolta siamo anche cattivi, razzisti e ottusi.
Ma anche qui non mi indigno particolarmente, soprattutto se considero la questione in senso ampio e non solo rispetto a casi facilmente riconoscibili e condannabili. La definizione citata nelle prime righe definisce questi errori frutto di “percezioni soggettive della realtà”. Scusatemi l’obiezione da filosofo, ma la percezione umana della realtà è sempre soggettiva: abitiamo un tempo e un luogo specifico, siamo uomini e donne, con caratteri diversi e fisici diversi. Vediamo, comprendiamo e giudichiamo il mondo da un punto di vista specifico, originale, unico. Quanta fatica abbiamo fatto e facciamo, anche come mondo cristiano, a custodire questa insuperabile e preziosa unicità, che genera riflessioni e giudizi tanto unici quanto parziali, collocati e quindi sempre, in qualche modo, pregiudicati. Perché ora vorremmo giudizi asettici, assoluti, obbiettivi, generali? Perché li pretendiamo dalle nostre macchine?
Il dibattito scandalizzato sui bias dell’IA rivela un desiderio insito nel cuore dell’uomo, almeno nella cultura occidentale: quello di poter accedere a una verità assoluta, definitiva e incontrovertibile. Non riuscendoci noi umani, speriamo che questo risultato ci sia fornito dalle nostre macchine. E siamo delusi quando scopriamo che ciò non accade e non può accadere.
Una delle sfide più interessanti per chi progetta e realizza IA è certamente quella di riconoscere, ridurre e correggere i bias insiti nei processi e nei risultati di queste macchine. Un lavoro assolutamente necessario e da sostenere. Magari non con sguaiati allarmismi, ma con la più realistica percezione che noi siamo la fonte di questi pregiudizi. E che i primi che devono riconoscere e non assolutizzare i propri punti di vista e doverosamente correggere precomprensioni errate siamo proprio noi.