Tecnologia, gli squilibri di genere nascosti negli algoritmi (e come correggerli)

Google Translate, nel tradurre pronomi neutri, assegna un genere o l'altro a seconda del tipo di azione o caratteristica: “lei” è bella, ma “lui” è intelligente. Columbro (DataNinja): “La tecnologia non è mai neutra: dietro c’è la mano dell’uomo (e della donna, se siamo fortunati)”

Tecnologia, gli squilibri di genere nascosti negli algoritmi (e come correggerli)

“Lei” è bella, ma “lui” è intelligente. “Lui” è un professore, “lei” è un’assistente. Su Google Translate, passando da una lingua priva di genere (come l’ungherese) a una con i pronomi “genderizzati” (come l’italiano), il traduttore assegna un genere o l'altro a seconda del tipo di azione o caratteristica. Il risultato non sorprende: è “lei” che cucina, mentre “lui” cambia una lampadina, e così via. Questo è solo uno degli esempi degli squilibri di genere presenti negli algoritmi, e in generale nelle applicazioni informatiche che riguardano la lingua.

“I ricercatori che si occupano di questi software spesso sono consapevoli di queste distorsioni, e stanno cercando di correggere il tiro – spiega Donata Columbro, giornalista che si occupa di divulgazione di cultura dei dati e co-fondatrice di DataNinja, testata che ha lavorato sul gender data bias –. Il team di Google Translate, ad esempio, nel 2018 ha fatto cambiamenti sostanziali al programma: non si opta più per una traduzione parola per parola, ma si traduce il senso della frase completa, attingendo da un database di testi che è stato messo a disposizione dell’algoritmo. Per alcune lingue è stata inserita anche la doppia traduzione: la frase inglese ‘my neighbour is beautiful’ verrà così tradotta con ‘il mio vicino/la mia vicina è bello/a’”.

Di software che presentano al loro interno stereotipi di genere ce ne sono – purtroppo – ancora tanti. Su Microsoft Word, il più celebre programma di scrittura, la correzione automatica segnala come errore l’apostrofo utilizzato nelle professioni che sono considerate prettamente maschili: un’astronauta, o un’autista, vengono considerati sbagliati e sottolineati in rosso. Cliccando sull'opzione “sinonimi”, poi, ci sono altre sorprese: alla parola “femminile” il programma associa aggettivi come “dolce” e “tenero”, mentre il termine “maschile” è sinonimo di “virile”, “energico”, “forte”.

“Queste assunzioni automatiche vengono compiute in base alle co-occorrenze tra genere maschile e femminile e certi tipi di aggettivi o verbi connessi presenti nei corpora testuali sui quali agiscono i programmi – spiega Columbro –. Questo squilibrio può essere corretto, ma moltissimo dipende dalla natura dei testi inseriti nei database messi a disposizione dell’algoritmo. E chi li fa i testi su cui si basano queste applicazioni? Noi parlanti, e scriventi”.

Il problema non si limita ai programmi informatici che riguardano la lingua: uno studio del Mit mostra come anche l’intelligenza artificiale legata al riconoscimento facciale distingua meglio i volti degli uomini bianchi piuttosto che quelli delle donne nere, dato che queste ultime sono meno presenti nei database di foto utilizzate per programmare l’algoritmo. E poi ci sono i software che fanno screening dei curriculum per le risorse umane: un caso eclatante è stato quello di Amazon, che aveva messo a punto un sistema di machine learning per il recruitment online, che finiva per selezionare solo candidature maschili per ruoli da sviluppatore. 
Questo perché il software era stato programmato per scegliere i candidati osservando i modelli di cv presentati all’azienda nell’arco degli ultimi dieci anni, e la maggior parte di questi proveniva da uomini. “Ci sono tantissime aziende che usano questi software – afferma Columbro –. Bisognerebbe capire quali sono i meccanismi che regolano questi algoritmi e come funzionano nello specifico, anche perché questi programmi determinano la possibilità di un candidato di andare o meno a colloquio”.

E poi ci sono le immagini e le gif che riguardano le donne: su Skype, tra le emoticon presenti in chat, esiste quella della “super woman”, che in italiano è stata tradotta come “super mamma”. “Perché una donna, per essere super, deve essere per forza mamma? – si chiede Columbro –. Si tratta di un errore umano, non di un bug del sistema. Il problema non è il caso singolo, ma il fatto che questo tipo di errori è sistemico: perché le categorie discriminate sono sempre le donne, le donne nere, le donne che hanno condizioni economiche inferiori? La tecnologia non è mai neutra. Sembra un costrutto artificiale, ma dietro c’è la mano dell’uomo (e della donna, quando siamo fortunati). Come scrive Meredith Broussard nel libro La non intelligenza artificiale’, l’importante è tenere sempre a mente che le macchine sono stupide e fanno esattamente ciò che l’essere umano dice.
È chi programma che decide come devono funzionare: se la maggior parte degli sviluppatori sono uomini bianchi, finirà che i software manterranno questi squilibri di genere anche nel loro funzionamento”.

Esistono però anche esempi virtuosi di tecnologie nate per assicurare una maggiore parità di genere: il Financial Times, ad esempio, ha messo a punto un software per verificare che il giornale contenga un numero sufficiente di articoli scritti da donne, mentre la Pixar ha ideato un programma che controlla il numero di battute assegnate a personaggi maschili e femminili nei suoi film. “Ricordiamoci che sono le tecnologie ad essere al servizio dell’uomo, e non viceversa: se un programma presenta un problema di squilibrio di genere, si può sempre correggere – conclude Columbro –. Quello che abbiamo in potere di fare è segnalare i malfunzionamenti dei software che utilizziamo: da un punto di vista commerciale, e non solo etico, le grandi corporations hanno tutto l’interesse a far sì che le loro applicazioni funzionino al meglio. Anche rispettando l’equità di genere”.

Alice Facchini

Copyright Difesa del popolo (Tutti i diritti riservati)
Fonte: Redattore sociale (www.redattoresociale.it)