Intelligenza artificiale, consumo reale. Gli effetti ambientali dei grandi sistemi di IA

L'uso dell'IA è direttamente responsabile delle emissioni di anidride carbonica prodotte dall'elettricità non rinnovabile e del consumo di milioni di litri di acqua dolce, necessari al raffreddamento dei potentissimi computer che elaborano i dati d’addestramento

Intelligenza artificiale, consumo reale. Gli effetti ambientali dei grandi sistemi di IA

Cresce a dismisura lo sviluppo e la diffusione dell’intelligenza artificiale, soprattutto di quella “generativa”. Ma contemporaneamente, dati alla mano, gli studiosi si stanno rendendo conto di un nuovo aspetto problematico: questa innovativa tecnologia rischia di imprimere all’ambiente una ferita enorme e ingravescente.

L’uso dell’IA, infatti, è direttamente responsabile delle emissioni di anidride carbonica prodotte dall’elettricità non rinnovabile e del consumo di milioni di litri di acqua dolce, necessari al raffreddamento dei potentissimi computer che elaborano i dati d’addestramento. Inoltre, indirettamente, l’IA aumenta l’impatto derivante dalla costruzione e dalla manutenzione delle apparecchiature ad alto consumo energetico su cui l’intelligenza artificiale funziona. Tutto ci, mentre le aziende tecnologiche cercano di incorporare l’IA ad alta intensità in qualsiasi cosa, dalla scrittura dei “curricula” alla medicina dei trapianti di rene, dalla scelta del cibo per cani alla modellizzazione del clima, e così via. Paradossalmente, le stesse aziende propagandano al tempo stesso le enormi potenzialità dell’IA nel contribuire a ridurre l’impronta ambientale dell’umanità. Da qui, la preoccupazione dei legislatori, delle autorità di regolamentazione, degli attivisti e delle organizzazioni internazionali, che vogliono invece assicurarsi che i benefici non siano superati dai rischi crescenti dell’IA.

“Lo sviluppo della prossima generazione di strumenti di IA – ha avvertito il senatore del Massachusetts (USA) Edward Markey, autore insieme ad altri senatori di una proposta di legge che richiederebbe al governo federale di valutare l’attuale impronta ambientale dell’IA e di sviluppare un sistema standardizzato per segnalare gli impatti futuri – non può avvenire a spese della salute del nostro pianeta”. Nella medesima prospettiva, l’AI Act dell’Unione Europea (UE) – approvato dagli Stati membri di recente e destinato a entrare in vigore l’anno prossimo – richiederà ai “sistemi di IA ad alto rischio” (che includono i potenti “modelli di base” che alimentano ChatGPT e altre IA simili) di riferire il loro consumo di energia, l’uso di risorse e altri impatti durante il ciclo di vita dei sistemi.

Del resto, anche l’Organizzazione internazionale per la normazione – una rete globale che sviluppa standard per i produttori, le autorità di regolamentazione e altri soggetti – ha dichiarato che nel corso dell’anno pubblicherà criteri per una IA “sostenibile”, includendo standard per la misurazione dell’efficienza energetica, dell’uso di materie prime, del trasporto e del consumo di acqua, nonché pratiche per ridurre l’impatto dell’IA lungo tutto il suo ciclo di vita, dal processo di estrazione dei materiali e di produzione dei componenti del computer all’elettricità consumata dai suoi calcoli.

Basandosi sui calcoli relativi all’utilizzo annuale di acqua per i sistemi di raffreddamento di Microsoft, Shaolei Ren, professore associato di ingegneria elettronica e informatica presso la UC Riverside, che negli ultimi dieci anni ha studiato i costi idrici del calcolo, ha stimato che una persona che si impegna in una sessione di domande e risposte con GPT-3 (circa 10-50 risposte) comporta il consumo di mezzo litro di acqua dolce. Ma molto rimane ancora da scoprire sui milioni di litri d’acqua utilizzati per raffreddare i computer che eseguono l’IA. Lo stesso, purtroppo, vale per l’anidride carbonica dal momento che, attualmente, gli scienziati dei dati non hanno un accesso facile o affidabile alle misurazioni dell’impatto dell’IA sui gas serra, il che preclude lo sviluppo di rimedi attuabili.

Bisogna considerare che molte funzioni complesse dell’IA (ad es. creare testi o redigere un’email), peraltro sempre più richieste dal pubblico, necessitano di modelli molto grandi. Le IA di grandi dimensioni, infatti, devono eseguire un numero immenso di calcoli molto velocemente, di solito su unità specializzate di elaborazione grafica (graphics processing unit, GPU). Ma l’efficienza delle GPU aumenta quando vengono eseguite in grandi “cloud data center” (edifici specializzati pieni di computer dotati di questi chip). Quanto più è grande il “data center”, tanto più efficiente può essere dal punto di vista energetico. Per questa ragione, negli ultimi anni, si è provveduto a costruire un maggior numero di “data center a iperscala”, che contengono molti più computer e possono ampliarsi rapidamente. Per avere un’idea plastica, mentre un tipico “cloud data center” occupa circa 9.000 mq, un “data center a iperscala” può arrivare a 100.000 o addirittura 200.000 mq! E questo con i relativi consumi energetici.

L’International Energy Agency (IEA) prevede che nel 2026 il consumo di elettricità dei data center sarà doppio rispetto al 2022: 1000 terawatt, pari all’incirca all’attuale consumo totale del Giappone. Ma va anche detto che questa sua stima include tutte le attività dei data center, che si estendono oltre l’IA a molti aspetti della vita moderna. Basti pensare che Google, ad esempio, afferma che l’apprendimento automatico – la base dell’IA simile a quella umana – rappresenta un po’ meno del 15% del consumo energetico dei suoi data center.

Resta comunque sicuramente vero che l’IA può contribuire ad una migliore gestione energetica, migliorando i modelli climatici, trovando modi più efficienti per produrre tecnologia digitale, riducendo gli sprechi nei trasporti e l’utilizzo di carbonio e acqua. Un esempio? Le case “intelligenti”, gestite dall’IA, potrebbero ridurre il consumo di CO2 delle famiglie fino al 40%. E’ anche vero che, mentre l’uso dell’IA è aumentato dal 2019, la sua percentuale di utilizzo dell’energia dei data center di Google si è mantenuta al di sotto del 15%. Secondo l’IEA, inoltre, mentre il traffico Internet globale è aumentato di oltre 20 volte dal 2010, la quota di elettricità utilizzata dai data center e dalle reti è cresciuta molto meno.

Ma, avvertono gli scettici, questi dati sul miglioramento dell’efficienza vanno presi con le molle, come insegna il cosiddetto “paradosso di Jevons”, ovvero quel fenomeno sociale per cui rendere una risorsa meno costosa, a volte, ne aumenta il consumo nel lungo periodo. Una sorta di “effetto di rimbalzo”. “Se si allarga l’autostrada – spiega Ren – la gente consuma meno carburante perché il traffico si muove più velocemente, ma poi arrivano più auto. Il consumo di carburante aumenta rispetto a prima”. Del resto, l’IA può essere considerata un “acceleratore di tutto”, rendendo più veloce qualsiasi cosa si stia sviluppando.

Sorgono così nuove questioni etiche su quale tipo di IA si vuole. Se l’uso globale dell’elettricità può sembrare un po’ astratto, l’uso dell’acqua da parte dei data center è un problema più locale e tangibile, soprattutto nelle aree colpite dalla siccità. Per raffreddare i delicati dispositivi elettronici negli interni puliti dei data center, l’acqua dev’essere priva di batteri e impurità che potrebbero alterarne il funzionamento. “In altre parole, – avverte Ren – i centri dati spesso competono per la stessa acqua con cui la gente beve, cucina e si lava”. Secondo lo studioso, nel 2022, i data center di Google hanno consumato quasi 20 miliardi di litri di acqua dolce per il raffreddamento (il 20% in più rispetto al 2021), mentre nello stesso periodo l’utilizzo di acqua da parte di Microsoft è aumentato del 34%.

La costruzione di nuovi data center o l’ampliamento di quelli esistenti, spesso, a suggerito agli abitanti nelle loro vicinanze di attivarsi per scoprire quanta acqua consumano queste strutture. Per esempio, a The Dalles, in Oregon, dove Google gestisce tre data center e ne ha in progetto altri due, nel 2022 il governo cittadino ha intentato una causa contro Google per aver tenuto nascosto, secondo l’accusa, l’uso dell’acqua ad agricoltori, ambientalisti e tribù di nativi americani, preoccupati per gli effetti sull’agricoltura e sugli animali e le piante della regione. I documenti resi pubblici hanno dimostrato che i tre centri dati di Google utilizzano più di un quarto delle risorse idriche della città. In Cile e in Uruguay sono scoppiate proteste per i progetti di data center di Google che dovrebbero attingere agli stessi bacini idrici che forniscono acqua potabile.

Soprattutto, secondo i ricercatori, è necessario un cambiamento di cultura all’interno del mondo dello sviluppo dell’IA. I creatori dell’IA generativa, infatti, mentre perseguono il progresso tecnico dei loro sistemi, dovrebbero al tempo stesso essere meno riservati sui dettagli dei dati, del software e dell’hardware che utilizzano per crearla.

Copyright Difesa del popolo (Tutti i diritti riservati)
Fonte: Sir