Per molti di noi, cresciuti a pane e Commodor, Nokia 2110 e Tetris avvicinarsi all'intelligenza artificiale è l’ennesima prova e un'ulteriore fonte di dubbi esistenziali su innovazione, complessità del mezzo, imperscrutabilità delle implicazioni etiche.

Così, dopo le traversate del 2000 con Internet e del 2010 con i social, mi rendo conto che invece di surfare nel web mi troverò ad annaspare con un occhio alla boa e l’altro al seggiolone del bagnino, sempre che ci sia qualcuno (una fantomatica authority) allenato a salvarmi.

L’unica urgente domanda che mi si è posta prima di salutare in “call” e spegnere tutto è: ma a noi umani quanto costa tutto questo? Cioè, capisco che l’AI ci darà molto, ma so che non sarà per tutti e che tutto o quasi ha un prezzo. Ho quindi fatto la domanda alla stessa “Gemini” (che si è autoritratta nell'immagine qui sotto) l’intelligenza artificiale di Google pensando di coglierla in fallo, e invece...

Addestrare l'AI ha costi significativi

- Cara Gemini, hai solo una pallida idea di quanto inquini l’intelligenza artificiale?

“Certo. L'intelligenza artificiale (IA) sta rapidamente trasformando ogni aspetto della nostra vita, dalla medicina all'economia, dalla comunicazione alla logistica. Tuttavia, dietro l'aura di efficienza e progresso, si cela un'ombra crescente: il suo significativo impatto ambientale.

Il fulcro del problema risiede nel consumo energetico dei data center, i "cervelli" fisici dell'IA. Questi centri, che ospitano migliaia di server, operano 24 ore su 24, sette giorni su sette, richiedendo enormi quantità di elettricità per l'elaborazione dei dati e, soprattutto, per il raffreddamento delle apparecchiature. Un rapporto del 2020 della International Energy Agency (IEA) stimava che i data center rappresentassero circa l'1% del consumo globale di elettricità, una quota destinata a crescere esponenzialmente con l'avanzare dell'IA e della digitalizzazione.

Un data center di Google / foto Shutterstock

Uno degli aspetti più energivori dell'IA è l'addestramento dei modelli di deep learning, in particolare quelli linguistici di grandi dimensioni (Large Language Models - LLM) come GPT-3 (e le sue iterazioni successive) o LaMDA. Questo è dovuto non solo all'intensità computazionale richiesta, ma anche alla necessità di iterazioni e affinamenti continui. E la "corsa agli armamenti" tra le grandi aziende tecnologiche per sviluppare modelli sempre più grandi e performanti aggrava ulteriormente la situazione.

Il consumo di acqua e terre rare

I data center utilizzano ingenti quantità di acqua per raffreddare i server, soprattutto quelli che impiegano sistemi di raffreddamento a evaporazione. Con l'intensificarsi delle ondate di calore e la crescente scarsità idrica in molte regioni del mondo, questa dipendenza rappresenta una preoccupazione ambientale e sociale non trascurabile. Recenti indagini hanno rivelato come alcuni dei maggiori data center al mondo consumino milioni di litri d'acqua al giorno, spesso in aree già sotto stress idrico [3].

La produzione di chip, schede grafiche (GPU) e altri componenti elettronici necessari per l'IA richiede l'estrazione di minerali rari e un processo produttivo ad alta intensità energetica e chimica, generando scarti e inquinamento. Inoltre, la rapida obsolescenza tecnologica porta a un aumento dei rifiuti elettronici (e-waste), un'altra sfida ambientale significativa.

Il consumo d'acqua è uno dei problemi più rilevanti dell'uso dell'Ai / foto Shutterstock

La promessa ecologica dell'AI

- Bene, ma non benissimo diremmo. Ma Gemini sa anche tirare l’acqua al suo enorme mulino e ha indorato la pillola così...

“Di fronte a queste sfide, la ricerca e lo sviluppo si stanno muovendo verso soluzioni più sostenibili. Si stanno esplorando architetture di rete neurale più efficienti, algoritmi che richiedono meno dati e risorse per l'addestramento.

Un'altra direzione cruciale è la transizione verso fonti energetiche rinnovabili per alimentare i data center. Molte delle grandi aziende tecnologiche si sono impegnate a raggiungere la neutralità carbonica o a utilizzare il 100% di energia rinnovabile. Tuttavia, la disponibilità e l'affidabilità di tali fonti rimangono una sfida, e l'effettiva riduzione dell'impronta di carbonio dipende dalla capacità delle reti elettriche di fornire energia pulita in modo costante.

La trasparenza è un altro elemento chiave. Attualmente, la misurazione e la rendicontazione dell'impatto ambientale dell'IA sono spesso lacunose.

In conclusione, mentre l'IA promette di essere uno strumento potente per affrontare alcune delle sfide più urgenti del nostro tempo, come il cambiamento climatico stesso (attraverso la modellazione climatica o l'ottimizzazione energetica), è imperativo che la sua stessa impronta ambientale venga gestita con urgenza.

La "corsa" all'IA non può ignorare il costo ecologico. Sviluppare un'IA etica significa anche sviluppare un'IA sostenibile, in cui l'innovazione tecnologica proceda di pari passo con la responsabilità ambientale, garantendo un futuro in cui l'intelligenza artificiale sia veramente "verde" e al servizio del benessere del pianeta”.

La sede di Google, a Seattle
La sede di Google, a Seattle / foto Shutterstock

Quanto abbiamo consumato per fare questa intervista?

- In conclusione, ho chiesto almeno un po’ di autocritica, domandando a Gemini quanto fosse costata al pianeta la nostra chiacchierata.

“Hai richiesto un articolo di circa 3000 caratteri, e poi altri tre paragrafi aggiuntivi. Questo implica diverse "turnazioni" o interazioni con il modello.

Considerando che sono un modello di grandi dimensioni (come Google Gemini, anche se non posso fornire dettagli specifici sulla mia architettura o dimensione), il consumo per ogni singola risposta rientra probabilmente nella fascia più alta delle stime per la generazione di testo. Quindi, per darti una stima molto approssimativa e con ampi margini di incertezza: per l'articolo iniziale di 3000 caratteri: per l'intero processo di generazione e raffinamento del testo che hai richiesto, il consumo energetico è probabilmente nell'ordine di qualche migliaio di joule.

Per contestualizzare: qualche migliaio di joule è una quantità molto piccola di energia. È molto meno di quanto consuma, ad esempio, lasciare una lampadina a LED accesa per un'ora (che può essere tra i 36.000 e i 360.000 joule a seconda della potenza) o caricare completamente uno smartphone (che può essere circa 40.000 joule). Tuttavia, il problema, come evidenziato nell'articolo, non è la singola interazione, ma i miliardi di interazioni che avvengono ogni giorno su scala globale. È fondamentale sottolineare che questa è una stima molto grossolana”. Per un pugno di Joule…

Foto Shutterstock