Nonostante i buoni propositi, l’obiettivo di raggiungere la sostenibilità ambientale è sempre più lontano: la colpa è tutta dell’intelligenza artificiale
E meno male che, con qualche differenza, i principali colossi della tecnologia avevano tutti promesso di diventare ecologicamente sostenibili in un lasso di tempo ragionevolmente breve. Nel 2020, Microsoft, Google e Apple si erano infatti impegnate a raggiungere l’obiettivo “emissioni nette zero” entro il 2030, mentre Amazon aveva garantito che lo avrebbe fatto entro il 2040.
Dietro a queste promesse si è sempre nascosta una parte di green-washing, visto che ambire alle emissioni nette zero (a differenza delle emissioni zero) permette di compensare in altro modo l’anidride carbonica prodotta con le proprie attività industriali, per esempio tramite la piantumazione di alberi o l’acquisto dei controversi crediti di carbonio. Negli ultimi tempi, quello che già era un percorso non privo di contraddizioni ha però fatto registrare dei preoccupanti passi indietro.
Le ammissioni
In un report pubblicato all’inizio di luglio, Google ha ammesso che le sue emissioni, invece di diminuire, sono aumentate del 48 per cento negli ultimi cinque anni e del 13 per cento rispetto all’anno scorso, ammettendo inoltre che ridurre le emissioni nel prossimo futuro sarà più difficile del previsto. Il traguardo fissato per la fine del decennio rischia insomma di essere mancato.
La stessa ammissione è giunta anche da Microsoft, che a maggio aveva fatto sapere che le sue emissioni di anidride carbonica erano aumentate del 30 per cento rispetto al 2020.
Discorso simile per quanto riguarda Amazon: nonostante abbia annunciato di aver ridotto l’anidride carbonica prodotta del 3 per cento rispetto allo scorso anno, analizzando i dati più di lungo termine si scopre che le emissioni del colosso fondato da Jeff Bezos sono in realtà aumentate del 34 per cento rispetto al 2019.
InvestimentiincaloemoltilimitiIl ruolo dell’Ia
Il responsabile di questa allarmante tendenza non è difficile da individuare e risponde al nome di “intelligenza artificiale”. Per la precisione, a causare l’aumento delle emissioni è l’enorme quantità di potere computazionale – e quindi di energia – richiesto per l’addestramento e l’utilizzo di ChatGpt, Midjourney, Gemini e tutti gli altri modelli che, da un paio d’anni a questa parte, hanno iniziato a essere utilizzati da centinaia di milioni di persone in tutto il mondo per le generazione di testi, immagini, musica e non solo.
Come spiega Bloomberg, «dietro agli attuali chatbot e software dotati di intelligenza artificiale si trova una vasta e crescente rete di energivori data center. In alcune di queste strutture si possono trovare migliaia degli ambiti chip H100 di Nvidia, ognuno dei quali consuma fino a 700 watt, quasi otto volte l’energia necessaria per alimentare una TV da 60 pollici».
Non è una novità: già nel 2019, un gruppo di ricercatori dell’Università del Massachusetts aveva stimato che l’addestramento dei primissimi sistemi di intelligenza artificiale generativa potesse produrre fino a 280 tonnellate di anidride carbonica, quasi cinque volte le emissioni provocate da una classica automobile nel corso del suo ciclo di vita (inclusa la produzione dell’auto stessa).
Nel 2020, per addestrare GPT-3 (il modello linguistico che alimentava la prima versione di ChatGpt) erano stati necessari 1.287 megawattora, provocando 550 milioni di tonnellate di anidride carbonica (quanto 200 voli da Milano a New York) e consumando 3,5 milioni di litri di acqua.
Nel frattempo, questi modelli sono diventati non solo più grandi (se Gpt-3 era dotato di 175 miliardi di parametri, si stima che il suo successore Gpt-4 ne abbia dieci volte tanto), ma si sono moltiplicati in numero e vengono inoltre utilizzati da una parte crescente della popolazione.
A provocare l’aumento delle emissioni non è infatti soltanto l’addestramento di questi sistemi – che richiede l’elaborazione di miliardi di dati in un processo che può essere ripetuto migliaia di volte prima di ottenere i risultati sperati – ma anche il loro utilizzo.
Una richiesta posta a ChatGpt richiede un consumo energetico dieci volte superiore a quello di una ricerca su Google (2,9 wattora contro 0,3), per non parlare dell’energia molto superiore necessaria per la generazione di immagini tramite Dall-E o Midjourney e di quella che servirà per far funzionare gli imminenti sistemi “text-to-video”, in grado cioè di generare brevi video rispondendo a un nostro comando in linguaggio naturale (com’è il caso di Kling, della cinese Kuaishou).
I rischi
Che cosa succederà quando questi sistemi saranno entrati a far parte della nostra quotidianità, diventando – come si prevede – degli insostituibili assistenti professionali o personali? Il rischio è che l’impatto ambientale delle tecnologie digitali nel loro complesso – che già oggi consumano fino al 4 per cento delle emissioni di anidride carbonica globali – diventi insostenibile.
La competizione per costruire modelli linguistici sempre più grandi e la conseguente necessità di alimentare data center sempre più vasti ed energivori non sembra infatti destinata a placarsi. Anzi: secondo le stime dell’Agenzia Internazionale per l’Energia i consumi dei data center sono destinati a raddoppiare già entro il 2026, con le emissioni del mondo delle tecnologie digitali che potrebbero arrivare a rappresentare il 14 per cento del totale (poco meno di quanto consumano gli Stati Uniti d’America) entro il 2040.
IntelligenzaartificialeLe possibili soluzioni
Quali sono le soluzioni, visto che l’aumento delle emissioni di Google, Amazon e gli altri dimostrano come, almeno per il momento, la disponibilità di rinnovabili non sia sufficiente a soddisfare la domanda energetica? Un indizio ci viene dalla decisione di Sam Altman, il fondatore di OpenAI (che produce ChatGpt), di investire nel settore dell’energia nucleare tramite le startup Oklo e Helion, entrambe impegnate a trovare nuovi modi per rendere questa fonte energetica più efficiente, sicura e abbondante (per il momento con grandi promesse e scarsi risultati).
Altri scommettono invece sulla tecnologia della cattura e rimozione dell’anidride carbonica (ancora soggetta a numerose e importanti limitazioni) e su altre innovazioni le cui concrete potenzialità sono ancora tutte da dimostrare.
Il problema è che, nel frattempo, la crisi climatica è una realtà con cui stiamo iniziando a fare duramente i conti e che rischia di essere ulteriormente aggravata da una tecnologia che non si pensava avrebbe avuto un tale impatto ambientale.
Al contrario, fino a poco fa i sistemi di intelligenza artificiale erano considerati degli alleati nel contrasto alla crisi climatica. Grazie alla capacità di scovare correlazioni statistiche all’interno di un mare di dati, gli algoritmi di deep learning – se addestrati specificamente a questo scopo – hanno già in alcuni casi dimostrato di poter ridurre lo spreco d’acqua, migliorare l’efficienza della rete elettrica, prevedere lo scoppio di incendi e anche monitorare la biodiversità.
Altre potenzialità ambientali dell’intelligenza artificiale sono state evidenziate nello stesso report in cui Google ha annunciato il drastico aumento delle sue emissioni di anidride carbonica.
Nella sezione intitolata Accelerare l’azione climatica con l’intelligenza artificiale, Google spiega che questa tecnologia può fornire ai piloti d’aereo delle rotte che producano meno scie di condensazione, può gestire termostati che ottimizzino i consumi casalinghi e, nel complesso, potrebbe ridurre le emissioni del 5-10 per cento entro la fine del decennio.
È interessante notare come sia la stessa Google a sottolineare come tutte queste potenzialità nella mitigazione della crisi ambientale siano ancora avvolte da una coltre di incertezza e come sia “difficile e complesso” prevedere l’effettivo impatto positivo che le varie sperimentazioni riusciranno a ottenere.
Da un certo punto di vista, è come se Google – e altri come lei – stessero cercando di giustificare le certe (ed enormi) emissioni provocate dall’intelligenza artificiale oggi con l’incerta e tutta da valutare possibilità che questa stessa tecnologia possa ancor più ridurre le emissioni un non meglio definito domani. È davvero una logica alla quale possiamo affidarci?
© Riproduzione riservata