L’impatto ambientale delle email generate da ChatGPT
Ogni interazione con ChatGPT implica un pesante carico computazionale, dato che richiede un elevato numero di operazioni per elaborare la risposta più efficace nel minor tempo possibile. Questo processo avviene nei servers, che sono frequentemente localizzati in data center. Durante l’utilizzo, i server generano una significativa quantità di calore, il quale viene controllato tramite sistemi di raffreddamento che consumano ingenti risorse idriche ed energetiche.
Un’analisi condotta dai ricercatori dell’Università della California, Riverside, in collaborazione con il Washington Post, ha messo in luce il considerevole impatto ambientale associato all’uso di ChatGPT per la generazione di email. In particolare, lo studio ha esaminato i consumi legati all’utilizzo del modello GPT-4, rilasciato nel marzo 2023, per la redazione di un’email di circa 100 parole.
Il risultato di questa ricerca ha evidenziato come l’invio di un’email prodotta da un modello di intelligenza artificiale non sia un atto neutro, ma contribuisca piuttosto ad un notevole utilizzo di risorse, sia in termini di acqua sia in termini di energia. I dati messi a disposizione dai ricercatori offrono un’illustrazione chiara delle implicazioni ecologiche di una pratica quotidiana come l’invio di un’email, una pratica che spesso viene sottovalutata in termini di costi ambientali.
La crescente diffusione di sistemi di intelligenza artificiale, pur portando vantaggi in vari settori, richiede quindi una riflessione approfondita sul bilancio ecologico delle nuove tecnologie e sui modi per contenere l’impatto che queste ultime hanno sul nostro pianeta.
Consumi idrici delle email
Un aspetto spesso trascurato quando si parla del consumo di risorse legato all’uso di ChatGPT è l’ammontare di acqua necessaria per la generazione di email. Secondo la ricerca condotta dai ricercatori dell’Università della California, Riverside, ogni volta che un utente invia un’email di circa 100 parole attraverso il modello GPT-4, si stima un consumo di circa mezzo litro d’acqua. Questa quantità, sebbene possa apparire esigua a livello individuale, assume un significato ben diverso quando si considerano le quantità totali derivate da un uso regolare del servizio.
Ad esempio, se un individuo dovesse inviare questa stessa email una volta alla settimana per un intero anno, si arriverebbe a un totale di 27 litri di acqua. Questo dato diventa ancora più preoccupante se si estende il calcolo a un numero significativo di lavoratori: nel caso in cui il 10% dei lavoratori americani, ovvero circa 16 milioni di persone, compia questa operazione settimanalmente, il consumo annuo sfiorerebbe i 435 milioni di litri d’acqua. Questa cifra è equivalenti al fabbisogno idrico di tutte le famiglie del Rhode Island in un giorno e mezzo, sollevando interrogativi sulla sostenibilità di tali pratiche in un contesto di crescente scarsità di risorse idriche.
È fondamentale notare che il livello di consumo idrico può variare significativamente in base alla collocazione geografica dei data center e alle specificità climatiche della regione. Inoltre, l’acqua necessaria non è solo un mero fattore di consumo, ma rappresenta anche un elemento cruciale nel bilancio ecologico, facendo emergere l’importanza di una gestione responsabile e sostenibile delle risorse nell’era dell’intelligenza artificiale.
Consumi energetici delle email
Il consumo energetico legato all’uso di ChatGPT, in particolare per la generazione di email, rappresenta un altro aspetto cruciale da considerare riguardo all’impatto ambientale. Ogni email di circa 100 parole generata tramite il modello linguistico richiede, in media, un consumo di 0.14 KWh di elettricità, una quantità equivalente al fabbisogno di 14 lampadine LED accese per un’ora. Questo valore, preso singolarmente, può sembrare innocuo, ma la somma di tali consumi nel tempo e tra un vasto numero di utenti può portare a una situazione allarmante.
Se un dipendente decidesse di inviare questa email settimanalmente per un anno intero, il consumo energetico si attesterebbe attorno ai 7.5 KWh, equivalente all’elettricità consumata da dieci famiglie per un’ora. Se poi si estende la proiezione a circa 16 milioni di lavoratori americani, il risultato diventa ancora più impressionante, con un totale di 121.517 MWh di energia elettrica, un valore che corrisponde al consumo medio di tutte le famiglie di Washington DC per un periodo di venti giorni.
L’aumento della domanda di energia elettrica per il funzionamento dei data center ha ripercussioni dirette anche sulla capacità delle reti elettriche, evidenziando come il crescente utilizzo di intelligenza artificiale e servizi online non sia privo di conseguenze sull’ambiente. La necessità di energia per supportare queste operazioni va dunque considerata come parte integrante del costo ambientale di pratiche quotidiane che frequentemente vengono sottovalutate.
È quindi essenziale riflettere su soluzioni sostenibili per ridurre l’impatto della tecnologia sull’ambiente. L’implementazione di fonti energetiche rinnovabili per alimentare i data center potrebbe rappresentare un passo significativo nella direzione di una maggiore sostenibilità nel settore AI.
Addestramento dei modelli AI e loro impatto
Oltre all’energia necessaria per le operazioni quotidiane, è importante considerare l’enorme investimento energetico associato all’addestramento dei modelli di intelligenza artificiale. Tali modelli richiedono una dose considerevole di potenza di calcolo per elaborare e analizzare ingenti quantità di dati. Questo processo non solo implica un notevole consumo di elettricità, ma ha anche conseguenze dirette sui consumi idrici, poiché i data center necessitano di sistemi di raffreddamento efficaci per mantenere operativi i server.
Per illustrare l’entità di tali consumi, si possono prendere in esame i dati forniti dal Washington Post. Ad esempio, durante l’addestramento del modello GPT-3, il data center di Microsoft ha consumato circa 700.000 litri d’acqua. Allo stesso modo, Meta ha registrato un consumo di 22 milioni di litri d’acqua per generare il proprio modello open source LLaMA-3. Questi numeri evidenziano l’enorme carico ambientale legato non solo all’uso quotidiano, ma anche allo sviluppo stesso dei sistemi di intelligenza artificiale.
Le implicazioni di tali consumi sono significative, in quanto il crescente bisogno di risorse da parte delle tech company potrebbe contribuire a un aumento della pressione su risorse già limitate. È quindi fondamentale esplorare metodi per ottimizzare l’efficienza e ridurre l’impatto ambientale associato a queste tecnologie. Ciò può comportare la progettazione di data center più sostenibili, ad esempio ubicati in aree geografiche strategiche dove il raffreddamento naturale può essere sfruttato, oppure l’impiego di fonti energetiche rinnovabili per alimentare le operazioni.
Questo approccio non solo può contribuire a minimizzare i costi ambientali, ma anche a garantire un futuro più sostenibile per l’innovazione tecnologica, evidenziando la necessità di un equilibrio tra progresso e responsabilità ecologica.
Big Tech e la crescente impronta ecologica
Le principali aziende tecnologiche, spesso definite Big Tech, si trovano ad affrontare un paradosso significativo nel loro operato: mentre avviano una serie di innovazioni che promettono di migliorare la vita quotidiana, simultaneamente contribuiscono a un aumento dell’impatto ecologico. Un indicativo esempio è Google, che ha annunciato l’obiettivo di raggiungere una completa decarbonizzazione entro il 2030. Tuttavia, le statistiche recenti mostrano che l’impronta di carbonio dell’azienda è aumentata del 48%. Tale crescita è in gran parte attribuita alla necessità di alimentare i data center dedicati all’intelligenza artificiale.
Il reintegro delle risorse idriche rappresenta un altro aspetto critico. Google ha attualmente raggiunto un livello di reintegro solo pari al 18% dell’acqua utilizzata, una realtà distante dall’ambizioso obiettivo del 120% fissato nel piano ecologico preannunciato per il decennio. Anche Microsoft e Meta, assieme ad altri leader di settore, si trovano in situazioni simili, con impronte ecologiche crescenti rispetto agli impegni iniziali.
Un dato allarmante è il consumo energetico. Nel corso del 2023, Microsoft e Google hanno registrato un consumo congiunto di 48 TWh di elettricità per i loro data center, una cifra che supera l’intero fabbisogno energetico di oltre 100 paesi, inclusi stati come il Ghana e la Tunisia. Ciò pone importanti interrogativi sulla sostenibilità a lungo termine dell’erogazione di servizi basati sull’intelligenza artificiale.
In un contesto di crescente consapevolezza ambientale e necessità di pratiche sostenibili, appare evidente che le grandi aziende tecnologiche devono affrontare la sfida di bilanciare l’innovazione con la responsabilità ecologica. La transizione verso pratiche più sostenibili non solo è auspicabile, ma è diventata un requisito inderogabile per garantire un futuro vivibile sia per i consumatori sia per il pianeta.