L’intelligenza artificiale generativa richiede un’enorme quantità di energia e acqua sia durante la fase di addestramento dei modelli che durante l’uso dei chatbot. Il Washington Post e i ricercatori dell’Università della California (Riverside) hanno stimato i consumi di ChatGPT durante la scrittura di un’email lunga 100 parole con il modello GPT-4.
Quanto consuma ChatGPT?
Quando un utente chiede a ChatGPT di scrivere un’email da 100 parole viene eseguita l’elaborazione dei prompt (input) sui server ospitati nei data center (nel caso di OpenAI sono principalmente quelli del servizio Azure di Microsoft). L’uso dei server genera calore che viene smaltito dai sistemi di raffreddamento ad acqua. Oltre che per alimentare direttamente i server, l’energia elettrica viene usata anche per ridurre la temperatura interna dei data center.
Il consumo di acqua dipende dalla posizione geografica dei data center. Secondo i ricercatori dell’Università della California (Riverside), quello nello stato di Washington (dove si trova la sede di Microsoft) consuma 1.468 millilitri di acqua, ovvero circa 1,5 litri per generare un’email lunga 100 parole. Quello in Texas consuma invece 235 millilitri.
In media, la generazione dell’email richiede 519 millilitri di acqua. Considerando almeno una richiesta a settimana per un anno da parte di lavoratore americano su 10 (circa 16 milioni di persone), il consumo di acqua supera i 435 milioni di litri, ovvero l’acqua consumata da tutte le famiglie del Rhode Island in 1,5 giorni.
La scrittura dell’email richiede inoltre 0,14 kWh di energia elettrica, equivalenti all’accensione di 14 luci a LED per un’ora. Considerando almeno una richiesta a settimana per un anno da parte di lavoratore americano su 10 (circa 16 milioni di persone), il consumo di energia supera i 121 MW, equivalenti all’elettricità consumata da tutte le famiglie del District of Columbia in 20 giorni.
I modelli IA sono sempre più grandi (miliardi di parametri), quindi per velocizzare l’addestramento occorrono server sempre più potenti. I data center usati da Microsoft per il training di GPT-3 (quindi non il più recente) hanno consumato oltre 700.000 litri di acqua, la stessa quantità necessaria per produrre circa 100 libbre (45 Kg) di carne di manzo.
Meta ha invece consumato 22 milioni di litri di acqua per addestrare Llama 3, la stessa quantità necessaria per produrre circa 4.439 libbre (2.013 Kg) di riso. Tutte le Big Tech hanno promesso di ridurre le emissioni di gas serra, ma con l’arrivo dei chatbot sarà molto difficile raggiungere gli obiettivi (Microsoft userà anche una centrale nucleare).