ChatGPT è uno strumento molto potente, intrigante, ma anche costoso. Secondo una ricerca condotta dall’Università del Colorado Riverside in collaborazione con l’Università del Texas di Arlington, infatti, l’addestramento del modello linguistico GPT-3 (quindi nemmeno l’ultima generazione GPT-4) ha consumato addirittura 700.000 litri di acqua dolce a causa del raffreddamento degli enormi data center utilizzati. L’enorme dispendio d’acqua continua ancora oggi con il funzionamento dell’intelligenza artificiale, ma non è un caso unico.
ChatGPT usa tanta, troppa acqua
L’analisi condotta dagli eserti ha valutato sia l’acqua usata per il raffreddamento, sia per produrre l’energia elettrica necessaria al fine di mantenere attivo il chatbot. L’impronta idrica, misurata in WUE (Water Usage Effectiveness, ovvero i litri di acqua usati annualmente per il consumo annuale in kWh dell’impianto, ergo in litri per kWh), ammonterebbe a circa 3,8 L/kWh in caso di addestramento in Asia. Questa cifra si traduce in 4,9 milioni di litri, pari alla produzione di 2.600 BMW o 2.200 Tesla.
Negli Stati Uniti, invece, l’acqua totale utilizzata per GPT-3 ammonterebbe a 3,5 milioni di litri.
Il consumo indiretto da parte degli utenti per ciascuna conversazione (tra 20 e 50 interazioni) sarebbe invece pari a 500 ml d’acqua, ovvero la tipica bottiglia di piccole dimensioni. Gli stessi studiosi hanno dunque cercato di inquadrare i consumi dei data center di Google, concludendo che essi avrebbero “bevuto” 1,7 miliardi di litri di acqua dolce soltanto nel 2021.
Gli autori evidenziano quindi il grave problema dell’impronta idrica dei modelli IA, “da affrontare come priorità” con uno sforzo collettivo. Infine, essi affermano con sufficiente convinzione che GPT-4 avrebbe richiesto una quantità di acqua considerevolmente più alta per l’addestramento; tuttavia, i dati pubblici ora disponibili non consentono di fare una stima ragionevole.