ChatGPT potrebbe consumare meno energia del previsto

ChatGPT potrebbe consumare meno energia del previsto

Secondo un nuovo studio, ChatGPT di OpenAI potrebbe consumare solo 0,3 wattora per query, molto meno di quanto stimato in precedenza.
ChatGPT potrebbe consumare meno energia del previsto
Secondo un nuovo studio, ChatGPT di OpenAI potrebbe consumare solo 0,3 wattora per query, molto meno di quanto stimato in precedenza.

La sete di energia di ChatGPT potrebbe essere meno smisurata del previsto. Ma molto dipende da come si usa il chatbot e dai modelli di intelligenza artificiale che rispondono alle domande. È quanto emerge da un nuovo studio di Epoch AI, un istituto di ricerca sull’AI senza scopo di lucro.

ChatGPT meno energivoro del previsto

Secondo la ricerca di di Epoch AI, una query tipica di ChatGPT consuma circa 0,3 wattora, meno di molti elettrodomestici. Un dato ben lontano dai 3 wattora, 10 volte di più di una ricerca su Google, spesso citati in precedenza. L’analista Joshua You di Epoch ha spiegato che la stima si basa su ricerche datate e sull’ipotesi che OpenAI usasse chip meno efficienti per i suoi modelli.

Già da tempo si discute dell’impatto ambientale dell’intelligenza artificiale. La settimana scorsa più di 100 organizzazioni hanno firmato una lettera aperta per lanciare un grido d’allarme. La preoccupazione è che l’AI possa prosciugare le risorse naturali e spingere le aziende a tornare alle fonti non rinnovabili.

Il futuro dell’AI: più efficienza, ma anche più domanda

You ha ammesso che la cifra di 0,3 wattora è un’approssimazione, perché OpenAI non ha pubblicato i dettagli necessari per un calcolo preciso. E non considera i costi energetici aggiuntivi di funzioni come la generazione di immagini o l’elaborazione degli input. Ma si aspetta che il consumo di base di ChatGPT aumenti in futuro.

Ipotesi confermata anche dal rapporto di Rand. Secondo le previsioni, nei prossimi due anni i data center per l’AI potrebbero aver bisogno di quasi tutta la capacità energetica della California del 2022 (68 GW). Entro il 2030, addestrare un modello di frontiera potrebbe richiedere una potenza equivalente a quella di otto reattori nucleari (8 GW).

I modelli di ragionamento: più capaci, ma più affamati

L’attenzione di OpenAI e non solo, si sta spostando verso i modelli di ragionamento, generalmente più capaci in termini di compiti che possono svolgere, ma che richiedono più calcolo per funzionare. A differenza di modelli come GPT-4o, che rispondono alle domande quasi istantaneamente, i modelli di ragionamento “pensano” per secondi o minuti prima di rispondere, un processo che chiaramente consuma più energia.

You ha suggerito a chi è preoccupato per l’impronta energetica dell’AI di usare app come ChatGPT con parsimonia, o di scegliere modelli che minimizzano il calcolo necessario, per quanto possibile.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
12 feb 2025
Link copiato negli appunti