Il prezzo da pagare per permettere a ChatGPT di operare correttamente non è indifferente: da un punto di vista ambientale, le prime stime effettuate dagli analisti affermano che il chatbot usa una bottiglia d’acqua per singola conversazione, mentre l’addestramento avrebbe richiesto l’uso di 700.000 litri di acqua dolce. Da un punto di vista meramente economico, però, come ripreso da The Information e Business Insider, il progetto di casa OpenAI richiederebbe un massimo di 700mila dollari al giorno per funzionare.
Il costo importante di ChatGPT
A cosa sarebbe dovuto questo salasso? Il motivo è semplice: ChatGPT si fonda su una infrastruttura estremamente costosa, necessaria al fine di gestire il crescente utilizzo dello strumento. Con le richieste degli utenti in continuo aumento e l’evoluzione da GPT-3 a GPT-4, dunque, gli analisti temono un incremento notevole dei costi nel corso dei prossimi mesi.
Come farà OpenAI a gestire tale mole di lavoro? È difficile trovare una risposta ma, nel mentre, Microsoft sta correndo ai ripari.
Abbiamo già parlato due giorni fa della volontà del colosso di Redmond di utilizzare il chip proprietario Athena per addestrare i cosiddetti LLM (Large Language Model). Solo in questo modo l’azienda riuscirebbe a tagliare i costi e ottimizzare gli algoritmi di intelligenza artificiale. Il progetto deve essere ancora portato a termine; eppure, le idee di Satya Nadella e soci sono già ben chiare.
Molto probabilmente Microsoft continuerà la collaborazione con OpenAI per perfezionare ChatGPT ma, in fondo, non va escluso per il futuro un percorso differente per il titano dietro Windows e Bing Chat.