OpenAI ha recentemente introdotto una scala interna per monitorare i progressi dei suoi modelli linguistici di grandi dimensioni verso l’intelligenza artificiale generale (AGI). Lo ha dichiarato un portavoce a Bloomberg. Questo sistema di valutazione mira a definire in modo più chiaro quando l’AGI sarà raggiunta, consentendo all’azienda di valutare i propri progressi e quelli dei suoi concorrenti.
Questa scala quindi, potrebbe contribuire a fornire una definizione rigorosa di progresso, anziché lasciarla all’interpretazione.
I cinque livelli della scala di OpenAI
La scala di OpenAI è composta da cinque livelli distinti, ognuno dei quali rappresenta un passo avanti verso l’AGI:
- Livello 1: Chatbot attuali come ChatGPT.
- Livello 2: Sistemi in grado di risolvere problemi di base al livello di una persona con un dottorato di ricerca.
- Livello 3: Agenti AI in grado di intraprendere azioni per conto di un utente.
- Livello 4: AI in grado di creare innovazioni.
- Livello 5: AI che può svolgere il lavoro di intere organizzazioni di persone, alias il raggiungimento dell’AGI.
OpenAI sostiene di essere vicina al livello 2 e ha precedentemente definito l’AGI come “un sistema altamente autonomo che supera gli esseri umani nella maggior parte dei compiti di valore economico“.
La missione di OpenAI e l’importanza della definizione di AGI
La struttura unica di OpenAI è incentrata sulla sua missione di raggiungere l’AGI. L’azienda si è impegnata a non competere e ad assistere qualsiasi progetto allineato ai valori e attento alla sicurezza che si avvicini alla realizzazione dell’AGI prima di OpenAI. Tuttavia, la formulazione di questo punto nello statuto dell’azienda è vaga, lasciando spazio al giudizio dell’entità a scopo di lucro. La nuova scala di valutazione potrebbe contribuire a stabilire in termini più chiari quando l’AGI sarà raggiunta.
Nonostante i progressi di OpenAI, l’AGI è ancora molto lontana (e viene da dire “per fortuna”). Saranno necessari miliardi di dollari di potenza di calcolo per raggiungere questo traguardo, se mai sarà possibile. Le tempistiche fornite dagli esperti e da OpenAI variano considerevolmente, con il CEO Sam Altman che ha dichiarato ad ottobre 2023 che mancano “cinque anni, più o meno” per raggiungere l’AGI.
Collaborazione con Los Alamos National Laboratory
L’introduzione della scala di valutazione è avvenuta un giorno dopo l’annuncio della collaborazione di OpenAI con il Los Alamos National Laboratory, che mira a esplorare come modelli avanzati di AI possano assistere in modo sicuro la ricerca bioscientifica. L’obiettivo è testare le capacità di GPT-4o e stabilire una serie di fattori di sicurezza per il governo statunitense, consentendo di valutare i modelli pubblici o privati rispetto a questi fattori.
Preoccupazioni sulla sicurezza di OpenAI
A maggio, OpenAI ha sciolto il suo team di sicurezza (per poi formarne un altro con a capo Altman stesso…) dopo l’uscita di alcuni membri chiave, sollevando preoccupazioni riguardo alle conseguenze che ciò potrebbe avere se l’azienda dovesse effettivamente raggiungere l‘AGI. Sebbene OpenAI abbia negato che la cultura e i processi di sicurezza siano passati in secondo piano rispetto ai prodotti più redditizi, alcuni esperti sono dubbiosi.