OpenAI ha smantellato il Superalignment Team creato da Ilya Sutskever e Jan Leike (entrambi hanno lasciato l’azienda) all’inizio di luglio 2023. I membri del team sono stati spostati in altri gruppi di ricerca. Leike ha scritto su X che la sicurezza non è la priorità di OpenAI.
OpenAI non considera i rischi dell’IA?
Le dimissioni di Ilya Sutskever e Jan Leike confermano le differenti “visioni” all’interno dell’azienda. Il Superalignment Team era stato creato per evitare che la superintelligenza possa prendere il sopravvento sulla razza umana con conseguenze catastrofiche. Il team doveva utilizzare il 20% delle risorse di calcolo per risolvere il problema entro quattro anni.
Secondo le fonti di TechCrunch, OpenAI non ha mai fornito le risorse di calcolo necessarie, bloccando di fatto il lavoro del team. La conferma indiretta è arrivata da Jan Leike.
Il ricercatore ha scritto su X che l’obiettivo era capire come controllare i sistemi superintelligenti. Tuttavia sono nate divergenze con la leadership di OpenAI sulle priorità fino a raggiungere un punto di rottura. L’azienda ha messo in secondo piano la sicurezza, preferendo l’annuncio di “prodotti brillanti” (come GPT-4o).
All’interno di OpenAI c’erano due fazioni. Quella guidata da Ilya Sutskever voleva rallentare lo sviluppo dei modelli di intelligenza artificiale per dare precedenza alla risoluzione dei rischi associati. Quella guidata da Sam Altman preferisce invece velocizzare lo sviluppo puntando all’intelligenza artificiale generale (AGI). Alla fine ha vinto il CEO.
Leike scrive che OpenAI ha un grande responsabilità, quindi deve diventare una “safety-first AGI company“, ovvero un’azienda che sviluppa modelli IA dando priorità alla sicurezza.