Qualche giorno fa non è stato solo Ilya Sutskever, ex Chief Scientist e cofondatore di OpenAI, a lasciare l’azienda. Sutskever è stato raggiunto poco dopo dal collega Jan Leike, co-capo del team “Superalignment” di OpenAI, che ha annunciato le sue dimissioni con un laconico: “Mi sono dimesso” sul suo account su X.
Bye, bye Jan Leike
Leike è entrato a far parte di OpenAI all’inizio del 2021 e all’epoca aveva espresso il suo entusiasmo per il lavoro che l’azienda stava facendo. Prima di entrare in OpenAI, Leike aveva lavorato nella divisione AI di Google DeepMind.
La partenza dei due co-leader del team Superalignment di OpenAI ha suscitato numerose speculazioni su X riguardo alle possibili difficoltà dell’azienda nel progettare modi per controllare nuovi potenti sistemi di intelligenza artificiale, compreso l’obiettivo finale di OpenAI di un’intelligenza artificiale generale (AGI), definita come un’AI in grado di superare gli esseri umani nella maggior parte dei compiti.
Cos’è il Superalignment?
I modelli linguistici di grandi dimensioni come il nuovo GPT-4o di OpenAI, così come le altre AI, possono funzionare in modi misteriosi. Per garantire prestazioni coerenti e risposte appropriate, i creatori dei modelli e i Software Engineer devono “allineare” i modelli, ossia farli comportare nel modo desiderato. Ciò avviene attraverso tecniche di apprendimento automatico come l’apprendimento per rinforzo e l’ottimizzazione della politica prossimale (PPO).
Il Superalignment o superallineamento rappresenta uno sforzo più intenso, progettato per allineare modelli di AI ancora più potenti – superintelligenze – di quelli attualmente disponibili.
OpenAI ha annunciato per la prima volta la formazione del team di Superalignment nel luglio 2023, evidenziando la necessità di nuove istituzioni per la governance e la risoluzione del problema dell’allineamento della superintelligenza. L’azienda si è impegnata a dedicare il 20% delle sue risorse di calcolo a questo sforzo.
E ora… cosa succederà?
Ora che i due co-leader hanno lasciato l’azienda, resta da chiedersi se l’impresa continuerà e in quale forma. Alcuni osservatori hanno ipotizzato che Sutskever fosse più concentrato sui rischi esistenziali dell’AI per l’umanità, mentre altri membri di OpenAI, come l’amministratore delegato Sam Altman, non sarebbero altrettanto preoccupati.
Il futuro del team di Superalignment e l’allocazione delle risorse di calcolo rimangono incerte al momento. OpenAI non ha ancora rilasciato dichiarazioni ufficiali riguardo a queste recenti dimissioni e alle loro implicazioni per il progetto di superallineamento.