Un mese dopo aver lasciato OpenAI, dove ha ricoperto a lungo il ruolo di capo scienziato, Ilya Sutskever, uno dei co-fondatori dell’azienda pioniera nell’intelligenza artificiale, ha intrapreso una nuova ambiziosa impresa.
Insieme a Daniel Gross, ex socio di Y Combinator, e Daniel Levy, che in precedenza ha lavorato come ingegnere per OpenAI, Sutskever ha fondato Safe Superintelligence Inc. (SSI), una società con una missione ben definita e cruciale per il futuro dell’umanità: creare un sistema AI sicuro e potente.
Durante il suo periodo in OpenAI, Sutskever ha svolto un ruolo di primo piano negli sforzi dell’azienda per migliorare la sicurezza dell’AI, concentrandosi in particolare sul controllo dei sistemi AI “superintelligenti”, ovvero sistemi dotati di un’intelligenza superiore a quella umana. Questa area di ricerca è stata affrontata a stretto contatto con Jan Leike, che in seguito ha lasciato OpenAI per unirsi ad Anthropic, un’altra azienda all’avanguardia nel campo dell’AI.
Previsioni e timori per il futuro
Nel 2023, in un post sul blog di OpenAI, Sutskever e Leike avevano espresso una previsione tanto affascinante quanto inquietante: l’avvento di un’intelligenza artificiale con capacità cognitive superiori a quelle umane potrebbe verificarsi entro un decennio.
Tuttavia, avevano avvertito che un simile traguardo, per quanto straordinario, non sarebbe necessariamente accompagnato da una benevolenza intrinseca dell’AI verso l’umanità. Questa consapevolezza ha reso urgente la ricerca di modi per controllare e limitare un’intelligenza artificiale così avanzata e potenzialmente pericolosa.
In un tweet, SSI ha delineato chiaramente la sua missione, il suo nome e l’intera roadmap di prodotti, tutti incentrati sull’obiettivo di raggiungere una “Superintelligenza sicura“. Il team, gli investitori e il modello aziendale sono allineati per perseguire questo scopo, affrontando la sicurezza e le capacità dell’AI come problemi tecnici da risolvere attraverso scoperte ingegneristiche e scientifiche rivoluzionarie.
Superintelligence is within reach.
Building safe superintelligence (SSI) is the most important technical problem of our time.
We've started the world’s first straight-shot SSI lab, with one goal and one product: a safe superintelligence.
It’s called Safe Superintelligence…
— SSI Inc. (@ssi) June 19, 2024
Una strategia di sviluppo audace
L’approccio di SSI è tanto ambizioso quanto cruciale: far progredire le capacità dell’AI il più velocemente possibile, assicurandosi che la sicurezza rimanga sempre al primo posto. In questo modo, l’azienda potrà scalare in tutta tranquillità, senza essere distratta da spese generali di gestione, cicli di produzione o pressioni commerciali a breve termine che potrebbero compromettere la sua missione principale (potrebbe essere una frecciatina a OpenAI?).
Per perseguire questa missione cruciale, SSI ha stabilito una presenza globale, con uffici a Palo Alto, nel cuore della Silicon Valley, e a Tel Aviv, in Israele, dove l’azienda sta attualmente reclutando talenti tecnici.