Safe Superintelligence di Sutskever raccoglie 1 miliardo di dollari

Safe Superintelligence di Sutskever raccoglie 1 miliardo di dollari

La startup Safe Superintelligence di Sutskever ha raccolto 1 miliardo di dollari per sviluppare sistemi di AI sicuri che superino le capacità umane.
Safe Superintelligence di Sutskever raccoglie 1 miliardo di dollari
La startup Safe Superintelligence di Sutskever ha raccolto 1 miliardo di dollari per sviluppare sistemi di AI sicuri che superino le capacità umane.

Safe Superintelligence (SSI), la startup lanciata appena tre mesi fa dal cofondatore canadese di OpenAI Ilya Sutskever, ha chiuso un finanziamento di 1 miliardo di dollari.

SSI ha confermato la raccolta di fondi in un aggiornamento sul proprio sito web, in cui si legge che tra gli investitori che hanno partecipato al round di finanziamento figurano NFDG, Andreessen Horowitz, Sequoia Capital, DST Global e SV Angel. In particolare, NFDG è una partnership di investimento gestita dall’ex CEO di GitHub Nat Friedman e dal CEO e co-fondatore di SSI Daniel Gross.

Safe Superintelligence del co-fondatore di OpenAI Ilya Sutskever chiude un finanziamento di 1 miliardo di dollari

Come riportato per la prima volta da Reuters, questo accordo valuta la startup, che sta cercando di sviluppare un laboratorio per lo sviluppo sicuro dell’intelligenza artificiale (AI), 5 miliardi di dollari, anche se SSI ha rifiutato di rivelare la sua valutazione.

Secondo Reuters, Safe Superintelligence utilizzerà i proventi per acquistare potenza di calcolo e per far crescere il suo team, attualmente composto solo da 10 persone. L’azienda prevede di dividere i suoi ricercatori e ingegneri tra la Silicon Valley e Tel Aviv, in Israele.

Molte startup di AI non sono redditizie a causa degli immensi costi di formazione dei loro modelli, e molte si sono concentrate sulla raccolta di capitale di rischio per acquisire la potenza di calcolo necessara a scalare i loro modelli e accelerare lo sviluppo dei prodotti.

L’elevato costo del calcolo sta spingendo alcune startup a considerare la vendita o la fusione con aziende più grandi. Il gigante canadese dell’AI Cohere ad esempio, ha chiuso diversi importanti round di finanziamento nel tentativo di aumentare la propria capacità di calcolo.

I fondatori di Safe Superintelligence

SSI è stata lanciata pubblicamente a giugno di quest’anno. Oltre a Sutskever, SSI è fondata anche dallo scienziato principale Daniel Levy, anche lui ex membro dello staff tecnico di OpenAI, e dal CEO Gross, ex responsabile AI di Apple. Secondo quanto riportato su LinkedIn, Sutskever ricoprirà il ruolo di cofondatore e di scienziato capo presso SSI.

Mentre SSI è un’azienda americana, Sutskever è un cittadino canadese che ha studiato sotto il padrino dell’AI Geoffrey Hinton mentre frequentava l’Università di Toronto. Sutskever ha anche costruito AlexNet, una rete neurale focalizzata sull’elaborazione delle immagini, in collaborazione con Hinton e Alex Krizhevsky. AlexNet è stata venduta a Google nel 2013.

La frecciatina a Sam Altman

Ilya Sutskever, per quasi 10 anni chief scientist officer di OpenAI, ha lasciato OpenAI in seguito alle crescenti preoccupazioni interne sul fatto che Sam Altman non fosse in grado di gestire in modo adeguato i potenziali rischi per la sicurezza legati allo sviluppo dell’intelligenza artificiale. Sutskever, infatti, era stato tra coloro che si erano opposti alla strategia del CEO di OpenAI di accelerare il rilascio di prodotti di intelligenza artificiale.

Lo sviluppo sicuro dell’AI è lo scopo principale di SSI. Sul suo sito web, la startup si definisce un’organizzazione orientata alla sicurezza, affermando di voler “far progredire le capacità il più velocemente possibile, assicurandosi che la nostra sicurezza sia sempre al primo posto“, lasciando intendere che non ci saranno distrazioni da parte del management o pressioni dettate da obiettivi commerciali a breve termine.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
5 set 2024
Link copiato negli appunti