Secondo un rapporto di The Information, OpenAI sta sviluppando una nuova AI, nome in codice Strawberry, da integrare all’interno di un chatbot che l’azienda prevede di lanciare il prossimo autunno. The Information sospetta che Strawberry possa diventare parte integrante di ChatGPT.
OpenAI ha presentato Strawberry anche ai funzionari della sicurezza nazionale degli Stati Uniti. Questa dimostrazione rientra nei nuovi protocolli di sicurezza annunciati di recente dall’azienda, che prevedono di concedere l’accesso anticipato all’US AI Safety Instiute ai suoi nuovi modelli di intelligenza artificiale, per valutare i rischi prima che questi vengano rilasciati pubblicamente.
Cosa ha di tanto speciale Strawberry?
Strawberry, precedentemente nota come Q*(pronunciato Q Star), creata dall’ex scienziato capo di OpenAI, Ilya Sutskever, e successivamente perfezionata dai ricercatori Jakub Pachocki e Szymon Sidor dopo che Sutskever ha lasciato OpenAI, eccelle nella risoluzione di problemi matematici complessi, nel ragionamento e nei compiti di programmazione, aree in cui gli attuali modelli AI hanno difficoltà.
OpenAI inoltre, starebbe usando Strawberry per generare dati di addestramento di alta qualità per il suo prossimo modello linguistico di punta, il cui nome in codice è “Orion“. Questo approccio potrebbe ridurre gli errori e le cosiddette “allucinazioni” nelle risposte dell’intelligenza artificiale, fornendo esempi più accurati di ragionamenti complessi.
Tuttavia, le ambizioni di OpenAI con Strawberry vanno ben oltre Orion. L’azienda sta anche esplorando una versione ridotta di Strawberry per una potenziale integrazione in applicazioni basate su chat come ChatGPT. Questo modello potrebbe migliorare le capacità di ragionamento in scenari in cui gli utenti richiedono risposte più ponderate e dettagliate piuttosto che risposte rapide.
La collaborazione di OpenAI con l’Istituto per la sicurezza dell’intelligenza artificiale degli Stati Uniti
All’inizio di questo mese, OpenAI ha annunciato la sua collaborazione con l’Istituto per la sicurezza dell’intelligenza artificiale degli Stati Uniti, concedendo al governo l’accesso anticipato al suo prossimo modello di intelligenza artificiale per i test di sicurezza.
L’accordo fa parte di una tendenza crescente che vede i fornitori di modelli di frontiera (Google, Meta, Anthropic, Microsoft, ecc.) collaborare con le agenzie governative per garantire che i progressi dell’AI siano in linea con le esigenze di sicurezza nazionale. L’idea è quella di dare priorità alla trasparenza, di affrontare preventivamente le preoccupazioni legate al rapido sviluppo dell’intelligenza artificiale e di evitare regolamentazioni non necessarie.
Per OpenAI, questi sforzi fanno parte di una strategia più ampia, ed è la risposta alle precedenti critiche secondo cui l’azienda avrebbe messo da parte la ricerca sulla sicurezza, in particolare dopo il controverso scioglimento del suo team di superallineamento, responsabile del controllo dei sistemi di intelligenza artificiale superintelligenti.
Da allora, tuttavia, OpenAI ha istituito un comitato per la sicurezza e ha portato nel suo consiglio di amministrazione esperti di sicurezza e protezione come l’ex direttore generale dell’NSA Paul Nakasone e Zico Kolter della Carnegie Mellon. Inoltre, l’azienda ha destinato il 20% delle sue risorse informatiche agli sforzi per la sicurezza, sottolineando ulteriormente la sua dedizione allo sviluppo responsabile dell’AI.