OpenAI collabora con l'US AI Safety Institute per l'AI sicura

OpenAI collabora con l'US AI Safety Institute per l'AI sicura

OpenAI ha dichiarato che fornirà accesso anticipato ai suoi nuovi modelli AI all'US AI Safety Institute per garantire uno sviluppo sicuro.
OpenAI collabora con l'US AI Safety Institute per l'AI sicura
OpenAI ha dichiarato che fornirà accesso anticipato ai suoi nuovi modelli AI all'US AI Safety Institute per garantire uno sviluppo sicuro.

Sam Altman è forse cambiato?… L’amministratore delegato di OpenAI ha appena annunciato che la sua azienda sta collaborando con l’US AI Safety Institute (Istituto per la sicurezza dell’AI degli Stati Uniti) per fornire l’accesso anticipato al suo prossimo modello di intelligenza artificiale generativa per i test di sicurezza.

L’US AI Safety Institute un ente governativo federale che ha lo scopo di valutare e affrontare i rischi delle piattaforme di intelligenza artificiale.

Questa iniziativa, insieme a un accordo simile con un ente equivalente nel Regno Unito, è ovviamente finalizzata soprattutto a contrastare le critiche secondo cui OpenAI avrebbe messo in secondo piano la sicurezza dei modelli AI a favore dello sviluppo di tecnologie sempre più potenti.

Dubbi sulle politiche di OpenAI

Come promemoria, lo scorso maggio OpenAI ha sciolto il Super Alignment Team un’unità che si occupava di evitare che i sistemi AI “superintelligenti” andassero fuori controllo, evento che ha portato poi alle dimissioni di alcuni membri chiave del team, come Sutskever e Leike. Abbandoni illustri che hanno sollevato una serie preoccupazioni sul reale impegno dell’azienda nei confronti delle questioni etiche e di sicurezza.

In risposta a queste critiche, OpenAI ha promesso di eliminare le clausole restrittive di non denigrazione, di creare una commissione per la sicurezza e di destinare il 20% delle sue risorse informatiche alla ricerca sulla sicurezza. Nonostante i suoi sforzi, alcuni osservatori rimangono scettici, soprattutto dopo che Sam Altman ha creato la commissione per la sicurezza con membri interni, nominando se stesso a capo del nuovo team…

Ancora più di recente, cinque senatori statunitensi hanno inviato una lettera a OpenAI sollevando dubbi sulle politiche dell’azienda, alla quale il responsabile della strategia di OpenAI, Jason Kwon, ha risposto riaffermando la dedizione dell’azienda a rigorosi protocolli di sicurezza.

Collaborazione con l’US AI Safety Institute, qualcosa non quadra…

La tempistica dell’accordo di OpenAI con l’Istituto statunitense per la sicurezza dell’AI sembra un po’ sospetta alla luce dell’appoggio dato dall’azienda all’inizio di questa settimana al Future of Innovation Act, una proposta di legge del Senato che autorizzerebbe l’Istituto per la sicurezza come organo esecutivo che stabilisce standard e linee guida per i modelli di intelligenza artificiale.

A molti, infatti, sembra un tentativo da parte di OpenAI di esercitare una certa influenza sulla definizione delle politiche in materia di AI a livello federale. Non a caso, Altman fa parte dell’Artificial Intelligence Safety and Security Board del Dipartimento della Sicurezza Nazionale degli Stati Uniti, che fornisce raccomandazioni per uno “sviluppo e un’applicazione sicuri e protetti dell’AI” nelle infrastrutture critiche degli Stati Uniti.

Gatta ci cova?

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
1 ago 2024
Link copiato negli appunti