OpenAI, la realtà responsabile dei modelli GPT e DALL-E, nonché creatrice del servizio ChatGPT, ha appena annunciato la creazione di un team dedicato alla gestione dei rischi legati allo sviluppo dei sistemi IA e lanciato la Preparedness Challenge. Lo ha fatto citando in modo esplicito l’eventualità di conseguenze catastrofiche innescate da ciò che è definita una superintelligenza.
In supporto alla sicurezza dei sistemi IA ad elevata capacità, stiamo sviluppando il nostro approccio per esser pronti nel caso di rischi catastrofici, anche attraverso la formazione di un team Preparedness e lanciando una challenge.
Preparedness: il mantra di OpenAI per i rischi IA
Secondo l’organizzazione di Sam Altman, sarà possibile scongiurare scenari potenzialmente disastrosi anzitutto ponendosi delle domande.
- Quanto sono pericolosi i sistemi IA se utilizzati in modo malevolo, oggi e in futuro?
- Come possiamo realizzare un framework solido per monitorare, valutare, prevedere e proteggere dalle abilità pericolose di questi sistemi IA?
- Se i nostri modelli IA venissero rubati, in che modo i malintenzionati li potrebbero sfruttare?
Alla guida del team Preparedness che se ne occuperà è stato nominato Aleksander Madry, già docente MIT e membro del laboratorio CSAIL. La squadra si occuperà di studiare eventuali pericoli inerenti ad ambiti come cybersecurity, minacce chimiche, biologiche, radiologiche o nucleari, replicazione e adattamento autonomi.
La Preparedness Challenge citata in apertura mette a disposizione 25.000 dollari (in crediti da spendere nelle API di OpenAI) per un massimo di dieci proposte utili a individuare aree di rischio meno ovvie da prendere in considerazione e sulle quali intervenire. Maggiori informazioni sono riportate nella pagina dedicata.
Non è certo la prima volta che, una realtà direttamente coinvolta nel settore dell’intelligenza artificiale, lancia un monito sulle potenziali conseguenze catastrofiche derivanti da uno sviluppo incontrollato di modelli e algoritmi. Anche le istituzioni si sono attivate. È il caso della Commissione europea, che di recente ha chiesto agli Stati membri di effettuare un’attenta valutazione delle minacce.