OpenAI ha annunciato in un recente post sul blog la trasformazione del suo Comitato per la sicurezza in un “Comitato di supervisione del Consiglio di amministrazione” indipendente. Questa decisione è stata presa dal comitato stesso, in seguito a una revisione di 90 giorni dei processi e delle misure di sicurezza dell’azienda.
OpenAI, comitato indipendente può bloccare il rilascio dei modelli AI
Il nuovo comitato, presieduto da Zico Kolter e composto da Adam D’Angelo, Paul Nakasone e Nicole Seligman, avrà il compito di supervisionare il lancio dei modelli di intelligenza artificiale sviluppati da OpenAI. La dirigenza dell’azienda informerà il comitato sulle valutazioni di sicurezza per i principali rilasci di modelli, e il comitato avrà l’autorità di ritardare il rilascio fino a quando non saranno risolti eventuali problemi di sicurezza. Inoltre, il consiglio di amministrazione di OpenAI riceverà informazioni periodiche su questioni relative alla sicurezza.
Indipendenza del comitato e confronto con l’Oversight Board di Meta
Nonostante i membri del comitato facciano parte anche del più ampio consiglio di amministrazione di OpenAI, l’azienda non ha chiarito quanto il comitato sia effettivamente indipendente o come sia strutturato.
Questo approccio sembra in qualche modo simile a quello adottato da Meta con il suo Oversight Board, che esamina alcune delle decisioni dell’azienda in materia di contenuti e può prendere decisioni vincolanti per Meta. Tuttavia, a differenza del comitato di OpenAI, nessuno dei membri dell’Oversight Board di Meta fa parte del consiglio di amministrazione dell’azienda.
Opportunità di collaborazione e trasparenza nel settore dell’intelligenza artificiale
La revisione condotta dal Comitato per la sicurezza e la protezione di OpenAI ha anche evidenziato ulteriori opportunità per la collaborazione del settore e la condivisione di informazioni al fine di far progredire la sicurezza nell’industria dell’intelligenza artificiale.
L’azienda si impegna a cercare più modi per condividere e spiegare il proprio lavoro sulla sicurezza, così come a creare più opportunità di test indipendenti dei propri sistemi. Questa maggiore trasparenza potrebbe contribuire a costruire la fiducia del pubblico nelle tecnologie di intelligenza artificiale e a promuovere un dibattito informato sui potenziali rischi e benefici di questi sistemi sempre più avanzati.