OpenAI: comitato di sicurezza diventa indipendente

OpenAI: comitato di sicurezza diventa indipendente

Il comitato per la sicurezza di OpenAI è diventato un organo indipendente che può ritardare il lancio di nuovi modelli per questioni di sicurezza.
OpenAI: comitato di sicurezza diventa indipendente
Il comitato per la sicurezza di OpenAI è diventato un organo indipendente che può ritardare il lancio di nuovi modelli per questioni di sicurezza.

OpenAI ha annunciato in un recente post sul blog la trasformazione del suo Comitato per la sicurezza in un “Comitato di supervisione del Consiglio di amministrazione” indipendente. Questa decisione è stata presa dal comitato stesso, in seguito a una revisione di 90 giorni dei processi e delle misure di sicurezza dell’azienda.

OpenAI, comitato indipendente può bloccare il rilascio dei modelli AI

Il nuovo comitato, presieduto da Zico Kolter e composto da Adam D’Angelo, Paul Nakasone e Nicole Seligman, avrà il compito di supervisionare il lancio dei modelli di intelligenza artificiale sviluppati da OpenAI. La dirigenza dell’azienda informerà il comitato sulle valutazioni di sicurezza per i principali rilasci di modelli, e il comitato avrà l’autorità di ritardare il rilascio fino a quando non saranno risolti eventuali problemi di sicurezza. Inoltre, il consiglio di amministrazione di OpenAI riceverà informazioni periodiche su questioni relative alla sicurezza.

Indipendenza del comitato e confronto con l’Oversight Board di Meta

Nonostante i membri del comitato facciano parte anche del più ampio consiglio di amministrazione di OpenAI, l’azienda non ha chiarito quanto il comitato sia effettivamente indipendente o come sia strutturato.

Questo approccio sembra in qualche modo simile a quello adottato da Meta con il suo Oversight Board, che esamina alcune delle decisioni dell’azienda in materia di contenuti e può prendere decisioni vincolanti per Meta. Tuttavia, a differenza del comitato di OpenAI, nessuno dei membri dell’Oversight Board di Meta fa parte del consiglio di amministrazione dell’azienda.

Opportunità di collaborazione e trasparenza nel settore dell’intelligenza artificiale

La revisione condotta dal Comitato per la sicurezza e la protezione di OpenAI ha anche evidenziato ulteriori opportunità per la collaborazione del settore e la condivisione di informazioni al fine di far progredire la sicurezza nell’industria dell’intelligenza artificiale.

L’azienda si impegna a cercare più modi per condividere e spiegare il proprio lavoro sulla sicurezza, così come a creare più opportunità di test indipendenti dei propri sistemi. Questa maggiore trasparenza potrebbe contribuire a costruire la fiducia del pubblico nelle tecnologie di intelligenza artificiale e a promuovere un dibattito informato sui potenziali rischi e benefici di questi sistemi sempre più avanzati.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
17 set 2024
Link copiato negli appunti