OpenAI ha rilasciato la sua System Card di GPT-4o, un documento di ricerca che illustra le misure di sicurezza e le valutazioni dei rischi condotte dalla startup prima di rilasciare il suo ultimo modello.
Prima del debutto pubblico di GPT-4o a maggio di quest’anno, OpenAI ha sottoposto il modello a un rigoroso processo di valutazione dei rischi. Si è avvalsa, infatti, di un gruppo esterno di red teamer per individuare potenziali punti deboli nel sistema. Gli esperti di sicurezza hanno esaminato diversi scenari come la creazione non autorizzata di cloni vocali, la generazione di contenuti espliciti o violenti e la riproduzione di audio protetti da copyright.
Rischio complessivo “medio” secondo il framework di OpenAI
I ricercatori hanno valutato GPT-4o come a rischio “medio” sulla base del framework di OpenAI. Questo livello di rischio è stato determinato considerando quattro categorie principali: sicurezza informatica, minacce biologiche, persuasione e autonomia del modello. Mentre le prime tre categorie sono state considerate a basso rischio, la persuasione ha sollevato alcune preoccupazioni.
I ricercatori hanno riscontrato che alcuni campioni di scrittura generati da GPT-4o potevano essere più efficaci nell’influenzare le opinioni dei lettori rispetto al testo scritto da un essere umano, anche se i campioni del modello non erano complessivamente più persuasivi.
Un momento cruciale per la trasparenza di OpenAI
Il rilascio della System Card di GPT-4o arriva in un momento critico per OpenAI. L’azienda, infatti, è stata al centro di critiche riguardanti i suoi standard di sicurezza, provenienti sia dall’interno che dall’esterno. Poco prima della pubblicazione della scheda di sistema, due membri del Congresso degli Stati Uniti hanno inviato una lettera aperta chiedendo risposte su come OpenAI gestisce gli informatori e le revisioni di sicurezza.
La lettera evidenzia diversi problemi di sicurezza che sono stati denunciati pubblicamente, tra cui la breve estromissione del CEO Sam Altman nel 2023 e le preoccupazioni espresse da Jan Leike, co-capo del team “superalignment” di OpenAI, che ha dato le sue dimissioni, subito dopo l’addio del co-fondatore Ilya Sutskever.
In California in arrivo stretta legale sui rischi dell’intelligenza artificiale
Con l’avvicinarsi delle elezioni presidenziali statunitensi, il rilascio di un modello multimodale altamente capace come GPT-4o solleva interrogativi sulla potenziale diffusione di disinformazione e sul rischio di abusi da parte di cybercriminali. OpenAI sta cercando di affrontare questi rischi con test approfonditi, ma la pressione per una maggiore trasparenza (non solo sui dati di addestramento) è in aumento.
In California, sede di numerose startup AI, si sta discutendo una legge per regolamentare gli LLM, rendendo le aziende responsabili legalmente per eventuali usi dannosi dei loro modelli di intelligenza artificiale. Se approvata, questa normativa richiederà a OpenAI di sottoporsi a valutazioni di rischio imposte dallo Stato prima di rendere i modelli disponibili al pubblico.