OpenAI ha appena svelato la sua nuova famiglia di modelli AI, GPT-4.1. Secondo i dati diffusi dall’azienda di Sam Altman, GPT-4.1 vanta prestazioni superiori in diverse aree chiave, in particolare nei benchmark relativi alla programmazione, dove supera notevolmente i suoi predecessori.
Ma non è passato inosservato un dettaglio… Per la prima volta, OpenAI ha rilasciato un modello di questa portata senza pubblicare contestualmente la consueta “system card“.
OpenAI nella bufera, rilascia GPT-4.1 senza report di sicurezza
L’assenza di questa documentazione, che illustra capacità, limiti e rischi potenziali dei modelli, oltre i metodi utilizzati per mitigarli, solleva non poche domande sulla direzione che l’azienda sta prendendo in termini di trasparenza. Il portavoce di OpenAI Shaokyi Amdo, ha dichiarato che non ha alcuna intenzione di rilasciare una system card separata perché GPT-4.1 non è un modello di frontiera. Ma i dubbi restano.
I report sulla sicurezza sono diventati una prassi standard per le aziende di AI, un modo per mostrare i test condotti internamente e con partner esterni per valutare la sicurezza dei modelli. I rapporti a volte portano alla luce dettagli scomodi, come la tendenza di un modello a ingannare gli umani o a essere pericolosamente persuasivo. Ma sono anche un segno di buona fede e di impegno per la ricerca indipendente e il red teaming.
La trasparenza è solo un optional?
Negli ultimi mesi, però, sembra che un po’ tutti i big dell’AI – e non solo OpenAI – siano meno interessati alla trasparenza. Va precisato che i report sulla sicurezza non sono obbligatori per legge, ma sono un impegno volontario cruciale. E il silenzio di OpenAI su GPT-4.1 insospettisce…
Steven Adler, ex ricercatore sulla sicurezza di OpenAI, ricorda che l’azienda ha fatto promesse di trasparenza ai governi, definendo le system card “una parte fondamentale” del suo approccio alla responsabilità. Senza contare che la scorsa settimana, Adler e altri 11 ex dipendenti di OpenAI hanno presentato un amicus brief nel caso che Elon Musk ha intentato contro OpenAI.
Nel documento, gli ex dipendenti temono che OpenAI, pur di restare competitiva sul mercato, possa trascurare controlli o valutazioni etiche che sarebbero invece fondamentali.