OpenAI sta alzando il ponte levatoio attorno ai suoi modelli AI più avanzati. Secondo una pagina di supporto apparsa sul sito ufficiale la scorsa settimana, l’azienda di Sam Altman si prepara a introdurre controlli d’identità molto più severi.
ID verificato per limitare l’uso improprio dei modelli AI di OpenAI
Come spiega OpenAI, il nuovo sistema, che risponde al nome di “Verified Organization“, sblocca l’accesso ai modelli e alle funzionalità più avanzate della piattaforma. Peccato che per ottenerla serva un documento d’identità rilasciato dal governo di uno dei paesi “graditi” a OpenAI. E non è finita qui: un ID potrà verificare una sola azienda ogni 90 giorni. Senza contare che OpenAI si riserva il diritto di decidere quali aziende sono idonee.
OpenAI non fa troppi giri di parole. L’azienda vuole che l’intelligenza artificiale sia accessibile a tutti, ma a patto che venga usata in modo sicuro. “Purtroppo, c’è chi usa le nostre API in modo scorretto, violando le nostre policy. – ha spiegato l’azienda – Ecco perché introduciamo questo processo di verifica: per arginare gli usi pericolosi dell’AI, pur continuando a offrire modelli avanzati alla comunità di sviluppatori“.
OpenAI teme gli usi pericolosi dei modelli AI da parte della Corea del Nord
Ma quali sono questi fantomatici “usi pericolosi” dell’AI che tanto preoccupano OpenAI? Stando ai report pubblicati dalla società, si va dai gruppi nordcoreani che tentano di sfruttare i modelli per chissà quali scopi, fino al rischio di furto di proprietà intellettuale. Secondo Bloomberg, OpenAI starebbe indagando su un gruppo legato a DeepSeek, la startup cinese sospettata di aver trafugato valanghe di dati attraverso le API di OpenAI per addestrare i propri modelli. Sarà un caso che OpenAI abbia tagliato i ponti con la Cina la scorsa estate?