OpenAI e Anthropic, due delle principali aziende nel campo dell’intelligenza artificiale, hanno deciso di consentire al governo degli Stati Uniti l’accesso ai loro nuovi modelli AI prima del rilascio pubblico. L’obiettivo è migliorare la sicurezza e a prevenire potenziali problemi legati all’utilizzo di queste tecnologie.
OpenAI e Anthropic collaborano con il governo USA per la sicurezza dell’AI
Le aziende hanno firmato un protocollo d’intesa con lo US AI Safety Institute (Istituto per la sicurezza dell’AI degli Stati Uniti), impegnandosi a fornire l’accesso ai modelli sia prima che dopo il loro rilascio pubblico. Questa collaborazione consentirà alle aziende di valutare i rischi per la sicurezza e di attenuare eventuali criticità, grazie anche al supporto dell’agenzia omologa del Regno Unito, che fornirà un feedback sui miglioramenti da apportare.
Un contesto legislativo in evoluzione
La condivisione dell’accesso ai modelli AI avviene in un momento in cui le legislature federali e statali stanno valutando quali tipi di barriere porre alla tecnologia, cercando al contempo di non soffocare l’innovazione. In California, ad esempio, è stato recentemente approvato il Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (SB 1047), che impone alle aziende di AI di adottare specifiche misure di sicurezza prima di addestrare modelli di fondazione avanzati. Nonostante le proteste di alcune aziende, che temono ripercussioni negative per gli sviluppatori open-source più piccoli, la legge è in attesa della firma del governatore Gavin Newsom.
L’appello all’impegno volontario da parte dell’aziende di AI
Oltre all’azione legislativa, la Casa Bianca sta portando avanti un dialogo con le grandi aziende tecnologiche per ottenere impegni volontari sulla sicurezza dell’intelligenza artificiale. Diverse società leader del settore hanno già preso impegni non vincolanti legalmente, ma che dimostrano la loro buona volontà. Ad esempio, si sono impegnate ad investire somme significative in ricerca sulla cybersicurezza applicata all’AI e sul prevenire discriminazioni nei sistemi di intelligenza artificiale. I
noltre, molte aziende si sono impegnate a lavorare attivamente sul fronte “watermarking“, ovvero l’inserimento di marcatori invisibili nei contenuti generati dall’intelligenza artificiale, in modo da distinguerli facilmente dai contenuti originali creati dagli esseri umani. Queste misure volontarie affiancano l’azione normativa del governo, con l’obiettivo comune di garantire che lo sviluppo dell’AI avvenga in modo etico e sicuro.