Al termine della prima giornata dell’AI Safety Summit a Bletchley Park (Regno Unito) è stato raggiunto un accordo tra 28 paesi sulla necessità di comprendere e gestire i potenziali rischi dell’intelligenza artificiale. Al termine della seconda e ultima giornata, alcune aziende e governi hanno sottoscritto un documento relativo all’analisi dei modelli di IA generativa prima del rilascio pubblico.
Test dei modelli per la sicurezza nazionale
I maggiori rischi evidenziati durante il summit derivano dall’abuso dell’intelligenza artificiale generativa che, secondo alcuni esperti, potrebbe avere conseguenze catastrofiche per la razza umana. Diverse Big Tech, tra cui Meta, Google, OpenAI, Anthropic, Amazon e Microsoft, hanno firmato un documento (non vincolante) per consentire la verifica dei modelli a terze parti.
In pratica, le autorità di Stati Uniti, Regno Unito, Singapore e altri paesi potranno effettuare test sui modelli di IA generativa per identificare eventuali rischi per la sicurezza nazionale, prima del rilascio pubblico. La stessa soluzione è stata adottata oltreoceano con il recente ordine esecutivo firmato dal Presidente Joe Biden.
L’accordo sui test è stato firmato anche da molti paesi, tra cui Italia, Francia, Germania, Regno Unito, Canada, Australia, Giappone e Corea del Sud, ma non dalla Cina (che invece ha firmato la dichiarazione di Bletchley).
Il documento sui test non è vincolante, quindi le aziende potrebbero anche cambiare idea in futuro. Il Primo Ministro del Regno Unito, Rishi Sunak, ha dichiarato che l’eventuale regolamentazione tramite una legge richiede troppo tempo (quella proposta oltre due anni fa dalla Commissione europea, denominata AI Act, non è stata ancora approvata). Tra l’altro è un settore in rapida evoluzione, quindi le leggi dovrebbero essere frequentemente e velocemente aggiornate.