Il Consiglio di sicurezza delle Nazioni Unite ha organizzato un meeting per discutere dell’intelligenza artificiale generativa. Il Segretario Generale Antonio Guterres e i delegati dei 15 paesi hanno evidenziato i rischi della tecnologia e sottolineato la necessità di una regolamentazione globale. All’incontro hanno partecipato anche Jack Clark (co-fondatore di Anthropic) e Zeng Yi (co-direttore del China-UK Research Center for AI Ethics and Governance).
I rischi dell’IA generativa
Il Segretario Generale ha evidenziato la velocità di diffusione dell’intelligenza artificiale generativa (ChatGPT ha raggiunto 100 milioni di utenti in soli due mesi) e l’impatto sull’economia globale (10-15 trilioni di dollari entro il 2030). La tecnologia avrà conseguenze positive sulla vita di tutti i cittadini, ma comporterà anche rischi politici, legali, etici e umanitari.
L’IA generativa può essere sfruttata per eseguire attacchi informatici contro le infrastrutture critiche. Le applicazioni militari e non della tecnologia potrebbero avere serie conseguenze per la pace e la sicurezza globale. Jack Clark ha dichiarato che un sistema IA può migliorare la comprensione della biologia, ma allo stesso tempo può essere utilizzato per costruire armi biologiche.
Gli stessi sviluppatori dei modelli IA non possono prevedere l’evoluzione futura, quindi è necessario intervenire in tempo attraverso un approccio universale. Occorre una regolamentazione globale, anche se il compito è piuttosto arduo per vari motivi, tra cui il controllo della tecnologia da parte delle aziende private.
Ci sono però alcuni punti di partenza. Quello più importante e prioritario è proibire assolutamente lo sviluppo di armi autonome, ovvero senza il controllo umano. Altrimenti uno scenario alla Terminator non rimarrà solo fantascienza.