L’Unione Europea ha definito i dettagli tecnici della sua proposta di regolamentazione dell’intelligenza artificiale (AI Act), che era stata oggetto di un accordo politico a dicembre. Il testo dovrà ora essere approvato dal Parlamento e dal Consiglio europeo prima di diventare legge. Il processo negoziale è stato difficile fino all’ultimo momento.
Uno dei punti più controversi è stato quello dei cosiddetti modelli di fondazione, come ChatGPT, che sono modelli di intelligenza artificiale basati sul linguaggio e in grado di generare testi su vari argomenti. La Francia si è mostrata contraria a imporre obblighi vincolanti ai fornitori di questi modelli e ha sollevato dubbi sui requisiti di trasparenza e sui segreti commerciali. Tuttavia, nella riunione degli ambasciatori dell’UE, il testo è stato approvato all’unanimità.
Il dibattito sui chatbot e i modelli di fondazione
La Commissione europea aveva presentato il suo regolamento sull’intelligenza artificiale nel 2021, basandosi su un approccio differenziato in base al livello di rischio dei sistemi di AI. La proposta era stata accolta positivamente, ma era stata messa in discussione alla fine del 2022, quando OpenAI ha lanciato ChatGPT innescando una discussione globale sui chatbot, ovvero i sistemi AI che interagiscono con gli utenti tramite il linguaggio naturale.
Il Parlamento europeo aveva ritenuto insufficiente il piano della Commissione e aveva introdotto un nuovo articolo con una serie di obblighi specifici per garantire che i chatbot e i modelli di fondazione rispettassero i diritti fondamentali. In alternativa, Germania, Francia e Italia avevano proposto una “autoregolamentazione obbligatoria attraverso codici di condotta” per questi modelli.
Dopo il via libera, il Parlamento europeo dovrà votare il testo nelle commissioni competenti, probabilmente a metà febbraio, e poi in plenaria, a marzo o aprile. In seguito, l’AI Act dovrebbe entrare in vigore entro la fine dell’anno e prevedere un periodo di transizione fino a 36 mesi. I requisiti per i modelli di AI saranno applicabili già dopo un anno.
Le quattro categorie di sistemi AI
L’AI Act classifica i sistemi di intelligenza artificiale in quattro categorie principali, a seconda del rischio potenziale che presentano per la società.
I sistemi ad alto rischio sono quelli che possono avere un impatto significativo sulla vita, la salute, la sicurezza o i diritti fondamentali delle persone. Questi sistemi dovranno rispettare norme rigorose prima di essere introdotti nel mercato dell’UE e saranno soggetti al controllo delle autorità nazionali, con il supporto dell’ufficio AI della Commissione europea.
I sistemi a rischio minimo sono quelli che non presentano rischi particolari per la società e saranno esenti da regole aggiuntive.
I sistemi a rischio limitato sono quelli che possono influenzare le scelte o i comportamenti delle persone, come i chatbot o i filtri di contenuti online. Questi sistemi dovranno rispettare obblighi di trasparenza di base, come informare gli utenti della natura e delle finalità del sistema.