Ieri è stato approvato in via definitiva il nuovo regolamento che classifica l’intelligenza artificiale in base ai livelli di rischio. Il Consiglio d’Europa ha invece adottato il primo trattato internazionale, giuridicamente vincolante, relativo all’uso della tecnologia nel settore pubblico e privato.
Cosa prevede il trattato sull’IA
Il Consiglio d’Europa, da non confondere con il Consiglio dell’Unione europea e il Consiglio europeo, è un’organizzazione internazionale il cui scopo è promuovere la democrazia, i diritti umani, lo stato di diritto in Europa. Il trattato, aperto anche ai paesi non europei, stabilisce un quadro giuridico che copre l’intero ciclo di vita dei sistemi IA e affronta i rischi che tali sistemi potrebbero presentare, promuovendo al contempo un’innovazione responsabile.
È il risultato di due anni di lavoro svolto dal Comitato sull’intelligenza artificiale (CAI) che ha riunito i 46 Stati membri del Consiglio d’Europa, l’Unione europea e 11 Stati non membri (Argentina, Australia, Canada, Costa Rica, Giappone, Israele, Messico, Perù, Santa Sede, Stati Uniti d’America e Uruguay), oltre ai rappresentanti del settore privato, della società civile e del mondo accademico, che hanno partecipato in qualità di osservatori.
La convenzione stabilisce requisiti di trasparenza e controllo adattati ai contesti e ai rischi specifici, tra cui l’identificazione dei contenuti generati dai sistemi IA. I settori pubblico e privato dovranno adottare misure per identificare, prevenire e attenuare i possibili rischi, valutando eventualmente la necessità di una moratoria, di un divieto o di altre misure appropriate, se l’uso di sistemi IA potrebbe presentare rischi incompatibili con le norme in materia di diritti umani.
Il trattato prevede inoltre l’obbligo di garantire che i sistemi di IA rispettino l’uguaglianza, compresa quella di genere, il divieto di discriminazione e la protezione della privacy. Le parti che aderiscono al trattato dovranno anche assicurare la disponibilità di vie di ricorso e garanzie procedurali per le vittime di violazioni dei diritti umani legate all’utilizzo di sistemi IA.
Il trattato prevede alcune eccezioni. Non si applica alle attività riguardanti la protezione degli interessi di sicurezza nazionale, alle questioni di difesa nazionale e alle attività di ricerca e sviluppo, salvo nei casi in cui il test dei sistemi IA potrebbe interferire con i diritti umani, la democrazia e lo stato di diritto.