Parlamento UE: no all'IA per la sorveglianza di massa

Parlamento UE: no all'IA per la sorveglianza di massa

Il Parlamento Europeo ha votato una risoluzione che sfiducia l'utilizzo dell'Intelligenza Artificiale nelle azioni di polizia e di sorveglianza attiva.
Parlamento UE: no all'IA per la sorveglianza di massa
Il Parlamento Europeo ha votato una risoluzione che sfiducia l'utilizzo dell'Intelligenza Artificiale nelle azioni di polizia e di sorveglianza attiva.

L’Europa prende posizione: l’Intelligenza Artificiale non può essere impiegata in sistemi di sorveglianza di massa perché questo sarebbe contrario ai principi di libertà dell’UE. Una scelta coraggiosa per certi versi, doverosa per altri, in ogni caso ispirata ad alti principi che pongono l’UE in netta contrapposizione a quanto succede altrove.

Il Parlamento Europeo sfiducia l’IA (per ora)

L’Europa è chiara in tal senso, pur con un voto che non è certo un plebiscito: “per combattere la discriminazione e garantire la privacy” il Parlamento Europeo ha chiesto forti salvaguardie per togliere discrezionalità all’utilizzo dell’IA da parte delle forze dell’ordine.

In una risoluzione adottata da 377 a favore, 248 contro e 62 astenuti, i deputati sottolineano il rischio di pregiudizi algoritmici nelle applicazioni che usano l’Intelligenza Artificiale (IA) e affermano che la supervisione umana e un chiaro quadro giuridico sono necessari per prevenire tali discriminazioni, soprattutto se utilizzate dalle forze dell’ordine e di controllo delle frontiere. Le persone monitorate dai sistemi alimentati dall’IA devono avere accesso a ricorsi, aggiungono i deputati.

Il Parlamento Europeo, guidato dalla presidenza di David Sassoli, esprime nello specifico la necessità di massima trasparenza come strumento politico e tecnico di garanzia contro le discriminazioni:

Nel testo approvato si afferma che molte tecnologie di identificazione in uso già commettono un numero sproporzionato di errori di identificazione e di classificazione, danneggiando soprattutto le persone che appartengono a determinati gruppi razziali o etnici, le persone LGBTI, i bambini, gli anziani e le donne, situazione particolarmente preoccupante nel contesto delle operazioni delle forze dell’ordine e della magistratura. Per garantire il rispetto dei diritti fondamentali, gli algoritmi dovrebbero essere trasparenti, tracciabili e sufficientemente documentati, chiedono i deputati, e le autorità pubbliche dovrebbero divulgare le loro applicazioni come software open-source.

Il Parlamento Europeo riunito in seduta plenaria a Strasburgo

La sensazione è che non trapeli tanto un diktat di principio contrario all’IA, quanto più una generale sfiducia sull’attuale stato degli algoritmi. Non a caso il Parlamento parla esplicitamente di “tecnologie controverse”, per le quali non sussistono le necessarie garanzie e sulle quali deve pertanto prevalere la cautela:

Per rispettare la privacy e la dignità umana, i deputati chiedono un divieto permanente dell’utilizzo del riconoscimento automatico delle persone negli spazi pubblici, notando che i cittadini dovrebbero essere monitorati solo se sospettati di un crimine. Il Parlamento chiede di vietare anche l’uso di banche dati private di riconoscimento facciale (come il sistema Clearview AI, banca dati di oltre tre miliardi di immagini raccolte illegalmente dai social network, già in uso) e la polizia predittiva basata sui dati comportamentali. I deputati chiedono anche di vietare i sistemi di punteggio sociale, che cercano di valutare l’affidabilità dei cittadini in base al loro comportamento o personalità.

Il relatore, Petar Vitanov, spiega che “i diritti fondamentali sono incondizionati” e che sistemi di tracciamento o di polizia predittiva non possano essere alla base del rapporto tra cittadini e istituzioni europee. Di qui il voto di indirizzo che dovrà guidare le scelte successive della Commissione Europea.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
6 ott 2021
Link copiato negli appunti