Le forze dell’ordine devono garantire la sicurezza di atleti e visitatori durante le Olimpiadi 2024 di Parigi (sono stati già individuati centinaia di sospettati). Per questa edizione dei Giochi è stata utilizzata una tecnologia di intelligenza artificiale che permette di analizzare in tempo reale il comportamento delle persone attraverso le riprese delle videocamere di sorveglianza.
Sorveglianza di massa alle Olimpiadi di Parigi?
Vicino all’ingresso della stazione della metropolitana Porte de Pantin sono state installate videocamere di sorveglianza racchiuse in una scatola di metallo grigio. Un piccolo cartello affisso al muro informa i passeggeri che si tratta di un esperimento di videosorveglianza. La RATP, società che gestisce la metropolitana di Parigi, potrebbe usare un’analisi automatizzata in tempo reale delle immagini. L’esperimento durerà fino a marzo 2025.
La fermata Porte de Pantin è una delle 46 stazioni di metro e treno scelte per l’esperimento. Una legge di marzo 2023 consente di usare un algoritmo di intelligenza artificiale per analizzare le immagini in tempo reale e individuare otto “eventi”, tra cui ondate di folla, gruppi di persone anormalmente numerosi, oggetti abbandonati, armi o una persona che cade a terra.
Dato il numero elevato di videocamere, il sistema di IA viene usato come supporto per gli operatori umani. Una delle quattro aziende che sviluppano la tecnologia afferma che non c’è nessun rischio per la privacy, in quanto non viene effettuato il riconoscimento facciale delle persone e non viene usato nessun dato personale.
I difensori della privacy temono che il sistema di sorveglianza possa rimanere attivo anche dopo la fine delle Olimpiadi. A partire da febbraio 2025, l’AI Act vieterà i sistemi di IA che sfruttano l’identificazione biometrica in tempo reale, ma le forze dell’ordine possono usarli per un tempo limitato e previa autorizzazione giudiziaria per la prevenzione di un attacco terroristico (esattamente come avviene alle Olimpiadi di Parigi).