All’ingresso del concerto di Taylor Swift andato in scena il 18 maggio scorso al Rose Bowl di Pasadena (California) è stata allestita una postazione con filmati inediti registrati durante le prove della cantante. Per i fan, un chiaro invito a fermarsi e sostare almeno qualche secondo di fronte ai monitor prima di proseguire e prendere posto sotto al palco. Si trattava in realtà di un complesso sistema di riconoscimento facciale, appositamente occultato.
IA per identificare gli stalker
A comunicarlo Mike Downing, Chief Security Officer di Oak View Group, nel suo intervento di oggi sulle pagine di Rolling Stone. La società gestisce diversi impianti per gli eventi dal vivo tra i quali figurano anche il Madison Squadre Garden di New York e il The Forum di Los Angeles. Le immagini del pubblico acquisite sono state trasferite in tempo reale a un server remoto collocato a Nashville (Tennessee), per essere confrontate tramite l’impiego di algoritmi di intelligenza artificiale con quelle incluse in un database che raccoglie i volti di centinaia di stalker noti per aver preso di mira le popstar. Queste le sue parole.
Tutti coloro che erano di passaggio hanno voluto fermarsi e guardare, così il software ha potuto entrare in funzione.
E la privacy?
Ciò che è inevitabilmente destinato a innescare un dibattito sono le dirette ripercussioni che l’impiego di una simile tecnologia ha sulla privacy di coloro che vengono immortalati dal sistema, soprattutto perché l’acquisizione delle immagini avviene a loro insaputa, tenendone all’oscuro i diretti interessati. Non è dato a sapere con quali modalità vengono gestiti i file trasmessi né per quanto tempo sono destinati a rimanere sui server della società che ha allestito la postazione o per quali altre finalità si ha intenzione di utilizzarli.
Da Taylor Swift e dal suo management non sono giunte dichiarazioni in merito. Si tornerà a parlarne, il tema è caldo (anche nel nostro paese): proprio nei giorni scorsi abbiamo riportato su queste pagine la notizia dell’appello rivolto dal gruppo AI Now al legislatore statunitense perché vengano definite regole e normative più severe, capaci di scongiurare il rischio di abusi.