Apple doveva introdurre due funzionalità con iOS 15 per proteggere i minori, ma all’inizio di settembre ha deciso di cambiare idea, in seguito alle critiche ricevute dai difensori della privacy. Un team di esperti ha ora pubblicato uno studio che dimostra la pericolosità della tecnologia di scansione “client-side”.
Protezione minori o sorveglianza di massa?
Apple ha tentato di spiegare che la tecnologia CSAM (Child Sexual Abuse Material) Detection è affidabile, in quanto il numero dei falsi positivi è quasi nullo. L’azienda di Cupertino ha inoltre sottolineato che non fornirà accesso a nessun governo. Una simile promessa è difficile da mantenere, dato che Apple tende a rispettare le leggi in vigore nei vari paesi (la rimozione dell’app di Navalny in Russia è un esempio recente).
Nello studio dal titolo “Bugs in our Pockets: The Risks of Client-Side Scanning” viene evidenziata la pericolosità della scansione locale, ovvero la ricerca sul dispositivo di contenuti illegali (immagini sessualmente esplicite, nel caso di Apple). Secondo gli esperti di sicurezza, la tecnologia CSS (Client-Side Scanning) non è efficace nella prevenzione dei crimini e non previene la sorveglianza di massa.
Un abuso della tecnologia comporterebbe conseguenze negative per sicurezza e privacy. I governi potrebbero chiedere di cercare altri tipi di immagini, prima del caricamento su iCloud. Apple conserva i dati degli utenti cinesi nei data center controllati dal governo locale, quindi la Cina potrebbe ad esempio bloccare l’upload di immagini relative al massacro di Tienanmen.
La tecnologia CSS è in pratica la soluzione scelta dai paesi per facilitare le indagini su vari tipi di reato, vista l’impossibilità di accedere ai dispositivi protetti dalla crittografia. Gli autori dello studio hanno dichiarato che l’Unione europea annuncerà presto una nuova legge che autorizzerà la ricerca di foto, video e testo, non solo per indagare su abusi sessuali, ma anche per prevenire attacchi terroristici.