Apple ha comunicato che le funzionalità sviluppate per proteggere i minori, annunciate all’inizio di agosto, non saranno disponibili in iOS/iPadOS 15, watchOS 8 e macOS Monterey. L’azienda di Cupertino ha quindi deciso di posticipare il rilascio dopo aver ricevuto numerose critiche sul rispetto della privacy e l’efficacia della tecnologia.
Dietrofront di Apple: niente scansione in iOS 15
Una delle due funzionalità riguarda l’app Messaggi. Quando un utente minorenne riceve un’immagine sessualmente esplicita, il tool sviluppato da Apple invia una notifica ai genitori. Secondo la Electronic Frontier Foundation (EFF), il funzionamento prevede la disattivazione della crittografia end-to-end. L’azienda di Cupertino ha sottolineato che non verrà rimossa.
La tecnologia che ha innescato le principali proteste da parte dei difensori della privacy è CSAM Detection. Apple effettua la scansione delle immagini sul dispositivo prima dell’upload su iCloud. Se viene trovata una corrispondenza con una foto nel database del National Center for Missing and Exploited Children (NCMEC), l’azienda invia una segnalazione alle forze dell’ordine (negli Stati Uniti).
Apple ha garantito che la tecnologia è affidabile, in quanto la probabilità di falsi positivi è quasi nulla. Inoltre ha promesso che non consentirà a nessun governo di utilizzarla per altri scopi, come la sorveglianza di massa (forti critiche in tal senso sono arrivate da WhatsApp e Edward Snowden, oltre che da due ricercatori della Princeton University).
Apple ha oggi pubblicato un aggiornamento sulla pagina dedicata per comunicare che le due funzionalità non saranno disponibili nelle prossime versioni dei sistemi operativi:
Il mese scorso abbiamo annunciato i piani per funzionalità intese a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per contattarli, e per limitare la diffusione di materiale pedopornografico. Sulla base dei feedback di clienti, gruppi di interesse, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste importanti funzionalità per la sicurezza dei bambini.
Aggiornamento: la EFF ha espresso soddisfazione per la decisione, ma chiede ad Apple di abbandonare completamente la tecnologia.