All’inizio del mese, Apple ha annunciato una funzionalità che permette di effettuare la scansione delle foto prima dell’upload su iCloud con l’obiettivo di individuare eventuali CSAM (Child Sexual Abuse Material). Alle numerose critiche ricevute si aggiunge ora un possibile problema di implementazione. Un ricercatore di Intel Labs ha scoperto che l’algoritmo di hashing potrebbe generare una “collisione” (due immagini differenti con lo stesso hash).
Apple afferma che NeuralHash è affidabile
La tecnologia CSAM Detection consente di analizzare le immagini attraverso l’algoritmo NeuralHash. Se viene trovata una corrispondenza tra gli hash delle foto presenti sul dispositivo (solo quelle che vengono caricate su iCloud) con gli hash inclusi nel database del National Center for Missing and Exploited Children (NCMEC), Apple invia una segnalazione alle forze dell’ordine (solo negli Stati Uniti).
Dopo aver scoperto che il codice di NeuralHash è già presente in iOS 14.3, un utente di GitHub (Asuhariet Ygvar) ha pubblicato una versione generica in Python. Il ricercatore di Intel Labs (Cory Cornelius) ha successivamente usato il codice per dimostrare che l’algoritmo può generare falsi positivi.
Se a due immagini differenti viene associato lo stesso hash, Apple potrebbe segnalare come contenuto CSAM una foto normale. L’azienda di Cupertino ha tuttavia garantito che la sua tecnologia è affidabile. Dato che l’algoritmo di “perceptual hashing” non esclude le collisioni, Apple ha aggiunto un secondo algoritmo server-side che rileva l’errore. In ogni caso, la segnalazione viene inviata solo se il sistema rileva almeno 30 corrispondenze ed è sempre presente un controllo umano.
La Electronic Frontier Foundation ha lanciato una petizione per chiedere ad Apple di non aggiungere la funzionalità nella prossima versione di iOS. Al momento sono state raccolte oltre 7.000 firme.