Apple ha introdotto la funzionalità “Communication Safety” in altri quattro paesi: Regno Unito, Canada, Australia e Nuova Zelanda. Negli Stati Uniti è disponibile dal mese di dicembre 2021. Sfruttando l’intelligenza artificiale, iOS effettua la scansione dei messaggi e blocca automaticamente la visualizzazione delle foto di nudo. Rispetto alla versione originale sono state apportate alcune modifiche.
iOS protegge i minori dalle foto di nudo
All’inizio di agosto 2021 erano state annunciate tre funzionalità sviluppate per proteggere i minori. Una di esse, denominata CSAM Detection, consentiva di rilevare le foto sessualmente esplicite prima dell’upload su iCloud e, in caso di corrispondenza con quelle nel database del National Center for Missing and Exploited Children (NCMEC), veniva inviata una segnalazione alle forze dell’ordine. Dopo aver ricevuto numerose critiche in merito alla possibile violazione della privacy e alla scarsa affidabilità della tecnologia, Apple ha deciso di sospendere il rilascio della funzionalità.
La scansione delle immagini nell’app Messaggi è stata invece introdotta negli Stati Uniti a dicembre 2021 e ora arriverà in altri quattro paesi di lingua inglese. Se attivata dai genitori attraverso l’account Family Sharing (In Famiglia), iOS oscurerà le foto di nudo ricevute dai figli. Lo stesso accade per le foto inviate. L’operazione viene effettuata sul dispositivo, quindi non viene inviato nulla ai server di Apple.
La versione originale della funzionalità prevedeva anche l’invio di una notifica ai genitori, ma questo avviso è stato successivamente eliminato. Ovviamente i messaggi continuano ad essere protetti dalla crittografia end-to-end. Non è chiaro se verrà attivata nell’attuale versione (15.4.1) del sistema operativo oppure nella prossima versione 15.5.