Un bug nel feed di Facebook ha causato la visualizzazione di post che dovevano essere penalizzati. Questo però era un problema di poca importanza se confrontato con quello evidenziato dal New York Times. Meta non ha eliminato dal social network le foto che mostrano abusi sui minori. Ciò è avvenuto perché i moderatori non sono riusciti a determinare la loro età.
Facebook considera i minori come adulti
Come tutte le Big Tech, anche Meta deve monitorare le sue piattaforme per individuare e rimuovere i cosiddetti CSAM (Child Sexual Abuse Material), oltre che inviare una segnalazione al National Center for Missing and Exploited Children (NCMEC). Questo compito spetta ai moderatori, ma nel caso di Facebook non sempre viene presa la decisione corretta. Il problema è in parte correlato alla difficoltà di determinare l’età dei soggetti presenti nelle immagini.
Se la foto di nudo raffigura un adulto, i moderatori la eliminano perché viola le regole. Se invece il soggetto è un minore, oltre alla sua cancellazione è prevista la segnalazione alle autorità (Facebook ha segnalato quasi 27 milioni di immagini nel 2021). L’azienda di Menlo Park ha istruito i moderatori a considerare adulti i soggetti dei quali non riescono a determinare l’età. Altre Big Tech, tra cui Apple, seguono invece l’approccio opposto (nel dubbio segnalano sempre le immagini).
Alcuni esperti legali sottolineano che le aziende sono in una difficile situazione, anche perché le leggi non sono chiare. Se non segnalano immagini sospette, possono essere perseguite dalle autorità. Se invece segnalano immagini legali come materiale pedopornografico, possono essere citati in giudizio.