L’Oversight Board ha avviato due indagini per verificare se le regole di Meta e le azioni di moderazione sono efficaci o devono essere modificate. I casi in esame riguardano due deepfake porno di personaggi pubblici apparsi su Facebook e Instagram. Entrambi sono stati rimossi, ma il comitato deciderà se i contenuti dovranno essere consentiti sulle piattaforme.
Deepfake porno vietati o consentiti?
Per ovvi motivi non sono stati specificati i nomi delle due persone coinvolte. Il primo caso riguarda un deepfake condiviso su Instagram che raffigurava una donna senza vestiti con aspetto simile ad un personaggio pubblico indiano. Un utente ha segnalato il contenuto come pornografico, ma la segnalazione è stata chiusa automaticamente dopo 48 ore, in quanto senza risposta.
Lo stesso utente ha presentato ricorso, ma è stato chiuso in modo automatico. Dato che il contenuto era rimasto online, l’utente ha inviato un ricorso all’Oversight Board. Solo dopo la selezione del caso da parte del comitato, Meta ha rimosso il deepfake per la violazione delle regole su bullismo e intimidazioni.
Il secondo caso riguarda un deepfake creato con l’IA e pubblicata su un gruppo Facebook. L’immagine raffigurava una donna svestita e un uomo che le toccava il seno. La donna aveva un aspetto simile ad un personaggio pubblico statunitense. Meta ha subito rimosso l’immagine per la violazione delle regole su bullismo e intimidazioni. L’utente che aveva condiviso l’immagine ha presentato ricorso prima a Meta (bocciato) e poi all’Oversight Board.
L’obiettivo del comitato è valutare se le normative di Meta e le sue procedure di applicazione siano efficaci nel trattare le immagini esplicite generate dall’IA. Entro il 30 aprile è possibile inviare commenti pubblici su alcuni punti, tra cui eventuali modifiche alle regole attuali. Meta aveva 60 giorni di tempo per rispondere, ma ha già comunicato che rispetterà la decisione del comitato.