L’Oversight Board ha pubblicato l’esito finale dell’indagine avviata ad aprile su due casi di immagini esplicite non consensuali create con l’intelligenza artificiale. Secondo il comitato, Meta dovrebbe rimuovere entrambe le immagini e modificare le regole che vietano questo tipo di contenuti per renderle più chiare.
Aggiornamento delle regole sui deepfake
Nel primo caso, l’intervento dell’Oversight Board era stato chiesto da un utente in relazione ad un’immagine IA esplicita, condivisa da un account Instagram, che raffigurava un personaggio pubblico indiano. Meta aveva inizialmente lasciato online l’immagine, ma è stata successivamente rimossa. Nel secondo caso, l’intervento del comitato è stato chiesto dall’utente che aveva pubblicato in un gruppo Facebook l’immagine IA esplicita raffigurante un personaggio pubblico statunitense, in quanto Meta ha subito rimosso l’immagine.
Il comitato ha stabilito che entrambe le immagini hanno violato le regole su bullismo e intimidazioni, in particolare il divieto di ritocchi o disegni dispregiativi a sfondo sessuale (“Derogatory sexualised photoshop or drawings” in inglese).
Il comitato ha ordinato a Meta di modificare le regole per fornire informazioni più chiare agli utenti. In dettaglio, il divieto di pubblicare immagini esplicite non consensuali generate dall’IA deve essere spostato dalle regole su bullismo e intimidazioni alle regole su sfruttamento sessuale di adulti.
Inoltre, il termine “dispregiativo” deve essere sostituito con il termine “non consensuale”, mentre il termine “ritocchi” deve essere sostituito con un termine che indica i media manipolati dall’IA. Per questo tipo di contenuti, la regola dovrebbe anche specificare che non è necessario che siano “non commerciali o prodotti in un ambiente privato” per costituire una violazione.