Il comitato per il controllo (Oversight Board) ha chiesto a Meta di riscrivere le regole sui contenuti multimediali manipolati, in quanto incoerenti e confusionarie. La decisione è scaturita al termine dell’analisi di un video fake, pubblicato su Facebook, che mostra il Presidente Joe Biden insieme alla nipote Natalie Biden in un seggio elettorale a fine 2022.
Regole sui media manipolati da riscrivere
Il video originale del 29 ottobre 2022 è stato registrato in un seggio elettorale durante le elezioni di metà mandato. Dopo il voto, il Presidente mette uno sticker “I Voted” sulla t-shirt della nipote maggiorenne che ha votato per la prima volta.
Nel mese di maggio 2023, un utente ha pubblicato su Facebook una versione fake del video (sette secondi), in cui sembra che il Presidente tocchi ripetutamente il petto della nipote. In seguito alla segnalazione di un altro utente, Meta ha rimosso il video. Dopo l’appello, il video è stato ripristinato, quindi è stato chiesto l’intervento del comitato per il controllo.
L’Oversight Board ha confermato la decisione di Meta, in quanto il video non viola la policy sui contenuti multimediali manipolati. Le regole attuali non permettono la pubblicazione di video con persone che pronunciano parole mai dette e video creati con l’intelligenza artificiale.
Il video incriminato non rientra in queste due categorie, anche se è stato chiaramente manipolato. Il comitato suggerisce quindi a Meta di riscrivere la policy in maniera più dettagliata per coprire anche i video alterati senza l’uso dell’intelligenza artificiale. L’azienda di Menlo Park dovrebbe inoltre includere i contenuti audio e i video con persone che fanno cose mai fatte. Se il video è stato modificato, ma rispetta le regole, si dovrebbe aggiungere un’etichetta.
Le modifiche sono necessarie e urgenti, considerate le numerose elezioni previste nel corso del 2024. Meta ha comunicato che fornirà una risposta entro 60 giorni.