Meta ha recentemente sottoscritto un accordo con altre aziende per contrastare la diffusione di contenuti IA ingannevoli durante le elezioni che si svolgeranno in molti paesi nel 2024. Una nuova iniziativa, che interesserà gli utenti in India, prevede il lancio di una helpline per WhatsApp che fornirà informazioni sui deepfake.
Fact-checking su WhatsApp
L’obiettivo di Meta è consentire agli utenti di riconoscere le informazioni fasulle e di accedere alle fonti più affidabili. La helpline, che sarà disponibile dal mese di marzo, è stata implementata con la collaborazione di Misinformation Combat Alliance (MCA), un organizzazione indiana che cerca di limitare la diffusione di fake news.
MCA e la sua rete di fact-checker indipendenti attiverà un’unità di analisi dei deepfake che gestirà i messaggi ricevuti tramite la helpline. Gli utenti invieranno i contenuti al chatbot su WhatsApp. MCA risponderà per indicare se si tratta di notizie false generate con l’intelligenza artificiale.
L’obiettivo dell’iniziativa è implementare un approccio basato su quattro pilastri: rilevamento, prevenzione, segnalazione e sensibilizzazione sulla crescente diffusione dei deepfake. Non è noto se verrà estesa al resto del mondo. Meta ha recentemente annunciato una nuova policy che prevede l’aggiunta di etichette per indicare i contenuti generati dall’IA pubblicati su Facebook, Instagram e Threads.
Oggi è piuttosto semplice creare immagini o video che sembrano reali tramite i numerosi tool disponibili, come Sora di OpenAI. Diventa quindi sempre più difficile distinguere il vero dal falso. I social network sono ovviamente il mezzo preferito per diffondere false informazioni.