Meta ha pubblicato un resoconto sui contenuti elettorali apparsi su Facebook, Instagram e Threads. Contrariamente alle previsioni allarmistiche, solo l’1% delle fake news è stata generata con l’intelligenza artificiale. L’azienda di Menlo Park ha elencato inoltre le misure implementate per limitare la disinformazione e individuare gli account creati per manipolare l’opinione pubblica.
Pochi contenuti AI sulle elezioni
Il 2024 è stato un anno “affollato” di appuntamenti elettorali con quasi 2 miliardi di persone interessate. Meta ha spiegato in dettaglio cosa ha visto sulle piattaforme e come ha garantito la libertà di espressione, limitando le interferenze straniere. I dati fanno riferimento alle elezioni in Europa, Stati Uniti, Francia, Regno Unito, Sud Africa, Messico, Brasile, India, Pakistan, Indonesia e Bangladesh.
Molti esperti del settore avevano avvisato dell’impatto negativo dell’intelligenza artificiale sulle elezioni, evidenziando il rischio derivante dalla diffusione dei deepfake e delle campagne di disinformazione. Meta ha invece rilevato un impatto modesto su Facebook, Instagram e Threads. L’azienda californiana ha rilevato che i contenuti AI relativi alle elezioni sono stati meno dell’1% delle fake news.
Il tool Imagine AI ha bloccato la creazione di oltre 590.000 deepfake di Donald Trump, Joe Biden, Kamala Harris, JD Vance e Tim Walz nel mese precedente alle elezioni presidenziali. Meta ha inoltre individuato e smantellato circa 20 reti di account creati per influenzare il voto. Erano account con follower e like fasulli che sembravano molto popolari.
Una delle più note è Doppelganger, un’imponente campagna di disinformazione organizzata per diffondere notizie pro-Russia attraverso migliaia di siti pubblicizzati su vari social media. Meta sottolinea che trovare il giusto bilanciamento tra libertà di espressione e sicurezza è una sfida in continua evoluzione.