IA e guerra Israele-Hamas: secondo livello di disinformazione

IA e guerra Israele-Hamas: secondo livello di disinformazione

Gli strumenti sviluppati per identificare le immagini generate dall'IA e smascherare le fake news rischiano di alimentare la disinformazione.
IA e guerra Israele-Hamas: secondo livello di disinformazione
Gli strumenti sviluppati per identificare le immagini generate dall'IA e smascherare le fake news rischiano di alimentare la disinformazione.

L’impatto dei contenuti generati dall’IA sul fenomeno della disinformazione rappresenta un problema reale e ormai discusso ormai da tempo, fin dalla comparsa dei primi deepfake in grado di emulare le fattezze e le voce di personaggi pubblici o della politica. E, l’intensificarsi dello scontro tra Israele e Hamas, si sta quasi inevitabilmente trasformando in un banco di prova per quei sistemi nati proprio con l’obiettivo di identificare e di etichettare i contenuti fake creati dagli algoritmi.

La disinformazione ai tempi della guerra

Se voler smascherare l’origine alterata o fittizia di una fotografia è senza dubbio un fine nobile e legittimo, una finalità condivisa dal principio stesso su cui poggia ogni attività di fact checking, soprattutto in un contesto bellico che quotidianamente sta costando la vita di civili innocenti, attuare la pratica mediante un’analisi non del tutto precisa o efficace rischia di portare a un esito ingannevole. In altre parole, se a mentire, seppur involontariamente, sono gli stessi strumenti ai quali ci si affida per capire se le immagini di un reportage siano vere o meno, si crea un cortocircuito con cui sarebbe meglio non avere a che fare.

Nel mezzo di questa dinamica c’è l’opinione pubblica, di nuovo sempre più polarizzata e schierata su posizioni pro e contro, per definizione influenzabile da ciò che viene pubblicato e diffuso da quelle che sono ritenute fonti autorevoli.

È il caso di uno scatto che ritrae il corpo di un bambino ucciso e bruciato durante il recente attacco di Hamas. L’immagine è stata condivisa dal profilo ufficiale X/Twitter di Israele, da quello del primo ministro Benjamin Netanyahu, poi dal presidente statunitense Joe Biden e da numerose testate online. Ad accompagnarlo, la notizia relativa a circa 40 decapitazioni tra i piccoli finiti nelle mani degli assalitori.

Il file, sottoposto all’analisi del tool AI or Not sviluppato dalla società Optic (già citato da New York Times e Wall Street Journal), risulterebbe creato dall’intelligenza artificiale. Dunque, non autentico.

Un secondo livello di disinformazione

Hany Farid, docente UC Berkeley e ritenuto uno dei più autorevoli esperti nel riconoscimento dei contenuti contraffatti, ha poi sottoposto l’immagine all’esame di un altro classificatore, questa volta realizzato internamente dall’università, giungendo a un esito diametralmente opposto.

Lasciando da parte la questione inerente all’autenticità di questo specifico file, l’esigenza non è dunque più solo quella di individuare gli scatti falsi o alterati, ma anche di evitare che quelli genuini possano essere mal interpretati dagli stessi tool che dovrebbero certificarne la veridicità, in assenza di altri elementi utili forniti, ad esempio, dall’analisi del RAW se si tratta di una fotografia.

E con l’evoluzione dei modelli di IA generativa (fra i tanti, DALL-E 3 di OpenAI è alla portata di tutti), distinguere tra verità e menzogna non potrà che diventare ancora più difficoltoso. Farid si riferisce a questa dinamica come a un secondo livello di disinformazione.

È un secondo livello di disinformazione. Ci sono dozzine di questi strumenti, là fuori. La metà di loro dice reale, l’altra metà dice falso.

La fotografia citata in questo articolo è stata volontariamente omessa. È pubblicata sulle pagine della fonte a cui è ispirato (link in fondo).

Fonte: 404 Media
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
16 ott 2023
Link copiato negli appunti