Per indicare che un’immagine è stata generata dall’intelligenza artificiale viene solitamente aggiunto un watermark digitale (visibile o invisibile). Un gruppo di ricercatori statunitensi ha dimostrato che questa “filigrana elettronica” è inutile. Inoltre è possibile anche aggiungere watermark alle immagini non generate dall’IA, ottenendo un falso positivo.
I watermark attuali non servono a nulla?
Il watermark “analogico” è la filigrana che viene inserita nelle banconote o nei francobolli per impedire la contraffazione. Nel caso dell’intelligenza artificiale generativa, l’efficacia della versione digitale è praticamente vicina allo zero, come hanno dimostrato i ricercatori dell’Università del Maryland.
Esistono due tipi di watermark digitali. Il primo, detto “a bassa perturbazione”, è invisibile ad occhio nudo. Il secondo, detto “ad alta perturbazione”, è visibile ad occhio nudo. I ricercatori hanno sviluppato una tecnica che permette di rimuoverli entrambi, quindi non è possibile scoprire (tramite analisi umana o computer) se l’immagine è reale o generata dall’intelligenza artificiale. Ciò potrebbe portare ad un incremento dei cosiddetti deep fake.
Diverse aziende, tra cui OpenAI, Meta, Amazon e Google, hanno avviato lo sviluppo di tecnologie di watermarking per combattere la disinformazione. Il watermark viene ad esempio utilizzato in Bing Image Creator, Meta AI e Generative AI by Getty Images.
Secondo i ricercatori, ad oggi non esiste nessun watermark efficace. In ogni caso dovrebbe essere usato insieme ad altre tecnologie per ostacolare la creazione di immagini fake realistiche. Con l’avvicinarsi delle elezioni presidenziali negli Stati Uniti e delle elezioni europee del 2024 si prevede un’invasione di contenuti generati dall’intelligenza artificiale che potrebbero manipolare l’opinione pubblica e influenzare il voto.