L’IA generativa viene utilizzata sempre più frequentemente per modificare immagini o realizzarle da zero: non ci sono solo DALL-E, Stable Diffusion e Midjourney in mano ai possibili malintenzionati, pronti a creare deepfake per ingannare la popolazione, ma anche soluzioni come Adobe Firefly, IA integrata dal gigante dell’imaging anche su Photoshop proprio per facilitare l’espansione e modifica di fotografie e altre composizioni artistiche. I rischi sono notevoli e, per questa ragione, i ricercatori del MIT CSAIL hanno lavorato duramente per dare vita a PhotoGuard, nuova tecnica di protezione delle immagini per prevenire la manipolazione non autorizzata delle immagini.
PhotoGuard combatte contro la IA generativa
Come funziona questo sistema? Secondo quanto pubblicato su Arxiv dai ricercatori PhotoGuard altera una serie di pixel selezionati in un’immagine cosicché l’IA non possa più comprendere quali siano le caratteristiche chiave dell’immagine. Queste modifiche alla fotografia sono invisibili all’occhio umano ma facilmente leggibili dalle macchine, le quali vengono ingannate e non riescono a osservare ciò che effettivamente è presente nella composizione.
Con questo approccio, qualsiasi modifica che un’intelligenza artificiale tenta di apportare alle immagini “immunizzate” verrà applicata erroneamente, generando altri file dall’aspetto irrealistico. In un comunicato, lo studente e autore principale dello studio Hadi Salman ha affermato: “Un approccio collaborativo che coinvolge sviluppatori di modelli, piattaforme di social media e responsabili politici rappresenta una solida difesa contro la manipolazione non autorizzata delle immagini. Lavorare su questo problema urgente è di fondamentale importanza oggi. […] è necessario molto lavoro per rendere pratica questa protezione. Le aziende che sviluppano questi modelli devono investire nella progettazione di immunizzazioni robuste contro le possibili minacce poste da questi strumenti di intelligenza artificiale”.