Le immagini generate dall’intelligenza artificiale sono sempre più perfette, quindi l’occhio umano non riesce a distinguerle da quelle reali. Canon, Nikon e Sony hanno avviato lo sviluppo di una tecnologia che sfrutta il tool Verify per individuare l’autenticità delle immagini. Verrà integrata direttamente nelle future fotocamere dei tre produttori giapponesi.
Watermark per le immagini
I cosiddetti modelli text-to-image, come DALL-E 3, possono generare immagini di elevata qualità che ingannano anche gli utenti più esperti. Sui social media sono aumentati i contenuti fake che sembrano reali. Esistono diversi siti che permettono di rilevare le immagini IA, ma i risultati non sono affidabili al 100%.
Un gruppo di organi di informazione, aziende tecnologiche e produttori di fotocamere hanno lanciato il tool Verify per verificare l’autenticità delle immagini. Se quest’ultima ha una firma digitale (watermark) vengono mostrate alcune informazioni, tra cui data e luogo. Se invece è stata generata dall’intelligenza artificiale viene mostrato un avviso che indica l’assenza di credenziali.
La tecnologia verrà integrata direttamente nelle future fotocamere prodotte da Canon, Nikon e Sony. Canon annuncerà una fotocamera nei prossimi mesi che supporta il tool, oltre ad un’app che svelerà se l’immagine è stata scattata da un umano. Nikon integrerà la tecnologia nelle prossime mirrorless, mentre Sony rilascerà un nuovo firmware per tre SLR mirrorless in primavera. La tecnologia dovrebbe essere estesa anche ai video.
Anche le aziende che sviluppano i modelli text-to-image, tra cui Google, Microsoft e Meta, hanno introdotto watermark digitali per indicare che le immagini non sono reali (uno degli obblighi previsti dall’AI Act). Alcuni ricercatori ritengono però che i watermark siano praticamente inutili.