Le immagini generate dall’intelligenza artificiale si sono rapidamente evolute, passando da foto ridicole e bizzarre a immagini spaventosamente credibili, e ci sono conseguenze importanti se non si è in grado di distinguere ciò che è autentico da ciò che è stato generato artificiosamente.
Gli strumenti AI per creare immagini – quelle immagini che si possono evocare nella mente ma non necessariamente realizzare con mezzi tradizionali come la fotografia e la pittura – sono oramai facilmente accessibili e gratuiti o a basso costo. DALLE-3, Stable Diffusion, Midjourney e Ideogram sono in grado di generare immagini dall’aspetto credibile, che possono tranquillamente ingannare al primo sguardo, e probabilmente anche al secondo e al terzo.
Come funzionano i generatori di immagini AI
I cosiddetti “generatori text-to-image” producono contenuti verosimili in pochi secondi. Basta digitare una richiesta testuale spiegando cosa si vuole nell’immagine, e in pochi secondi il generatore produce un risultato che sembra reale ma non lo è. Le conseguenze possono essere devastanti, come disinformazione e deepfake, anche pornografici. L’intelligenza artificiale, infatti, sta diventando sempre più abile nel dissimulare la propria natura artificiosa. Le aziende stanno lavorando a watermark e altre soluzioni per identificare le immagini generate con l’AI, ma finora sono facilmente aggirabili.
Per non cadere vittima dell’inganno, è fondamentale affidarsi a software in grado di rilevare i contenuti generati con l’intelligenza artificiale, ma anche sviluppare senso critico. Prima di dare per scontata l’autenticità di un’immagine, è bene analizzare con attenzione i dettagli, senza tralasciare la fonte e il contesto. Una maggiore consapevolezza, infatti, può aiutare a non farsi manipolare da contenuti creati artificialmente.
Quattro software gratis per riconoscere le immagini AI
Con la diffusione di generatori di immagini AI accessibili al grande pubblico, può essere difficile capire cosa sia reale e cosa no. Esistono però, degli strumenti utili per riconoscere le immagini generate dall’intelligenza artificiale. Ecco, alcuni software affidabili per identificare i contenuti creati dall’AI.
1. Content at Scale
Dopo aver fornito un rilevatore di contenuto AI incredibilmente utile e preciso per il testo, Content at Scale ha aggiunto un Image Detector alla sua suite di prodotti. La cosa migliore è che questo rilevatore è gratuito.
Basta caricare il file di un’immagine o inserirne l’URL, quindi fare clic su un pulsante: l’algoritmo effettua l’analisi, assegnando un punteggio percentuale che quantifica la probabilità che l’immagine sia stata creata da un essere umano o da un’intelligenza artificiale. Lo strumento può rilevare immagini da generatori di immagini come DALL-E, Midjourney e StableDiffusion.
2. Hugging face
Un membro della community open source di Hugging Face ha sviluppato uno strumento gratuito per il rilevamento di immagini generate dall’intelligenza artificiale. L’utilizzo è semplice: basta caricare l’immagine per ottenere in pochi secondi una valutazione percentuale di probabilità che sia stata creata da un essere umano o da un algoritmo.
Nonostante non raggiunga una precisione assoluta, si tratta di una soluzione accessibile e immediata per una prima analisi sulla potenziale origine artificiale di un contenuto visuale, soprattutto considerando che è completamente gratuita in quanto parte di un progetto open source.
3. Foto Forensics
Foto Forensics è uno strumento di analisi delle immagini che si distingue per la capacità di elaborare diversi formati, anche fornendo semplicemente l’URL di un contenuto online.
Utilizzando tecniche come l’Error Level Analysis (ELA), è in grado di rilevare incongruenze nei livelli di compressione all’interno di una foto, che possono indicare manipolazioni digitali. Infatti, in immagini JPEG non alterate ci si aspetta un livello di errore omogeneo.
Oltre all’analisi, Foto Forensics mette a disposizione algoritmi, tutorial interattivi e challenge per migliorare le competenze nell’identificazione di contenuti generati artificialmente dall’AI. Risorse preziose per gli utenti che vogliono smascherare i deepfake e la disinformazione.
4. Optic AI or Not
Una menzione speciale va fatta per Optic AI or Not, che è uno dei uno dei migliori strumenti sul mercato, e ha una versione free e una a pagamento. Nato nel 2022, utilizza una tecnologia avanzata per autenticare rapidamente immagini, video e voci. Fornisce una rapida distinzione tra contenuti autentici e falsi, consentendo di smascherare in tempo reale immagini e video contraffatti o manipolati.
Optic AI or Not è stata creato per identificare le immagini NFT false. “La blockchain garantisce l’unicità e l’immutabilità del registro, ma non ha nulla a che fare con il contenuto del documento stesso. È necessario un ulteriore livello di infrastruttura per determinare se l’immagine o il video sono reali, generati dall’intelligenza artificiale, rubati o contengono materiali protetti da copyright“, ha dichiarato Doronichev.
Ad oggi, lo strumento AI or Not di Optic ha identificato oltre 100 milioni di immagini NFT false, ma il suo utilizzo si estende a tutte le immagini generate dall’AI.
Come affinare l’istinto per riconoscere i contenuti generati dall’AI
In un’era in cui i contenuti generati dall’AI diventano sempre più convincenti, è fondamentale sviluppare anche un occhio critico per distinguere ciò che è reale da ciò che non lo è. Ecco alcune strategie per affinare il proprio istinto nel riconoscere le immagini create con l’intelligenza artificiale.
La ricerca inversa
Le immagini generate dall’AI possono essere individuate eseguendo una ricerca inversa per determinarne la fonte. Anche – o soprattutto – se una foto circola sui social media, ciò non ne conferma l’autenticità. Se un contenuto sembra sensazionale ma non proviene da una fonte affidabile (es. testate giornalistiche o sito di notizie rispettabili), è probabilmente artificioso.
Prendiamo il grande terremoto della Cascadia del 2001, che aveva portato con sé anche un violento tsunami sulle coste pacifiche dell’America. Non è mai accaduto, ma una volta che le immagini dell’evento immaginario sono uscite da un subreddit di Midjourney, l’evento è diventato reale per coloro che non hanno mai indagato ulteriormente.
Una ricerca per immagini di Google può portare alla luce la verità, ma anche in questo caso è necessario scavare più a fondo. Ad esempio, una foto di uno tsunami potrebbe apparire in articoli su un’alluvione realmente accaduta, pur essendo generata dall’IA, “presa in prestito” dal lavoro di un fotoreporter.
Ingrandire i particolari
L’analisi ravvicinata di dettagli è una tecnica efficace per individuare incongruenze in immagini generate dall’intelligenza artificiale. Poiché questi sistemi assemblano contenuti partendo da materiale originale, possono presentare imperfezioni e anomalie se osservati attentamente. Ingrandendo al massimo ogni parte dell’immagine sospetta, è possibile notare pixel fuori posto, contorni innaturali e forme anomale che l’occhio umano difficilmente coglierebbe a una visione d’insieme.
Quando la pelle è troppo liscia
L’intelligenza artificiale può avere difficoltà nel generare dettagli complessi ed imperfezioni naturali come pori e variazioni cromatiche della pelle. Quindi la presenza di immagini dall’aspetto eccessivamente liscio e perfetto, privo di questi elementi tipici dell’epidermide umana, può essere spia di una generazione artificiale.
Le incongruenze anatomiche
L’osservazione ravvicinata dei dettagli ancora una volta può rivelare incongruenze e anomalie che tradiscono l’origine artificiosa dell’immagine. Ad esempio, accessori non coordinati, un numero eccessivo di arti o dita. Un esempio perfetto è la serie di foto ottenute dallo sviluppatore Miles Zimmerman, che aveva chiesto a Midjourney di generare “delle foto risalenti al 2018 di alcuni ventenni felici, vestiti per una serata fuori, che si divertono a una festa in casa”. Le foto ricordano più i dipinti di John Currin che la vita reale, le ragazze hanno un aspetto innaturale, con troppe dita o denti.
Le immagini di persone presenti nei dataset di addestramento dell’AI ritraggono di solito volti, ma più raramente elementi come mani, piedi e sorrisi che mostrano i denti. Questa scarsità di esempi rende difficile per l’intelligenza artificiale comprendere appieno come dovrebbero apparire nella realtà caratteristiche come il numero di dita o la loro forma e lunghezza. Di conseguenza, i modelli AI possono generare contenuti dove questi dettagli appaiono innaturali o non congruenti con l’anatomia umana.