OpenAI ha annunciato la disponibilità del modello DALL-E 3 per gli abbonati a ChatGPT Plus e Enterprise. L’azienda californiana ha inoltre comunicato di aver avviato lo sviluppo di un “classifier”, ovvero un tool che permette di identificare le immagini generate dall’intelligenza artificiale.
Tool per limitare la disinformazione
I modelli che permettono di generare immagini a partire da una descrizione testuale hanno ormai raggiunto una qualità quasi fotorealistica. La maggioranza degli utenti non riesce più a distinguere una foto scattata da un umano da quella ottenuta tramite intelligenza artificiale. Ciò comporta un’amplificazione dei contenuti fake sui social media, soprattutto quelli usati a scopo di propaganda.
DALL-E 3, disponibile anche gratuitamente tramite Bing Chat e Bing Image Creator, è stato già sfruttato per generare immagini discutibili. OpenAI sottolinea di aver implementato un sistema multi-livello per impedire la generazione di immagini che includono contenuti violenti, per adulti e di incitamento all’odio. Altri filtri bloccano la generazione di immagini con personaggi pubblici o che imitano lo stile di artisti viventi.
L’azienda californiana ha inoltre avviato lo sviluppo di un “provenance classifier“, ovvero un tool che permette di identificare se l’immagine è stata generata o meno dal modello DALL-E 3. In base ai primi test, il tool raggiunge un’accuratezza del 99% per le immagini non modificate e del 95% per le immagini modificate (ad esempio tramite ritaglio, ridimensionamento o compressione JPEG).
Nonostante i risultati positivi, OpenAI ritiene che il tool non sia ancora pronto per la disponibilità pubblica, in quanto consente solo di affermare che un’immagine è probabilmente generata da DALL-E 3. Per contrastare le diffusione delle fake news, la legge europea sull’intelligenza artificiale (AI Act, ancora in discussione) prevede l’obbligo di indicare la fonte delle immagini. Tuttavia, gli attuali watermark non servono quasi a nulla.
OpenAI aveva anche avviato lo sviluppo di un “classifier” per distinguere il testo scritto da un umano da quello generato dell’intelligenza artificiale. Lo sviluppo è stato interrotto perché l’accuratezza era troppo bassa.