OpenAI: tool per identificare le immagini IA

OpenAI: tool per identificare le immagini IA

OpenAI ha avviato lo sviluppo di un tool che dovrebbe consentire di identificare le immagini IA generate dal nuovo modello DALL-E 3.
OpenAI: tool per identificare le immagini IA
OpenAI ha avviato lo sviluppo di un tool che dovrebbe consentire di identificare le immagini IA generate dal nuovo modello DALL-E 3.

OpenAI ha annunciato la disponibilità del modello DALL-E 3 per gli abbonati a ChatGPT Plus e Enterprise. L’azienda californiana ha inoltre comunicato di aver avviato lo sviluppo di un “classifier”, ovvero un tool che permette di identificare le immagini generate dall’intelligenza artificiale.

Tool per limitare la disinformazione

I modelli che permettono di generare immagini a partire da una descrizione testuale hanno ormai raggiunto una qualità quasi fotorealistica. La maggioranza degli utenti non riesce più a distinguere una foto scattata da un umano da quella ottenuta tramite intelligenza artificiale. Ciò comporta un’amplificazione dei contenuti fake sui social media, soprattutto quelli usati a scopo di propaganda.

DALL-E 3, disponibile anche gratuitamente tramite Bing Chat e Bing Image Creator, è stato già sfruttato per generare immagini discutibili. OpenAI sottolinea di aver implementato un sistema multi-livello per impedire la generazione di immagini che includono contenuti violenti, per adulti e di incitamento all’odio. Altri filtri bloccano la generazione di immagini con personaggi pubblici o che imitano lo stile di artisti viventi.

L’azienda californiana ha inoltre avviato lo sviluppo di un “provenance classifier“, ovvero un tool che permette di identificare se l’immagine è stata generata o meno dal modello DALL-E 3. In base ai primi test, il tool raggiunge un’accuratezza del 99% per le immagini non modificate e del 95% per le immagini modificate (ad esempio tramite ritaglio, ridimensionamento o compressione JPEG).

Nonostante i risultati positivi, OpenAI ritiene che il tool non sia ancora pronto per la disponibilità pubblica, in quanto consente solo di affermare che un’immagine è probabilmente generata da DALL-E 3. Per contrastare le diffusione delle fake news, la legge europea sull’intelligenza artificiale (AI Act, ancora in discussione) prevede l’obbligo di indicare la fonte delle immagini. Tuttavia, gli attuali watermark non servono quasi a nulla.

OpenAI aveva anche avviato lo sviluppo di un “classifier” per distinguere il testo scritto da un umano da quello generato dell’intelligenza artificiale. Lo sviluppo è stato interrotto perché l’accuratezza era troppo bassa.

Fonte: OpenAI
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
20 ott 2023
Link copiato negli appunti