Generatori di immagini AI: addestrati su foto esplicite di bambini

Generatori di immagini AI: addestrati su foto esplicite di bambini

Lo Stanford Internet Observatory ha scoperto oltre 3.200 immagini sospette di abusi sessuali su minori all'interno del database AI LAION.
Generatori di immagini AI: addestrati su foto esplicite di bambini
Lo Stanford Internet Observatory ha scoperto oltre 3.200 immagini sospette di abusi sessuali su minori all'interno del database AI LAION.

Fino a poco tempo fa, i ricercatori impegnati nella lotta contro gli abusi sessuali pensavano che alcuni strumenti di intelligenza artificiale non controllati producessero immagini pedopornografiche combinando essenzialmente ciò che avevano appreso da due gruppi distinti di immagini online: la pornografia per adulti e le foto innocenti di bambini.

Tuttavia, il recente studio dello Stanford Internet Observatory ha fatto una scoperta inquietante. All’interno del vasto database AI chiamato LAION, utilizzato per addestrare importanti sistemi di generazione di immagini come Stable Diffusion, sono state individuate oltre 3.200 immagini sospette di abusi sessuali su minori.

LAION sospende i suoi set di dati dopo la scoperta di foto esplicite di bambini

In collaborazione con il Centro canadese per la protezione dell’infanzia e altre organizzazioni benefiche che lottano contro gli abusi, lo Stanford Internet Observatory ha identificato il materiale illegale e ha segnalato i collegamenti alle foto originali alle autorità competenti. La risposta è stata immediata. Prima della pubblicazione del rapporto dello Stanford Internet Observatory, avvenuta mercoledì, LAION ha dichiarato all’Associated Press che avrebbe rimosso temporaneamente i suoi set di dati.

In un comunicato, LAION, acronimo di “Large-scale Artificial Intelligence Open Network” (una rete aperta di intelligenza artificiale su larga scala), ha sottolineato di avere una politica di tolleranza zero per i contenuti illegali e, in via precauzionale, ha deciso di rimuovere i dataset di LAION per assicurarsi che siano sicuri prima di ripubblicarli.

Le immagini di sospetto abuso sessuale su minori individuate nel database di LAION, che comprende circa 5,8 miliardi di immagini, rappresentano solo una piccola parte di questo enorme indice. Tuttavia, secondo il gruppo di ricerca di Stanford, è molto probabile che queste immagini abbiano un impatto significativo sulla capacità degli strumenti di intelligenza artificiale di generare risultati pericolosi, e potrebbero anche rafforzare gli abusi subiti da vittime reali che appaiono ripetutamente.

LAION e Stability AI sotto accusa

Uno degli utenti del database LAION, che ha contribuito alla sua creazione, è Stability AI, famosa per il suo generatore di immagini AI Stable Diffusion.

Le versioni più recenti di Stable Diffusion hanno introdotto misure più rigorose per prevenire la generazione di contenuti dannosi. Tuttavia, secondo il rapporto dello Stanford Internet Observatory, una versione più datata del modello, introdotta l’anno precedente e che Stability AI afferma di non aver rilasciato, continua a essere integrata in altre applicazioni e strumenti. Sorprendentemente, questa versione rimane “il modello più diffuso per generare immagini esplicite“.

Gran parte dei dati di LAION proviene da un’altra fonte, Common Crawl, un archivio di dati costantemente pescati da Internet, ma il direttore esecutivo di Common Crawl, Rich Skrenta, ha affermato che è “doveroso” per LAION analizzare e filtrare ciò che prende prima di utilizzarlo.

LAION promette di migliorare i filtri per i contenuti illegali nei suoi set di dati per i generatori di immagini AI

Questa settimana LAION ha dichiarato di aver sviluppato “filtri rigorosi” per individuare e rimuovere i contenuti illegali prima di rilasciare i suoi set di dati e sta ancora lavorando per migliorare tali filtri. Il rapporto di Stanford riconosce che gli sviluppatori di LAION hanno fatto alcuni tentativi per filtrare i contenuti espliciti “minorenni”, ma avrebbero potuto fare un lavoro migliore se si fossero consultati prima con esperti di sicurezza dei bambini.

Molti generatori di immagini AI derivano in qualche modo dal database LAION, anche se non è sempre chiaro quali. OpenAI, creatore di DALL-E e ChatGPT, ha dichiarato di non utilizzare LAION e di aver messo a punto i propri modelli per rifiutare le richieste di contenuti sessuali che coinvolgono minori.

Google ha costruito il suo generatore di immagini AI Imagen sulla base di un set di dati LAION, ma ha deciso di non renderlo pubblico nel 2022 dopo che una verifica del database ha “scoperto un’ampia gamma di contenuti inappropriati, tra cui immagini pornografiche, insulti razzisti e stereotipi sociali dannosi“.

Stanford chiede azioni drastiche per eliminare le foto esplicite di bambini dai generatori di immagini AI

Cercare di ripulire i dati retroattivamente è difficile, quindi lo Stanford Internet Observatory chiede misure più drastiche. Una di queste è che chiunque abbia costruito set di addestramento a partire da LAION-5B – chiamato così per gli oltre 5 miliardi di coppie text-to-image che contiene – “li cancelli o collabori con intermediari per ripulire il materiale“.

Un’altra è quella di far scomparire una vecchia versione di Stable Diffusion da tutti gli angoli più oscuri di Internet. Come esempio, Thiel ha citato CivitAI, una piattaforma favorita da chi crea pornografia generata dall’IA, ma che, a suo dire, manca di misure di sicurezza che la mettano al riparo dalla produzione di immagini di bambini. Il rapporto invita anche la società di AI Hugging Face, che distribuisce i dati di addestramento per i modelli, a implementare metodi migliori per segnalare e rimuovere i link a materiale abusivo.

Il rapporto di Stanford si chiede anche se le foto dei bambini, anche le più innocue, debbano essere inserite nei sistemi di intelligenza artificiale senza il consenso della famiglia, in virtù delle protezioni previste dal Children’s Online Privacy Protection Act.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
21 dic 2023
Link copiato negli appunti