Nonostante la crescente preoccupazione riguardo all’intelligenza artificiale, una recente indagine ha rivelato che circa il 70% delle persone non è consapevole dell’utilizzo dell’AI per la creazione di contenuti pedopornografici. L’allarme arriva dalla Lucy Faithfull Foundation, un’associazione benefica per la tutela dell’infanzia con sede nel Regno Unito.
La charity britannica ha intervistato oltre 2.500 persone nel Regno Unito. Circa l’88% degli intervistati concorda sul fatto che le immagini sessuali di minori di 18 anni generate dall’AI dovrebbero essere illegali. Nell’UE e nel Regno Unito è illegale creare, vedere o condividere immagini sessuali di minori, compreso il materiale creato con l’intelligenza artificiale.
Le segnalazioni di materiale pedopornografico generato dall’AI
Il direttore della linea telefonica di assistenza dell’associazione, Donald Findlater, ha dichiarato a Euronews Next che il numero di segnalazioni di materiale pedopornografico generato dall’AI è aumentato nell’ultimo anno.
È di fondamentale importanza che la società prenda piena consapevolezza di questa problematica. Attualmente esistono gravi lacune di conoscenza riguardo all’utilizzo dell’intelligenza artificiale per la creazione di contenuti dannosi. Il direttore ha invitato le persone a non guardare queste immagini, perché sono un modo per sessualizzare i bambini, che meritano invece rispetto e protezione. Ha inoltre sottolineato che l’azione di creare, visualizzare o condividere immagini sessuali di bambini, anche se generate tramite intelligenza artificiale, comporta gravi conseguenze legali.
Il rapporto della Internet Watch Foundation
La diffusione di materiale pedopornografico generato dall’AI è stata oggetto di un rapporto allarmante pubblicato l’anno scorso dalla Internet Watch Foundation (IWF), un’organizzazione che monitora e rimuove i contenuti pedopornografici online. Su 11.000 immagini generate dall’AI su un forum di abusi sessuali su minori del dark web, più di 2.500 sono state risultate di natura criminale.
Il rapporto ha rivelato che l’intelligenza artificiale viene utilizzata per ringiovanire le celebrità e utilizzare i loro volti su immagini di corpi di bambini. Inoltre, viene impiegata per “nudificare” immagini di bambini in origine vestiti e che erano state caricate online per motivi legittimi. Tutti questi contenuti sono venduti e commercializzati sul web.
La CEO dell’IWF, Susie Hargreaves, ha affermato che si tratta di un fenomeno in crescita e che l’AI rappresenta una nuova sfida per la lotta alla pedopornografia online.
Le aziende AI non fanno abbastanza
La pedopornografia online è un problema grave e diffuso che richiede una maggiore regolamentazione e responsabilità da parte delle aziende di intelligenza artificiale. Questo è il parere di molti esperti che si occupano di questo tema.
Un esempio di come l’AI possa essere usata in modo improprio per creare e diffondere contenuti pedopornografici è quello di Stable Diffusion. Uno strumento per generare immagini, addestrato con un set di dati contenente più di 3.200 immagini sospette, creato da LAION. La Internet Watch Foundation ha denunciato che Stable Diffusion “non è in grado di impedire in pratica ai suoi modelli di generare immagini che contravvengono alle sue condizioni d’uso”.
Le piattaforme social sotto accusa
Anche le piattaforme di social media sono state criticate per la gestione dei contenuti relativi allo sfruttamento sessuale dei minori. Ad esempio, X (ex Twitter) è stata multata per 366.742 euro dall’Australia a ottobre 2023 per non aver spiegato completamente come affrontava questi contenuti. Inoltre, la decisione di Meta di introdurre la crittografia end-to-end nel dicembre 2023 è stata vista con preoccupazione da chi teme che possa rendere più difficile il rilevamento e la segnalazione dei contenuti pedopornografici.
Per contrastare questo fenomeno, l’UE ha deciso di estendere fino al 3 aprile 2026 una misura provvisoria che consente ai provider di Internet di cercare nei loro servizi questo tipo di contenuti e di segnalarli alle autorità. Si tratta di una misura necessaria, in quanto i processi di rilevamento attuali sono insufficienti.