Dietro le straordinarie potenzialità dell’intelligenza artificiale si cela un elemento comune a tutti gli strumenti che ne fanno uso: la necessità di “allenarsi” utilizzando un’enorme mole di dati. Internet rappresenta, in tal senso, una fonte inesauribile di informazioni. Sempre più aziende e servizi, come Slack, Google e Adobe, non nascondono le proprie ambizioni: ciò che gli utenti condividono online potrebbe essere utilizzato per l’addestramento dei loro sistemi AI.
Denunce e preoccupazioni sulla privacy
Queste pratiche hanno suscitato l’intervento di associazioni per la tutela della privacy degli utenti, che hanno presentato denunce in diversi Paesi europei. La situazione diventa ancor più critica quando i dati utilizzati dalle sistemi AI vengono utilizzati senza consenso, specialmente quando si tratta di categorie vulnerabili come i bambini. Human Rights Watch ha condotto un’indagine in merito, portando alla luce scoperte allarmanti per i genitori.
LAION-5B: un database di immagini sotto accusa
L’analisi si concentra su LAION-5B, un database creato dall’organizzazione non-profit tedesca LAION, liberamente accessibile e contenente 5,85 miliardi di foto con relative didascalie. Diversi strumenti AI, come il generatore di immagini Stable Diffusion di Stability AI, attingono da questa risorsa. Human Rights Watch ha scoperto che LAION-5B include link a immagini di bambini brasiliani, ottenute illegalmente e senza consenso, corredate da informazioni personali dettagliate.
Violazione della privacy e rischi per i minori
Una delle foto rinvenute ritrae una bambina di 2 anni che tocca le dita della sorellina appena nata, un momento intimo che la famiglia non avrebbe voluto condividere pubblicamente. L’immagine riporta anche i nomi dei bambini e l’indirizzo esatto dell’ospedale dove la madre ha partorito 9 anni prima. La maggior parte delle foto erano online anni prima della creazione di LAION-5B e sono state raccolte da blog personali, siti dedicati alla maternità e persino da video su YouTube, originariamente pensati per essere condivisi solo con amici e familiari.
Le foto di bambini utilizzate per addestrare gli strumenti AI possono essere impiegate per scopi illeciti. L’intelligenza artificiale è in grado di riprodurre le immagini che le vengono fornite, esponendo potenzialmente i minori presenti nel database LAION-5B al rischio di essere sfruttati per creare deepfake a scopo di molestia.
In Brasile, almeno 85 ragazze hanno denunciato di essere state molestate da compagni di classe che hanno utilizzato strumenti AI per creare deepfake sessualmente espliciti a partire da foto dei loro profili sui social network, diffondendo poi queste immagini false online.
Necessità di una regolamentazione specifica
LAION ha dichiarato di aver rimosso i link incriminati dal suo database, sottolineando la responsabilità di bambini e genitori nella pubblicazione di foto online. Human Rights Watch chiede tuttavia misure più incisive, tra cui l’introduzione di una legislazione specifica. Secondo Hye Jung Han, proteggere fin d’ora la privacy dei dati dei minori contribuirà a orientare lo sviluppo dell’AI generativa verso la promozione, anziché la violazione, dei diritti dei bambini.