Uno degli abusi più frequenti dell’intelligenza artificiale generativa sono i cosiddetti deepfake. Sfruttando i numerosi tool disponibili è possibile creare e distribuire CSAM (Child Sexual Abuse Material). Durante un incontro alla Casa Bianca, sei aziende (Adobe, Anthropic, Cohere, Common Crawl, Microsoft e OpenAI) hanno preso impegni per combattere contro questo tipo di contenuti attraverso modifiche ai rispettivi modelli e dataset.
Gli impegni delle aziende
Le immagini intime non consensuali e i CSAM sono una piaga che esiste da molti anni. Grazie all’intelligenza artificiale generativa è possibile creare i deepfake, ad esempio aggiungendo il volto di una persona reale ad un corpo digitale.
A fine luglio, il Presidente di Microsoft aveva chiesto al Congresso degli Stati Uniti di approvare una legge specifica. L’azienda di Redmond ha inoltre avviato una collaborazione con StopNCII. Google ha invece semplificato la procedura per rimuovere i deepfake dai risultati delle ricerche.
La Casa Bianca ha annunciato gli impegni volontari di sei sviluppatori di modelli IA e fornitori di dati per contrastare l’abuso delle immagini sessuali generate dall’IA. In dettaglio:
- Adobe, Anthropic, Cohere, Common Crawl, Microsoft e OpenAI si impegnano a reperire in modo responsabile i propri dataset e a proteggerli da abusi
- Adobe, Anthropic, Cohere, Microsoft e OpenAI si impegnano ad integrare cicli di feedback e strategie iterative di stress test nei loro processi di sviluppo per evitare che i modelli di intelligenza artificiale generino immagini sessuali
- Adobe, Anthropic, Cohere, Microsoft e OpenAI, ove opportuno e in base allo scopo del modello, si impegnano a rimuovere le immagini di nudo dai dataset di addestramento dell’intelligenza artificiale
Come detto, gli impegni non sono vincolanti, quindi non è certo che le promesse verranno mantenute. OpenAI aveva svelato a maggio che ChatGPT potrebbe eventualmente generare porno in maniera “responsabile”.