È sempre più difficile distinguere le bugie, vero? I deepfake generati dall’intelligenza artificiale stanno rendendo sempre più labile il confine tra vero e falso e Microsoft avverte che le leggi non sono pronte per le conseguenze. Il gigante tecnologico ha chiesto al Congresso di agire subito, prima che l’inganno digitale riscriva le regole della fiducia nella nostra società.
I rischi dei deepfake AI
Il presidente di Microsoft Brad Smith dipinge un quadro crudo: truffatori che usano l’intelligenza artificiale per clonare le voci, truffando gli anziani dei loro risparmi. Immagini deepfake di donne e bambini, che aprono nuove frontiere di sfruttamento online. E mentre ci avviciniamo alle elezioni del 2024, un’inondazione di contenuti politici deepfake minaccia la verità nel discorso pubblico.
Ma i recenti incidenti sottolineano sia l’urgenza che la complessità del problema. A marzo, due studenti delle scuole medie della Florida sono stati arrestati per aver presumibilmente creato e condiviso nudi deepfake dei loro compagni di classe senza consenso – un chiaro caso di abuso. Eppure, solo la settimana scorsa, Elon Musk ha condiviso su X un video manipolato della vicepresidente Kamala Harris, senza chiarire che era stato alterato con l’intelligenza artificiale. Quando è stato chiamato in causa, Musk ha sostenuto che la parodia è legale in America.
Questi casi evidenziano una sfida importante: come creare leggi che proteggano dai danni reali senza soffocare la libertà di parola o l’espressione satirica? Dove bisogna tracciare il confine tra l’inganno dannoso e la parola protetta?
Lo statuto contro le frodi deepfake
Smith esorta i legislatori ad approvare uno “statuto contro le frodi deepfake” che fornisca alle forze dell’ordine il quadro giuridico necessario per perseguire i reati legati alle frodi deepfake. Ciò include le truffe, le frodi online e la creazione e distribuzione di deepfake sessualmente espliciti. È un’ammissione del fatto che le leggi attuali sono una reliquia nell’era dell’intelligenza artificiale, lasciandoci esposti a minacce a malapena immaginabili un decennio fa.
Microsoft sta inoltre spingendo per due misure aggiuntive: in primo luogo, richiedere ai fornitori di sistemi di IA di etichettare chiaramente i contenuti prodotti con l’intelligenza artificiale aiutando gli utenti a capire con cosa si stanno confrontando; in secondo luogo, aggiornare le leggi federali e statali sullo sfruttamento e l’abuso sessuale dei minori per includere i contenuti generati dall’AI, assicurando che i responsabili siano puniti per questi atti odiosi, che spesso prendono di mira donne e bambini.
Proprio la scorsa settimana, il Senato ha approvato la legge DEFIANCE, che consente alle vittime di deepfakee di AI sessualmente espliciti e non consensuali di citare in giudizio i loro creatori. Tuttavia, è necessaria una legislazione più completa per affrontare l’intero spettro degli abusi dei deepfake.
L’impegno delle big tech contro i deepfake
Alcune aziende, tra cui Microsoft, Meta, OpenAI, Anthropic, Google e altre, hanno implementato volontariamente misure di salvaguardia come la tecnologia di watermarking digitale e i metadati di provenienza per i contenuti generati dall’intelligenza artificiale. Ma Microsoft sostiene che non è sufficiente e che l’azione del settore da sola non può arginare la marea.
Con l’avanzare della tecnologia dell’AI, le domande legali ed etiche si moltiplicano più velocemente di quanto si riesca a rispondere. Come sfruttare il potenziale dell’AI senza compromettere la sicurezza dei più vulnerabili o l’integrità del nostro processo democratico?
Deepfake, una questione spinosa
Una cosa è certa: i casi di deepfake generati dall’intelligenza artificiale pongono una sfida cruciale dal punto di vista normativo: come regolamentare queste tecnologie per proteggere da danni concreti, ma senza limitare eccessivamente la libertà di parola e di satira? Dove va tracciata la linea di demarcazione tra l’inganno dannoso da reprimere e l’espressione tutelata dal diritto?
La questione è complessa, poiché una legge troppo restrittiva rischierebbe di compromettere diritti costituzionali come la libertà di espressione, mentre una eccessivamente permissiva non riuscirebbe a proteggere in modo adeguato le potenziali vittime di deepfake. Trovare il giusto equilibrio tra questi valori è la vera sfida che i legislatori si trovano ad affrontare.