X ha bloccato le ricerche di contenuti associati a Taylor Swift e quindi anche dei deepfake “espliciti” creati con l’intelligenza artificiale. L’azienda californiana ha comunicato che l’azione è temporanea. Sulla questione è intervenuto anche Satya Nadella, CEO di Microsoft. La Casa Bianca ha invece evidenziato la necessità di una legge per proteggere le persone.
La soluzione di X è poco efficace
Le immagini fake a luci rosse della cantante sono iniziate a circolare su X nei giorni scorsi. Una di esse è rimasta online per 17 ore, raggiungendo 45 milioni di visualizzazioni, prima di essere rimossa. Sembra che l’origine dei deepfake sia un gruppo Telegram. I contenuti sarebbe stati creati con Microsoft Designer che sfrutta il modello DALL-E 3 di OpenAI.
X ha pubblicato un post per ricordare che le immagini di nudità non consensuale sono vietate sulla piattaforma. Molte foto fake sono state rimosse e gli account che le hanno condivise sono stati sospesi, anche grazie alle segnalazioni dei fan di Taylor Swift.
Posting Non-Consensual Nudity (NCN) images is strictly prohibited on X and we have a zero-tolerance policy towards such content. Our teams are actively removing all identified images and taking appropriate actions against the accounts responsible for posting them. We're closely…
— Safety (@Safety) January 26, 2024
Ieri l’azienda californiana ha deciso di attuare una misura drastica. Cercando “Taylor Swift” o “Taylor Swift IA” viene mostrato il messaggio di errore “Qualcosa è andato storto. Prova ad aggiornare“. La soluzione non è tuttavia molto efficace. Cambiando i termini di ricerca si possono vedere alcune immagini generate dall’intelligenza artificiale.
Joe Benarroch, responsabile delle operazioni commerciali di X, ha dichiarato:
Si tratta di un’azione temporanea e viene eseguita con molta cautela poiché diamo priorità alla sicurezza su questo problema.
Durante un’intervista rilasciata a NBC News, Satya Nadella (CEO di Microsoft) ha usato le parole “allarmante e terribile” per indicare la proliferazione di immagini di nudità non consensuale create con l’IA, sottolineando la necessità di interventi tecnici e legislativi.
Rispondendo alla domanda di una giornalista, Karine Jean-Pierre (portavoce della Casa Bianca) ha spronato il Congresso ad introdurre una legge per proteggere le persone dai deepfake. Il problema non è solo limitato a immagini e video.
Usando il tool sviluppato da ElevenLabs è stata generata la voce di Joe Biden per una robocall. Il messaggio fasullo invitava i cittadini a non votare per le primarie in New Hampshire. L’IA può quindi essere utilizzata per manipolare l’opinione pubblica e alterare il processo elettorale.