Microsoft ha aggiornato Designer per bloccare la generazione dei deepfake di Taylor Swift. I membri di 4chan e di un canale Telegram avevano trovato il modo di aggirare le protezioni del servizio per creare immagini a luci rosse della cantante, successivamente pubblicate su X (l’azienda californiana ha temporaneamente bloccato la ricerca dei contenuti).
Microsoft chiude il loophole di Designer
Microsoft Designer, come altri simili servizi, impedisce di generare immagini vietate dal codice di condotta. È tuttavia sufficiente alterare i prompt per aggirare i filtri. Un portavoce dell’azienda di Redmond aveva evidenziato che l’uso del tool per creare immagini di nudità non consensuale è proibito.
Durante un’intervista a NBC News, il CEO Satya Nadella aveva sottolineato la necessità di migliorare le protezioni per impedire la generazione dei deepfake. In base ai test effettuati da 404 Media e dai messaggi pubblicati su 4chan e sul canale Telegram, il loophole (scappatoia) non funziona più. Microsoft non ha ovviamente svelato come è stata bloccata la generazione delle immagini di nudo su Designer (che sfrutta il modello DALL-E 3 di OpenAI).
Il canale Telegram, che ha decine di migliaia di iscritti, non è stato chiuso e continua a condividere immagini esplicite di persone reali generate con altri tool IA. Alcuni utenti di 4chan affermano di aver già trovato altri exploit per Bing Image Creator e Designer che permettono di creare deepfake. Nel frattempo, X ha comunicato di aver ripristinato le ricerche su Taylor Swift.