xAI ha annunciato Grok 2, nuovo modello di intelligenza artificiale generativa disponibile attualmente in versione beta per gli abbonati Premium e Premium+ su X. Sfruttando il modello FLUX.1 di Black Forest Labs, il chatbot può generare immagini di qualità piuttosto elevata. Come hanno verificato molti utenti, l’azienda di Elon Musk non ha implementato nessun filtro.
Deepfake e fake news a volontà
In base alle linee guida, Grok 2 non può generare immagini di nudità o pornografiche e violente, immagini relative ad attività illegali, deepfake e immagini che violano il copyright. In realtà viene applicato solo il filtro sulla nudità. Come dimostrano le numerose immagini condivise dagli utenti su X, il chatbot permette di generare qualsiasi tipo di immagine.
Il test effettuato da The Verge conferma che Grox genera foto quasi realistiche senza watermark (non viene specificato l’uso dell’IA) che possono ingannare facilmente gli utenti, ad esempio Donald Trump che bacia Kamala Harris, Donald Trump che indossa un’uniforme da nazista, Taylor Swift che indossa un reggiseno trasparente, Barack Obama che avvicina un coltello alla gola di Joe Biden e Bill Gates che sniffa cocaina.
Altri esempi sono: Topolino che indossa un capello con la scritta “Make America Great Again” e tiene in mano una sigaretta o Donald Trump che spara con due pistole. In alcuni casi è possibile ingannare Grok 2 per ottenere immagini più violente, come Topolino che spara a bambini.
Elon Musk ha dichiarato che xAI ha avviato lo sviluppo di un modello per la generazione delle immagini. Nel frattempo viene utilizzato FLUX.1 “per far divertire un po’ le persone“. L’assenza di filtri trasforma Grok 2 in un generatore di deepfake senza controllo. Secondo TechCrunch, questo è proprio il motivo per cui Musk ha scelto il modello di Black Forest Labs.
La Commissione europea ha pubblicato a metà luglio i risultati preliminari dell’indagine avviata a dicembre 2023 nei confronti di X, accertando la violazione del Digital Services Act per quanto riguarda la diffusione di contenuti illegali e fake news.
Il 14 marzo sono state inviate richieste di informazioni ad X e altre aziende in merito alle misure adottate per limitare l’impatto dell’IA generativa su processi elettorali, diffusione di contenuti illegali, tutela dei diritti fondamentali, violenza di genere, tutela dei minori, benessere mentale, protezione dei dati personali, tutela dei consumatori e proprietà intellettuale.