OpenAI ha comunicato di aver individuato e chiuso diversi account usati da un gruppo di cybercriminali iraniani per generare contenuti falsi con ChatGPT. Lo scopo era influenzare l’opinione pubblica e le elezioni politiche, tra cui quelle presidenziali negli Stati Uniti. La campagna denominata Storm-2035 è stata scoperta da Microsoft all’inizio di agosto.
Fake news condivise tramite social media e siti
Durante la settimana, OpenAI ha chiuso un gruppo di account ChatGPT sfruttati per una “covert influence operation” iraniana identificata come Storm-2035. Il chatbot è stato utilizzato per generare contenuti su vari argomenti, tra cui commenti sui candidati di entrambe le parti alle elezioni presidenziali degli Stati Uniti, successivamente condivisi su social media e siti web.
L’azienda californiana evidenzia che questi contenuti non hanno ricevuto molta attenzione (pochi like, commenti e condivisioni). Al momento non sono stati trovati sui social media gli articoli fasulli pubblicati sui siti web. ChatGPT è stato sfruttato per generare articoli su eventi globali e argomenti politici, tra cui le elezioni presidenziali negli Stati Uniti, le Olimpiadi di Parigi e il conflitto a Gaza. Il chatbot è stato inoltre utilizzato per riscrivere commenti presi da X e ripubblicati su X.
Alcuni post sui social media sono stati scritti in spagnolo e corredati di immagini generate da un’intelligenza artificiale di terze parti (quindi non tramite DALL-E 3). OpenAI ha condiviso tutte le informazioni con governi, responsabili delle campagne elettorali e altre parti interessate.
Il comitato elettorale di Donald Trump ha scoperto un accesso alle comunicazioni interne da parte di gruppi iraniani. L’intrusione è avvenuta tramite un attacco di spear phishing. L’FBI ha aperto un’indagine.