I risultati di uno studio pubblicato da OpenAI, in collaborazione con il team Thread Intelligence di Microsoft, mettono nero su bianco ciò che già da tempo è sotto gli occhi di tutti: i cybercriminali stanno impiegando l’IA generativa a loro vantaggio. Più che per la conferma di quanto già noto, il report risulta interessante poiché individua, e cita in modo specifico, alcuni dei gruppi più attivi a livello internazionale su questo fronte e con queste modalità.
OpenAI e Microsoft: IA al servizio dei cybercriminali
Il primo è Forest Blizzard, localizzato in Russia e già autore di attacchi con interessi riconducibili direttamente al governo di Mosca. C’è poi Emerald Sleet, operativo dalla Corea del Nord e avvistato più volte nel corso del 2023, responsabile di una recente campagna di sphear phishing perpetrata con l’obiettivo di raccogliere informazioni di intelligence. Crimson Sandstorm è invece una realtà dell’Iran ritenuta vicina all’IRGC (Corpo delle guardie della rivoluzione islamica), comparsa nei radar dei ricercatori già nel 2017 e capace di colpire più settori: dalla difesa ai trasporti, dalla sanità alla tecnologia.
Ancora, Charcoal Typhoon è associato alla Cina e le sue azioni si sono concentrate prevalentemente su target di Taiwan, Thailandia, Mongolia, Maledia, Francia e Nepal. Stessa provenienza geografica per Salmon Typhoon, che nel proprio mirino mette spesso i fornitori del Pentagono, le agenzie governative statunitensi e gli addetti ai lavori nell’ambito della crittografia. Riportiamo di seguito un estratto dal post sul blog ufficiale del gruppo di Redmond, che invitiamo a consultare nella sua forma integrale per tutti i dettagli.
I gruppi di cybercriminali, gli attori malevoli appoggiati dagli stati e altri stanno sperimentando e provando diverse tecnologie di intelligenza artificiale emergenti, nel tentativo di comprenderne il valore potenziale per le loro operazioni e i controlli di sicurezza che potrebbero dover eludere.
Tutte le realtà citate hanno in comune l’utilizzo già verificato dell’intelligenza artificiale generativa per finalità come la compromissione dei sistemi informatici, la diffusione di malware o il furto delle informazioni. Un problema di cui OpenAI e Microsoft sono a conoscenza, emerso parallelamente alle evoluzioni positive di strumenti come ChatGPT e dei modelli su cui poggiano, che dev’essere affrontate in modo prioritario.