Kaspersky Digital Footprint Intelligence ha condotto uno studio sull’uso dell’intelligenza artificiale, in particolare degli strumenti di AI generativa, da parte degli hacker per scopi illegali e malevoli.
La ricerca ha analizzato il dark web, la parte nascosta di internet dove si svolgono attività illecite, e ha rilevato migliaia di discussioni sull’uso dell’AI nella criminalità informatica. Tra gennaio e dicembre 2023, sono state contate circa 3.000 discussioni di questo tipo, con un picco a marzo. Sebbene si preveda una diminuzione delle discussioni per il resto dell’anno, il fenomeno persiste nel dark web.
Gli argomenti più discussi dagli hacker
Gli hacker discutono di vari modi per sfruttare l’intelligenza artificiale per le loro attività criminali. Tra gli argomenti più frequenti ci sono:
- Lo sviluppo di malware, ovvero software dannosi che possono infettare i dispositivi e rubare dati o danneggiare i sistemi;
- L’utilizzo illecito di modelli linguistici, ovvero strumenti AI in grado di generare testi a partire da dati o parole chiave;
- L’elaborazione di dati utente rubati, ovvero l’analisi e l’uso di informazioni personali o sensibili ottenute illegalmente;
- L’analisi di file da dispositivi infetti, ovvero l’estrazione e l’uso di dati da computer o smartphone compromessi.
La vendita di account ChatGPT e jailbrake nel dark web
Oltre alle discussioni che ruotano intorno all’intelligenza artificiale e alle tecniche criminali, la vendita di account ChatGPT rubati sta fiorendo anche nel Dark Web. I ricercatori di Kaspersky hanno identificato altri 3.000 annunci che offrono account ChatGPT a pagamento rubati o creati in massa tramite servizi di registrazione automatica. Questi servizi e altre AI dannose possono essere distribuiti anche su altri canali sicuri come Telegram.
Infine, i ricercatori menzionano anche l’esplosione delle vendite di chatbot jailbreak, versioni modificate di ChatGPT che non hanno limiti o censure e che possono generare risposte pericolose o illegali. Nel dark web, si possono trovare sotto i nomi più disparati, come WormGPT, FraudGPT, XXXGPT, WolfGPT e EvilGPT.
“Gli strumenti di intelligenza artificiale non sono intrinsecamente pericolosi, tuttavia i criminali informatici stanno trovando il modo di sfruttarne le potenzialità per attività illecite“, denuncia Kaspersky. “L’utilizzo dei modelli linguistici dell’IA da parte degli hacker rischia di aumentare gli attacchi informatici“, prosegue l’azienda, esprimendo preoccupazione per questo fenomeno emergente.