Anche i cybercriminali mostrano un grande interesse per l’intelligenza artificiale generativa. Migliaia di credenziali di OpenAI sono in vendita nel dark web, mentre aumentano gli usi illeciti della tecnologia, principalmente per la scrittura di email per attacchi di phishing. Uno dei tool più popolari è WormGPT.
Furto di credenziali e IA per phishing
In base ai dati rilevati da Flare, ChatGPT è stato menzionato oltre 27.000 volte su Telegram e nel dark web negli ultimi sei mesi, Analizzando forum e marketplace, i ricercatori di Flare hanno scoperto che le credenziali di OpenAI sono sempre più popolari. Oltre 200.000 password sono in vendita al miglior offerente.
Il dato è più allarmante di quello evidenziato a fine giugno. Group-IB ha scoperto oltre 100.000 account in vendita. I cybercriminali hanno usato noti info-stealer (Vidar, Raccoon e RedLine) per rubare le credenziali dai computer (OpenAI ha sottolineato che la colpa è degli utenti).
Nel dark web vengono anche offerti cloni “maligni” di ChatGPT. Uno dei più noti è WormGPT, un chatbot basato sul modello open source GPT-J e addestrato con dati relativi a malware. Il tool può generare email di phishing quasi perfette che consentono di effettuare attacchi BEC (Business Email Compromise) contro i dipendenti delle aziende scelte come bersaglio.
Il furto delle credenziali di accesso ai chatbot e la scrittura di email con tool specifici evidenzia uno dei rischi associati all’intelligenza artificiale generativa. Le aziende devono quindi fornire indicazioni ai dipendenti sulle misure necessarie per individuare queste nuove minacce.