Gli esperti di Check Point Software avevano testato le capacità di ChatGPT nella scrittura di malware. A distanza di alcune settimane sono stati già pubblicati i primi esempi pratici su un noto forum di hacking, soprattutto da (aspiranti) cybercriminali con scarse competenze tecniche. I tool sono attualmente molto elementari, ma sicuramente verranno distribuite versioni più sofisticate nei prossimi mesi.
Tre esempi di malware creati con ChatGPT
I ricercatori di Check Point Research avevano usato ChatGPT per scrivere un email di phishing con un allegato Excel contenente una macro che scarica un malware sul computer. Un utente ha usato l’intelligenza artificiale di OpenAI per scrivere il codice di un info-stealer in Python. Il malware avvia la ricerca di specifici file (ad esempio, documenti Word e PDF) che, se trovati, vengono copiati in una directory, compressi in formato ZIP e inviati al server remoto. Al termine, directory e archivio ZIP sono eliminati.
Il secondo esempio è un tool per la cifratura, sempre scritto in Python. Nel codice sono presenti tutte le funzioni necessarie per la cifratura e decifratura dei file, sfruttando vari algoritmi, tra cui Blowfish e Twofish. Il codice può essere utilizzato per attività comuni, ma sono sufficienti alcune modifiche per automatizzare le operazioni e sfruttarlo durante un attacco ransomware.
L’ultimo esempio è più complesso. Un utente del forum ha usato ChatGPT per creare un marketplace, ovvero un sito del dark web usato per la compravendita di armi, droga, malware, prodotti rubati e dati delle carte di credito. Sfruttando API di terze parti è possibile aggiornare i prezzi in tempo reale tenendo conto del valore attuale delle criptovalute accettate come metodo di pagamento.
Gli esperti di Check Point Software hanno chiesto a ChatGPT come è possibile utilizzare la tecnologia per scopi illeciti. L’intelligenza artificiale ha risposto che ci sono diversi modi, tra cui email di phishing, post sui social media o video fake per manipolare l’opinione pubblica. Tuttavia, OpenAI non è responsabile, in quanto i termini del servizio proibiscono l’uso della sua tecnologia per attività pericolose o illegali.