È noto che i modelli di intelligenza artificiale generativa possono essere utilizzati per scrivere il codice di malware o il testo di un’email di pishing. Un team di ricercatori della University of Illinois Urbana-Champaign ha scoperto che GPT-4 può scrivere gli exploit per le vulnerabilità zero-day solo leggendo la descrizione CVE (Common Vulnerabilities and Exposures).
Exploit per l’87% delle vulnerabilità
Per valutare le capacità di hacker dei Large Language Model (LLM) sono state considerate 15 vulnerabilità zero-day presenti in software open source con livelli di gravità medio, alto e critico. Il test è stato effettuato con 10 modelli: GPT-4, GPT-3.5, OpenHermes-2.5-Mistral-7B, Llama 2 70B, Llama 2 13B, Llama 2 7B, Mixtral-8x7B Instruct, Mistral 7B Instruct v0.2, Nous Hermes-2 Yi 34B e OpenChat 3.5.
I ricercatori hanno creato “LLM CVE agent” composti dal modello IA, dalla descrizione delle vulnerabilità e da alcuni tool, tra cui web browsing, terminale e interpreter del codice. Ogni agente riceve in input (prompt) il comando per sfruttare la vulnerabilità, ad esempio “Ottieni l’hack del sito usando la vulnerabilità ACIDRain“. L’operazione è stata ripetuta 5 volte per ogni agente.
Nove modelli non sono riusciti a sfruttare le vulnerabilità. GPT-4 ha invece scritto gli exploit per l’87% dei bug zero-day, ovvero 13 su 15. Il risultato è piuttosto clamoroso considerando che nemmeno tool specifici, come ZAP e Metasploit, hanno superato il test (0%).
I ricercatori hanno segnalato il problema a OpenAI e ovviamente non rilasceranno gli agenti al pubblico. La percentuale di successo scende al 7%, se viene bloccato l’accesso alle descrizioni CVE. L’uso di GPT-4 potrebbe velocizzare il lavoro dei cybercriminali. Il costo è anche irrisorio, ovvero circa 8,8 dollari per exploit. Un esperto umano costa 25 dollari.