L’intelligenza artificiale generativa, di cui ChatGPT è l’esponente più famoso, sta diventando sempre più accessibile e potente. Questo ha suscitato l’interesse di alcune comunità online che cercano di violare le regole etiche imposte da OpenAI, in un processo chiamato “jailbreaking”. Inoltre, gli hacker stanno cercando di creare o sfruttare modelli linguistici di grandi dimensioni (LLM) per usi illeciti.
ChatGPT ha dato vita a una vera e propria corsa all’oro nei forum nascosti della rete. Da dicembre, gli hacker si scambiano idee e trucchi per manipolare il chatbot di OpenAI e per reperire LLM open-source da adattare ai loro scopi malevoli.
Secondo un nuovo articolo di SlashNext, questo ha portato alla formazione di una comunità di hacker di LLM ancora in fase embrionale ma in rapida crescita, che dispone di molti prompt ingegnosi, ma di pochi malware basati sull’intelligenza artificiale realmente efficaci (per fortuna!).
L’intelligenza artificiale generativa sotto attacco degli hacker
Gli hacker formulano domande astute ai chatbot come ChatGPT per indurli a violare le regole imposte dai loro programmatori. Ad esempio, possono utilizzare i chatbot AI per creare malware. Patrick Harr, il CEO di SlashNext, lo descrive come un tentativo di forza bruta: “Gli hacker provano a eludere le protezioni in tutti i modi possibili. Continuano a cambiare i prompt, chiedendo in modi diversi di fare quello che vogliono“.
Questo compito è molto noioso e tutti hanno lo stesso obiettivo, quindi è naturale che si siano create delle grandi comunità online per condividere suggerimenti e trucchi. I membri di queste comunità di jailbreak si aiutano reciprocamente, con lo scopo di di far fare a ChatGPT cose che gli sviluppatori volevano impedirgli.
Tuttavia, gli hacker riescono a raggiungere l’obiettivo solo dopo molti tentativi con fantasiosi giochi di parole, se il chatbot in questione è costruito in modo così resistente come ChatGPT. Quindi, la tendenza più preoccupante è che gli sviluppatori di malware stiano iniziando a usare i modelli linguistici di grandi dimensioni (LLM) per i loro scopi malevoli.
La minaccia incombente di WormGPT e di LLM dannosi
Il fenomeno degli LLM dannosi è iniziato a luglio con WormGPT, un modello GPT alternativo e illegale, creato per fini malevoli come malware, phishing e BEC. Il suo creatore ha dichiarato di averlo addestrato su dati relativi agli attacchi informatici.
Patrick Harr, il CEO di SlashNext, afferma che questo permette agli hacker di lanciare attacchi informatici su larga scala e a basso costo, con maggiore precisione.
Dopo WormGPT, sono apparsi altri modelli simili come FraudGPT, DarkBART e DarkBERT, che usano l’intelligenza artificiale per sfruttare le immagini e le conoscenze del dark web.
SlashNext riferisce che questi sistemi si stanno diffondendo e che molti di essi si basano su modelli open source come OpenGPT. Alcuni hacker li personalizzano e li rinominano con nomi “___GPT” (ad esempio “BadGPT”, “DarkGPT”). Questi modelli offrono poche restrizioni e l’anonimato completo agli utenti.
Come fronteggiare le nuove minacce informatiche basate sull’intelligenza artificiale
SlashNext afferma che le minacce informatiche basate sull’intelligenza artificiale, come WormGPT e i suoi derivati, o come l’ingegneria dei prompt, non sono ancora così gravi per le aziende. Tuttavia, la crescita dei mercati illegali di jailbreak rende disponibili più strumenti ai criminali informatici, il che implica un cambiamento nell’ingegneria sociale e nelle difese necessarie.
Harr suggerisce di usare strumenti di intelligenza artificiale per rilevare, prevenire e bloccare queste minacce, altrimenti si rischia di essere vulnerabili.