Slopsquatting: allucinazioni AI usate dai cybercriminali

Slopsquatting: allucinazioni AI usate dai cybercriminali

Sfruttando le allucinazioni dei modelli AI che generano codice, i cybercriminali possono infettare il computer con pacchetti inesistenti (slopsquatting).
Slopsquatting: allucinazioni AI usate dai cybercriminali
Sfruttando le allucinazioni dei modelli AI che generano codice, i cybercriminali possono infettare il computer con pacchetti inesistenti (slopsquatting).

L’intelligenza artificiale generativa viene sempre più utilizzata durante la programmazione. I cybercriminali hanno subito sfruttato l’occasione per eseguire un nuovo tipo di attacco supply chain denominato slopsquatting. In base ad uno studio recente, il rischio di infezione è piuttosto elevato.

Come funziona lo slopsquatting

Una delle tecniche può usate dai cybercriminali è il typosquatting o URL hijacking. Se l’ignara vittima digita un URL sbagliato nella barra degli indirizzi del browser rischia di finire su un sito simile a quello originario. L’utente non si accorge della differenza e inserisce credenziali di login o dati di pagamento.

Nel caso dello slopsquatting non ci sono errori di ortografia. I cybercriminali pubblicano su vari repository (PyPI, npm e altri) pacchetti inesistenti con nomi simili a quelli originari. A causa delle allucinazioni, questi pacchetti vengono suggeriti dai modelli AI che generano codice in diversi linguaggi di programmazione.

Uno studio pubblicato a marzo dimostra che circa il 20% del codice generato (Python e JavaScript) include pacchetti inesistenti. I ricercatori hanno effettuato i test con 16 modelli, tre commerciali (GPT-3.5, GPT-4 e GPT-4 Turbo) e 13 open source. Questi ultimi hanno manifestato un numero maggiore di allucinazioni (21,7%). I peggiori in assoluto sono CodeLlama 7B e CodeLlama 34B, derivati da Llama 2.

I modelli hanno suggerito oltre 205.000 pacchetti, il 13% dei quali aveva nomi simili a quelli reali, mentre il 51% era completamente inventato. In molti casi, i pacchetti sono stati consigliati più volte con diversi prompt. Ciò comporta un rischio maggiore perché i cybercriminali sono quasi certi che il modello AI suggerirà un pacchetto infetto. L’unica soluzione è verificare attentamente il nome del pacchetto.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
14 apr 2025
Link copiato negli appunti