L’intelligenza artificiale generativa viene sempre più utilizzata durante la programmazione. I cybercriminali hanno subito sfruttato l’occasione per eseguire un nuovo tipo di attacco supply chain denominato slopsquatting. In base ad uno studio recente, il rischio di infezione è piuttosto elevato.
Come funziona lo slopsquatting
Una delle tecniche può usate dai cybercriminali è il typosquatting o URL hijacking. Se l’ignara vittima digita un URL sbagliato nella barra degli indirizzi del browser rischia di finire su un sito simile a quello originario. L’utente non si accorge della differenza e inserisce credenziali di login o dati di pagamento.
Nel caso dello slopsquatting non ci sono errori di ortografia. I cybercriminali pubblicano su vari repository (PyPI, npm e altri) pacchetti inesistenti con nomi simili a quelli originari. A causa delle allucinazioni, questi pacchetti vengono suggeriti dai modelli AI che generano codice in diversi linguaggi di programmazione.
Uno studio pubblicato a marzo dimostra che circa il 20% del codice generato (Python e JavaScript) include pacchetti inesistenti. I ricercatori hanno effettuato i test con 16 modelli, tre commerciali (GPT-3.5, GPT-4 e GPT-4 Turbo) e 13 open source. Questi ultimi hanno manifestato un numero maggiore di allucinazioni (21,7%). I peggiori in assoluto sono CodeLlama 7B e CodeLlama 34B, derivati da Llama 2.
I modelli hanno suggerito oltre 205.000 pacchetti, il 13% dei quali aveva nomi simili a quelli reali, mentre il 51% era completamente inventato. In molti casi, i pacchetti sono stati consigliati più volte con diversi prompt. Ciò comporta un rischio maggiore perché i cybercriminali sono quasi certi che il modello AI suggerirà un pacchetto infetto. L’unica soluzione è verificare attentamente il nome del pacchetto.