I cosiddetti LLM (Large Language Model) permettono di eseguire diverse attività, offrendo nuove opportunità di business. In seguito alla crescente attenzione verso queste tecnologie, Europol ha organizzato vari workshop con esperti del settore per valutare l’uso illecito di ChatGPT e suggerire possibili miglioramenti ai modelli per limitare gli abusi. Il report completo è disponibile qui.
ChatGPT usato dai cybercriminali
L’analisi di Europol è basata su GPT-3.5. OpenAI ha recentemente rilasciato GPT-4 che offre meno risposte a domande non consentite. In alcuni casi invece le risposte sono più dettagliate. Europol sottolinea che tutte le informazioni fornite dal chatbot sono liberamente disponibili su Internet, ma il modello IA velocizza la ricerca e l’esecuzione delle attività illegali.
Gli esperti hanno identificato tre casi in cui ChatGPT è stato sfruttato per compiere crimini. La funzionalità più popolare è quella che consente di generare email di phishing. L’intelligenza artificiale può generare testo senza errori ortografici e grammaticali, impersonando lo stile di scrittura di singoli individui o gruppi. In pratica, le vittime credono che il mittente sia affidabile. Ciò permette ai cybercriminali di rubare dati personali o aziendali, ricevere denaro per falsi investimenti e attuare truffe di vario tipo.
Un altro uso fraudolento di ChatGPT è la generazione di testo su determinati argomenti che viene sfruttato per propaganda e disinformazione. Infine, il modello IA può scrivere codice in numerosi linguaggi di programmazione. Come dimostrano casi reali, i cybercriminali possono velocizzare la scrittura del codice dei malware. Questa capacità è stata ulteriormente migliorata con GPT-4.
Europol evidenzia la necessità per le forze dell’ordine di seguire l’evoluzione delle tecnologie IA in modo da prevenirne l’uso illecito. Le aziende che sviluppano i modelli IA dovrebbero invece introdurre meccanismi più efficace per evitarne l’abuso.