L’intelligenza artificiale fa ormai parte della nostra vita quotidiana. Può scrivere testi, creare immagini o generare codice. Ma se da un lato queste capacità sono utili in molti campi, dall’altro possono essere utilizzate anche per scopi meno nobili. L’AI sta diventando essenziale anche per i criminali informatici, perché gli consente di essere più veloci e di sferrare attacchi informatici più efficaci.
Lo dimostra anche un recente studio di Anthropic. Il rapporto, mostra diversi casi di utilizzo illegale di Claude. Il dato più agghiacciante, è che anche persone poco qualificate sono state in grado di creare malware avanzato.
Claude è stato utilizzato per creare virus, manipolare elettori e simulare reclutatori
Secondo il rapporto, un malintenzionato ha usato Claude per analizzare i codici identificativi di telecamere compromesse. In un altro, un semplice kit open source è stato trasformato in un malware capace di eseguire il riconoscimento facciale. Infine, il modello è stato impiegato per creare contenuti destinati a operazioni politiche a pagamento: centinaia di account automatizzati sui social network hanno diffuso messaggi mirati, interagendo con migliaia di utenti reali in diverse lingue.
Anthropic ha anche identificato una frode di reclutamento online. I truffatori si spacciavano per aziende note utilizzando Claude per redigere annunci professionali. Il chatbot è stata utilizzato per correggere lo stile dei messaggi, in modo che apparissero credibili. L’azienda ha bloccato gli account responsabili, ma avverte che questi usi continueranno a svilupparsi. In assenza di un quadro giuridico chiaro, le uniche garanzie restano l’analisi interna e la segnalazione volontaria. Il rischio non proviene più solo dagli esperti, ma da chiunque abbia accesso a un chatbot AI.