Claude di Anthropic sfruttato per truffe e malware

Claude di Anthropic sfruttato per truffe e malware

Anthropic ha scoperto diversi casi di abuso della sua AI Claude per attività criminali come truffe, creazione di malware e influenza politica.
Claude di Anthropic sfruttato per truffe e malware
Anthropic ha scoperto diversi casi di abuso della sua AI Claude per attività criminali come truffe, creazione di malware e influenza politica.

L’intelligenza artificiale fa ormai parte della nostra vita quotidiana. Può scrivere testi, creare immagini o generare codice. Ma se da un lato queste capacità sono utili in molti campi, dall’altro possono essere utilizzate anche per scopi meno nobili. L’AI sta diventando essenziale anche per i criminali informatici, perché gli consente di essere più veloci e di sferrare attacchi informatici più efficaci.

Lo dimostra anche un recente studio di Anthropic. Il rapporto, mostra diversi casi di utilizzo illegale di Claude. Il dato più agghiacciante, è che anche persone poco qualificate sono state in grado di creare malware avanzato.

Claude è stato utilizzato per creare virus, manipolare elettori e simulare reclutatori

Secondo il rapporto, un malintenzionato ha usato Claude per analizzare i codici identificativi di telecamere compromesse. In un altro, un semplice kit open source è stato trasformato in un malware capace di eseguire il riconoscimento facciale. Infine, il modello è stato impiegato per creare contenuti destinati a operazioni politiche a pagamento: centinaia di account automatizzati sui social network hanno diffuso messaggi mirati, interagendo con migliaia di utenti reali in diverse lingue.

Anthropic ha anche identificato una frode di reclutamento online. I truffatori si spacciavano per aziende note utilizzando Claude per redigere annunci professionali. Il chatbot è stata utilizzato per correggere lo stile dei messaggi, in modo che apparissero credibili. L’azienda ha bloccato gli account responsabili, ma avverte che questi usi continueranno a svilupparsi. In assenza di un quadro giuridico chiaro, le uniche garanzie restano l’analisi interna e la segnalazione volontaria. Il rischio non proviene più solo dagli esperti, ma da chiunque abbia accesso a un chatbot AI.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
26 apr 2025
Link copiato negli appunti