GPT-4o usato per truffe telefoniche automatizzate

GPT-4o usato per truffe telefoniche automatizzate

Alcuni ricercatori hanno creato un agente AI basato su GPT-4o che può eseguire truffe in modo autonomo (dalla telefona al furto di dati sensibili).
GPT-4o usato per truffe telefoniche automatizzate
Alcuni ricercatori hanno creato un agente AI basato su GPT-4o che può eseguire truffe in modo autonomo (dalla telefona al furto di dati sensibili).

Le truffe telefoniche sono molto utilizzate per ottenere dati personali dalle ignare vittime. Alcuni ricercatori hanno scoperto che possono essere automatizzate tramite agenti AI basati su GPT-4o, il modello più avanzato di OpenAI. Ciò è possibile sfruttando la sua capacità vocale (disponibile anche in Italia da fine ottobre). Le percentuali di successo variano tra il 20% e il 60%.

Truffe con GPT-4o

All’inizio di ottobre, OpenAI ha rilasciato le Realtime API che consentono di sviluppare app basate sulle capacità multimodali di GPT-4o, tra cui la modalità vocale avanzata. Può essere ad esempio utilizzata per offrire un servizio clienti automatizzato. In pratica, una versione migliorata degli attuali bot usati dagli operatori telefonici.

Le tradizionali truffe, note come vishing, prevedono una serie di azioni. Ad esempio, nel caso di accesso al conto bancario è necessario convincere la vittima a comunicare le credenziali. I cybercriminali effettuano il login e trasferiscono il denaro. L’agente AI basato su GPT-4o, sviluppato dai ricercatori, può eseguire tutte le azioni in maniera autonoma.

Nel documento relativo allo studio sono elencati tutti i passi. L’agente AI telefona all’utente dicendo di essere un dipendente della banca e che servono le credenziali del conto per verificare alcune informazioni. Successivamente viene chiesto anche il codice dell’autenticazione in due fattori.

L’agente AI apre il sito della banca, accede al conto e trasferisce il denaro. L’intera procedura viene completata in 183 secondi. I ricercatori hanno effettuato diversi test simulando altri scenari, tra cui il furto di criptovalute. La percentuale di successo è compresa tra il 20% e il 60%. Dato che GPT-4o si rifiuta di eseguire alcune azioni, i ricercatori hanno usato una tecnica di prompt jailbreaking.

OpenAI ha dichiarato che i modelli vengono continuamente aggiornati per migliorare la sicurezza. Il nuovo modello o1-preview è molto più resistente ai tentativi di jailbreaking. In base alle parole del CEO Sam Altman, la versione finale potrebbe essere rilasciata entro fine anno.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
4 nov 2024
Link copiato negli appunti