Daisy, la nonna AI che combatte le truffe telefoniche

Daisy, la nonna AI che combatte le truffe telefoniche

Il chatbot AI Daisy parla per ore coi truffatori al telefono fingendosi una nonna, per impedire che le persone più vulnerabili vengano truffate.
Daisy, la nonna AI che combatte le truffe telefoniche
Il chatbot AI Daisy parla per ore coi truffatori al telefono fingendosi una nonna, per impedire che le persone più vulnerabili vengano truffate.

C’è un nuovo supereroe in giro… il suo nome è Daisy (dAIsy) ed è una nonnina… AI. Il nuovo chatbot è stato presentato da O2, l’operatore di telefonia mobile del Regno Unito, per combattere i truffatori che cercano di derubare le persone più vulnerabili.

Nonna AI contro le truffe telefoniche

In pratica, l’intelligenza artificiale imita la voce di una persona anziana in tempo reale. Quando un criminale cerca di manipolare un bersaglio, intraprende una conversazione che non lo porterà da nessuna parte. Anche se riuscisse a chiedere a Daisy i suoi dati bancari, riceverebbe solo informazioni false. O2 precisa che aggiungerà il suo numero AI agli elenchi di presunti bersagli facili utilizzati dai truffatori.

Come si può vedere in un video dimostrativo, i truffatori a volte impiegano una quantità di tempo spropositata e addirittura si infastidiscono per l’inutilità del loro approccio. Il chatbot, imperturbabile, continua a rispondere, anche per ore.

Murray Mackenzie, Director of Fraud di Virgin Media O2, spiega: “Siamo determinati a fare la nostra parte per fermare i truffatori, investendo in tutto, dalla tecnologia firewall per bloccare i messaggi di testo fraudolenti al rilevamento delle chiamate indesiderate con l’intelligenza artificiale, per mantenere i nostri clienti al sicuro. Daisy, il nuovo membro del nostro team di prevenzione delle frodi, sta ribaltando le carte in tavola ai truffatori, superandoli in astuzia e mettendoli in difficoltà nel loro stesso crudele gioco, semplicemente tenendoli online“.

Purtroppo, l’esistenza di questa tecnologia dimostra che può essere utilizzata anche da soggetti malintenzionati. Alcuni di loro hanno già iniziato a impiegare i loro chatbot alla ricerca di persone vulnerabili. Più che mai, quindi, devono prevalere la vigilanza e la consapevolezza dei rischi.

Un precedente negli Stati Uniti

Non è la prima volta che viene utilizzata questa tecnologia. L’anno scorso ha fatto parlare di sé Whitebeard creata dall’americano Roger Anderson. Questo sistema è in grado di rispondere direttamente agli operatori di telemarketing utilizzando GPT-4, oltre a modello AI che riproduce la voce di un essere umano. L’idea è anche quella di ripetere alcune frasi già pronte per far perdere più tempo possibile agli operatori senza scrupoli.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
17 nov 2024
Link copiato negli appunti