Gli esperti di McAfee hanno rilevato un aumento delle truffe che sfruttano l’intelligenza artificiale. I cybercriminali usano la tecnologie per clonare la voce e convincere i familiari ad inviare denaro. In base ad un sondaggio effettuato tra il 13 e 19 aprile in sette paesi, il 25% delle persone intervistate è rimasta vittima di una “AI voice scam”.
Come evitare le truffe vocali con IA
Ogni persona ha un voce unica, come l’impronta digitale. Utilizzando l’intelligenza artificiale è possibile generare una voce quasi indistinguibile dall’originale. Esistono vari tool gratuiti e a pagamento che permettono di ottenere una corrispondenza dell’85%, usando solo tre secondi di audio. Con un addestramento più lungo (e più file audio) si può raggiungere il 95%.
I cybercriminali devono prima rubare un campione vocale della potenziale vittima. Ciò può essere effettuato con l’accesso ai contenuti multimediali condivisi sui social network o app di messaggistica, come TikTok e WhatsApp. In base al sondaggio di McAfee, il 53% degli adulti condivide la sua voce online almeno una volta a settimana.
Dopo aver trovato i contatti dell’utente (è sufficiente un info-stealer), i cybercriminali inviano un messaggio vocale o telefonano ad amici e familiari, chiedendo una somma di denaro per varie urgenze. Il 15% degli intervistati ha confermato di aver subito una simile truffa, in quanto non ha riconosciuto la voce generata dall’intelligenza artificiale. Un terzo dei partecipanti al sondaggio ha perso oltre 1.000 dollari, mentre il 7% ha pagato tra 5.000 e 15.000 dollari.
Gli esperti di McAfee consigliano alcuni metodi per evitare di cadere in trappola. Il primo è quello di stabilire una parola in codice, nota solo a familiari e amici. È preferibile inoltre controllare la fonte, ad esempio telefonando direttamente al possibile cybercriminale e chiedendo informazioni inattese, per le quali non è prevista una risposta dall’intelligenza artificiale.