È noto che l’intelligenza artificiale può essere utilizzata per ottenere immagini fasulle. L’FBI ha ricevuto numerose segnalazioni relative a foto di nudi generate all’insaputa della vittima. L’obiettivo dei cybercriminali è sfruttare questi deepfake per chiedere somme di denaro (sextortion).
Estorsione sessuale con l’IA
L’estorsione sessuale avviene solitamente con l’invio di foto o video reali alla vittima. Ma oggi è purtroppo possibile ottenere lo stesso scopo con l’intelligenza artificiale. Esistono diverse soluzioni (anche gratuite) che permettono di creare deepfake a partire da foto o video pubblicate dagli utenti sui social media.
Le vittime, inclusi i minori, non sanno che le loro immagini sono state copiate, manipolate e condivise online. La rimozione da social network, forum o siti per adulti è quasi impossibile. Foto e video modificati dall’intelligenza artificiale possono essere utilizzati anche per attività di sextortion.
L’FBI ha scoperto che molte persone hanno ricevuto immagini e video fake. I cybercriminali minacciano di condividerle con amici o familiari delle vittime, se non viene pagato un riscatto (somma di denaro o carte regalo) o non vengono inviate reali foto o video sessualmente espliciti.
L’FBI fornisce alcuni consigli per non cadere nella trappola. Innanzitutto è preferibile condividere pochi contenuti online e comunque renderli visibili solo ad un numero limitato di conoscenti. Foto e video dei bambini non dovrebbero mai essere pubblicati oppure dovrebbe essere oscurato il volto. Infine, gli utenti devono prestare molta attenzione alle richieste di amicizia provenienti da sconosciuti.