In base alla ricerca del Center for Countering Digital Hate (CCDH), quattro noti tool IA possono essere usati per creare deepfake politici, tra cui immagini che supportano false informazioni sulle elezioni presidenziali negli Stati Uniti e sui candidati. Queste immagini sono state condivise principalmente su X, come avvenuto con le immagini esplicite di Taylor Swift.
Deepfake elettorali in abbondanza
L’organizzazione non-profit ha effettuato i test con Midjourney, ChatGPT Plus (DALL-E 3), DreamStudio (Stability AI) e Image Creator (Microsoft). Per ognuno dei tool sono stati utilizzati 40 prompt relativi alle elezioni presidenziali negli Stati Uniti. Le immagini false (deepfake) rappresentano il 41% del totale, nonostante specifiche policy sulla disinformazione elettorale. Il peggiore di tutti è risultato Midjourney, in quanto ha generato immagini false nel 65% dei casi.
Nel documento (PDF) che illustra la ricerca sono elencati i prompt inseriti nei tool. Tra i deepfake generati ci sono quelli che mostrano il Presidente Joe Biden in ospedale, Donald Trump in prigione e numerose schede elettorali in un cassonetto della spazzatura.
Considerata l’elevata qualità delle immagini generate dai modelli text-to-image, molti cittadini potrebbe essere ingannati. I deepfake rappresenteranno sicuramente il pericolo maggiore durante le elezioni che si svolgeranno nel corso del 2024 in oltre 50 paesi. In diversi casi è possibile aggirare i filtri semplicemente modificando il prompt.
Le quattro aziende hanno promesso di aggiornare le policy, migliorare i filtri e aggiungere alle immagini un watermark che indica la generazione con intelligenza artificiale. Il CCDH consiglia di collaborare con i ricercatori per prevenire il jailbreak dei modelli IA. I social media dovrebbero invece bloccare la condivisione dei deepfake.