OpenAI ha recentemente presentato Sora, il suo nuovo sistema di AI capace di trasformare descrizioni testuali in video. Si tratta di una tecnologia rivoluzionaria, che segue il successo di ChatGPT. Il modello Text-to-video potrebbe avere un impatto enorme sul mondo dei media, della comunicazione e dell’informazione, soprattutto in un anno come il 2024, in cui sono previste molte elezioni in diversi paesi.
Tuttavia, Sora potrebbe anche essere usato per creare deepfake, ovvero video falsi che mostrano persone che fanno o dicono cose che non hanno mai fatto o detto.
Come funziona il modello Text-to-video di OpenAI
Sora è in grado di generare video di 60 secondi a partire da una semplice frase, come “un gatto che gioca con una palla” o “un astronauta che cammina sulla luna”. I video prodotti, sebbene non siano perfetti, sono già impressionanti per la loro qualità e fluidità. Per arrivare questo risultato, il modello Text-to-video di OpenAI utilizza due tecnologie di intelligenza artificiale.
La prima è quella dei modelli di diffusione, come DALL-E, che permettono di creare immagini nitide a partire da pixel casuali. La seconda è quella dell’architettura di trasformazione, che permette di organizzare le immagini in sequenze coerenti. Queste due tecnologie, combinate insieme, consentono a Sora di creare video che sembrano reali.
Quali sono i rischi di Sora
Sora è una tecnologia innovativa, ma anche potenzialmente pericolosa. Se usata in modo sbagliato, potrebbe essere sfruttata per creare video che ingannano le persone e diffondono informazioni false. Questo potrebbe avere conseguenze gravi, soprattutto in un contesto politico e sociale delicato come quello del 2024, in cui si terranno molte elezioni in tutto il mondo.
Come afferma Hany Farid, esperto di sicurezza informatica dell’Università della California a Berkeley, “Come per altri metodi di AI generativa, nulla fa pensare che la conversione del testo in video non continuerà a migliorare rapidamente, avvicinandoci sempre di più a un momento in cui sarà difficile distinguere tra ciò che è falso e ciò che è vero”. Farid aggiunge anche che “Questa tecnologia, se combinata con la clonazione vocale basata sull’intelligenza artificiale, potrebbe aprire un nuovo campo di possibilità nella creazione di deepfake che mostrano persone che dicono e fanno cose che non sono mai accadute”.
Come prevenire gli abusi di Sora
OpenAI è consapevole dei rischi che Sora comporta e per questo non ha ancora reso il sistema accessibile al pubblico. Prima di farlo, sta testando il modello per valutarne il potenziale di abuso. A questo scopo, ha coinvolto un gruppo di esperti in vari settori (disinformazione, contenuti di odio, ecc.). Questo è un passo importante, ma forse non sufficiente.
Per evitare che Sora sia usato per scopi poco nobili, sarebbe necessaria una collaborazione più stretta tra governi, aziende di AI e social network. Inoltre, si potrebbero introdurre dei meccanismi per rendere evidente che i video sono stati generati dall’intelligenza artificiale, come ad esempio dei watermark (filigrane) che ne attestino l’origine. Tuttavia, data la portata della sfida, non è certo che queste precauzioni saranno adeguate.