L’intelligenza artificiale generativa continua stupire gli addetti ai lavori e i normali utenti. Runway, azienda statunitense che ha partecipato allo sviluppo del modello “text-to-image” di Stable Diffusion, ha annunciato Gen-2, nuova versione del modello “text-to-video” in grado di generare un video a partire dal testo scritto.
Runway Gen-2: evoluzione dell’IA generativa
Runway ha annunciato Gen-1 appena un mese fa. La prima versione del modello IA generava un video di 3 secondi (senza audio) a partire da un video esistente (l’utente poteva aggiungere anche un testo e un’immagine come riferimento). Gen-2 genera ancora video di 3 secondi senza audio, ma non occorre nessun video esistente. È sufficiente indicare la descrizione del video che si vuole ottenere.
Generate videos with nothing but words. If you can say it, now you can see it.
Introducing, Text to Video. With Gen-2.
Learn more at https://t.co/PsJh664G0Q pic.twitter.com/6qEgcZ9QV4
— Runway (@runwayml) March 20, 2023
Sul sito ufficiale sono stati pubblicati alcuni esempi. Scrivendo “An aerial shot of a mountain landscape” viene generato un video con una ripresa dall’alto di una montagna.
Il risultato finale non è ovviamente perfetto (niente 4K o HDR), ma è comunque impressionante, visto che Gen-2 crea il video da zero. Il modello IA sarà aggiornato nei prossimi mesi, quindi verrà probabilmente incrementata la durata delle clip e migliorata la qualità. Teoricamente si potrebbe usare Gen-2 per generare un cortometraggio a partire da una sceneggiatura.
Runway ha mostrato altre modalità, oltre al “text-to-video”. È possibile generare un video a partire da testo e immagine e solo da un’immagine. Gen-2 può anche modificare un singolo soggetto/oggetto in un video esistente o cambiare lo stile.
Gen-2 non è disponibile per tutti. Occorre effettuare l’iscrizione ad una lista di attesa tramite il canale privato dell’azienda su Discord.