Movie Gen di Meta per generare video AI, cos'è e 5 esempi

Movie Gen di Meta per generare video AI, cos'è e 5 esempi impressionanti

Seguendo le orme di OpenAI con Sora, Meta ha presentato il suo generatore di video AI: Movie Gen. Gli esempi sparsi in rete sono impressionanti.
Movie Gen di Meta per generare video AI, cos'è e 5 esempi impressionanti
Seguendo le orme di OpenAI con Sora, Meta ha presentato il suo generatore di video AI: Movie Gen. Gli esempi sparsi in rete sono impressionanti.

I generatori di video AI si stanno moltiplicando come i funghi. Molti modelli sembrano offrire la possibilità di produrre video complessi a partire da una richiesta testuale, ma poi i risultati finiscono per deludere le aspettative sistematicamente. Non sembrerebbe però il caso di Movie Gen, la risposta di Meta a Sora di OpenAI.

Movie Gen è stato presentato solo all’inizio del mese, ma Meta dispone di maggiori risorse rispetto a molti dei suoi rivali, tra cui la possibilità di aggiungere il suono. Come Sora di OpenAI o Veo di Google, al momento non è disponibile per l’uso pubblico, ma solo per pochi eletti. Tuttavia questo ci ha dato un’idea di ciò che sarà possibile fare una volta che il modello completo sarà rilasciato.

Movie Gen di Meta: cos’è

Meta Movie Gen è un generatore di video e audio basato sull’intelligenza artificiale che consente di creare e modificare contenuti multimediali a partire da semplici istruzioni testuali. Ciò che distingue Movie Gen è la capacità di produrre video e audio altamente personalizzati e fedeli all’input fornito, oltre a consentire un editing preciso dei contenuti generati.

Questo nuovo modello di Meta si posiziona come diretto concorrente di altri generatori AI per video come Runway, già piuttosto diffuso, oppure Sora di OpenAI e Firefly di Adobe, presentati più di recente ma non ancora accessibili al pubblico.

Movie Gen viene presentato da Meta come uno strumento progettato per “aiutare a stimolare la creatività di “aspiranti produttori cinematografici e creatori che amano produrre video per il proprio pubblico“.

Grazie all’addestramento su 30 miliardi di parametri, Movie Gen sarà in grado di produrre sequenze di 16 secondi a una velocità di 16 fotogrammi al secondo, con un rendering di 768 pixel di larghezza. Meta promette che il suo modello “supererà” gli attuali competitor, soprattutto perché eccelle nella creazione di movimenti realistici, interazioni oggetto-soggetto e movimenti della telecamera.

Quali sono le funzionalità di Meta Movie Gen?

Movie Gen combina quattro funzionalità principali per soddisfare le esigenze creative: generazione di video, creazione personalizzata, editing avanzato e produzione audio sincronizzata.

  • Generazione da testo a video: Movie Gen è in grado di creare video di 16 secondi a partire da semplici descrizioni testuali, con rendering di alta qualità e movimenti realistici. È in grado di interpretare elementi complessi come le interazioni soggetto-oggetto e la dinamica della telecamera.
  • Creazione di video personalizzati: il modello può essere utilizzato per generare video con una persona specifica a partire da un’immagine e da una richiesta di testo.
  • Editing video avanzato: Movie Gen si distingue per il suo potenziale di editing video preciso. Gli utenti dovrebbero essere in grado di aggiungere, eliminare o modificare elementi specifici in un video esistente senza andare a intaccare altre parti del contenuto. Potranno anche applicare modifiche globali, come cambiare lo stile o lo sfondo, senza trasformare la struttura della sequenza.
  • Produzione audio: il modello supporta la creazione di tracce audio fino a 45 secondi, compresi effetti sonori, musica e atmosfera, il tutto sincronizzato con il video. Una tecnica di estensione audio deve essere in grado di gestire video di lunghezza variabile, garantendo al contempo una coerenza audio ottimale.

Meta Movie Gen: 5 esempi impressionanti

1. Serpente nella foresta

È difficile non rimanere colpiti da questo serpente generato frutto dell’intelligenza artificiale che si muove tra una serie di liane e radici. Anche la colonna sonora sottolinea il momento di tensione. Il modo in cui si muove dietro le foglie è davvero impressionante dal punto di vista dell’elaborazione.

2. Meduse ovunque

Questo post su Instagram mostra le modifiche apportate a un filmato esistente. La cosa più impressionante è il modo in cui la luce delle meduse si riflette sul viso e sul corpo del soggetto mentre nuota verso l’alto.

3. Il suono di skateboard

Questa è una ripresa di grande effetto, ma ciò che colpisce di più è l’inconfondibile suono delle ruote dello skateboard sul cemento dello skatepark.

4. La donna che gusta la zuppa

I dettagli sul viso di questo soggetto sono straordinari: le rughe, il sorriso sottile e i capelli. È impressionante il modo in cui il suo modo di mangiare sembra abbastanza umano da essere accettabile.

5. Bambina che corre sulla spiaggia

Questa è stata utilizzata da Meta per dimostrare il nuovo modello e non è difficile capire perché. A parte il vento, le impronte e l’aquilone, la cosa che più sorprende è la corsa della bambina.

Movie Gen di Meta, quando sarà disponibile?

Come già anticipato, Meta non ha ancora reso Movie Gen disponibile al pubblico. Lo strumento è ancora in fase test. L’azienda di Mark Zuckerberg intende lavorare con registi e creatori per perfezionare il modello prima di un lancio più ampio. Infatti, Meta ha appena annunciato la collaborazione con Blumhouse, uno studio cinematografico americano di film horror, per testare lo strumento.

Per l’occasione Blumhouse ha selezionato una manciata di registi tra cui Casey Affleck, che avrà la possibilità di sperimentare lo strumento. Un po’ come ha già fatto anche OpenAI, che ha fatto provare Sora a una manciata di registi di Hollywood, tra cui Walter Woodman, Sidney Leeder, Patrick Cederberg, tutti membri del collettivo shy kids, che hanno prodotto un filmato di un minuto e venti secondi, pubblicato su YouTube e dal titolo “Air Head”.

Paul Trillo invece, anch’egli presente alla presentazione ufficiale di Sora a Hoolywood, ha realizzato il primo video musicale ufficiale per un singolo di Washed Out.  Il video finale è stato realizzato con 55 clip separate generate da Sora su un totale di 700, e messe insieme con Adobe Premiere. L’artista ha utilizzato solo le capacità text-to-image del modello, senza ricorrere ad immagini fisse catturate o generate altrove.

L’obiettivo di Meta è quello di offrire uno strumento che aiuti “le persone a esprimersi in modi nuovi e a offrire opportunità a chi altrimenti non potrebbe averle“. Insomma, l’azienda di Menlo Park sembra volersi distinguere con una soluzione che combina personalizzazione e precisione, pur rimanendo accessibile a un pubblico più ampio.

Le considerazioni etiche

Molti artisti ritengono che l’utilizzo dell’AI da parte di aziende come OpenAI possa condurre a forme di sfruttamento e violazione del copyright. Tuttavia, per molti creativi che lavorano online questi nuovi mezzi rappresentano un’opportunità per dare libero sfogo alla propria inventiva e narrare storie in modo innovativo.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
24 ott 2024
Link copiato negli appunti