OpenAI ha presentato Sora nel mese di febbraio, assestando l’ennesimo scossone (dopo quello messo a segno con ChatGPT) all’ambito dell’intelligenza artificiale generativa. Il modello è in grado di creare video partendo dalla loro descrizione testuale, ma con quali prestazioni? Ad approfondire questo particolare aspetto è un nuovo report pubblicato dalla redazione di The Information.
OpenAI al lavoro per rendere Sora più veloce
Sulla base delle informazioni condivise da alcuni investitori, per ovvie ragioni rimasti anonimi, per ottenere una clip dalla durata di un minuto servono circa dieci minuti di attesa. Non esattamente una scheggia, insomma.
La velocità di esecuzione dovrebbe essere incrementata con una nuova versione del modello, già in fase di addestramento e non ancora annunciata in via ufficiale. Rimane incerta anche la data di lancio. A marzo, Mira Murati (che ha appena rassegnato le proprie dimissioni dall’organizzazione) ha parlato di pochi mesi
necessari per assistere al debutto della tecnologia, ma ad oggi non se ne sa di più.
Nel frattempo, la concorrenza non è stata a guardare. Tra le realtà che hanno proposto le loro alternative ci sono MiniMax, Haiper, Higgsfield e Stability AI. In particolare, quest’ultima si può ora avvalere della collaborazione di James Cameron: il registra di Titanic e Terminator è infatti entrato a far parte del consiglio di amministrazione.
L’ingresso dell’intelligenza artificiale generativa nel mondo del cinema non è più un’ipotesi, ma una certezza, con tutto ciò che ne conseguirà. Non si tratta di se, ma di quando. Ne è testimonianza anche la stretta di mano siglata da Lionsgate e Runway, proprio con l’obiettivo di introdurre la tecnologia nel processo creativo, tagliando i costi di produzione e portando sul grande schermo e sulle piattaforme contenuti restituiti in output dagli algoritmi. OpenAI farà di tutto per essere della partita, con Sora o con un’evoluzione del progetto.