RunwayML ha annunciato la disponibilità generale di Gen-3 Alpha. L’ultimo modello consente agli utenti di generare video AI iper-realistici a partire da input testuali, immagini o video (è in grado anche di generare audio come dialoghi e voiceover). Da oggi quindi, qhiunque si iscriva alla piattaforma RunwayML, può sfruttare le incredibili capacità del modello AI per una vasta gamma di applicazioni creative, compreso la pubblicità.
Tuttavia, a differenza di Gen-1 e Gen-2, Gen-3 Alpha, non è gratuito. Gli utenti interessati a utilizzare l’ultimo modello dovranno passare a un piano a pagamento dell’azienda, con prezzi a partire da 12 dollari al mese per gli editor, fatturati su base annuale.
Caratteristiche e capacità di Gen-3 Alpha
Gen-3 Alpha di RunwayML è stato addestrato su un dataset ampio e di alta qualità, composto da video e immagini con didascalie molto dettagliate che descrivono il contenuto. È proprio grazie a questo addestramento specifico che il modello può generare video dall’aspetto decisamente iperrealistico, con transizioni studiate tra le scene, inquadrature che mettono bene a fuoco i soggetti, e personaggi umani che sembrano molto espressivi e capaci di mostrare un’ampia varietà di azioni, gesti ed emozioni.
I video di prova rilasciati da RunwayML permettono di vedere concretamente i passi avanti fatti da Gen-3 Alpha rispetto ai precedenti modelli Gen-1 e Gen-2, sia per quanto riguarda la velocità di generazione che la qualità complessiva delle immagini prodotte, con risultati più coerenti, fluidi e realistici.
Nella fase iniziale, Gen-3 Alpha alimenterà la modalità text-to-video di Runway, consentendo agli utenti di dare vita alle loro idee con prompt in linguaggio naturale. Nei prossimi giorni, si prevede che l’azienda estenderà il modello ad altre modalità, tra cui image-to-video e video-to-video. Gen-3 Alpha funzionerà anche con le funzioni di controllo della piattaforma Runway, come Motion Brush, Advanced Camera Controls e Director Mode.
Quali sono i limiti di Gen-3 Alpha di Runway
Ogni video generato con Gen-3 Alpha avrà una durata massima di 10 secondi, con una velocità di generazione che varia in base alla lunghezza del video. Sebbene questo sia un risultato migliore rispetto alla maggior parte dei modelli video di AI, è ancora inferiore alle generazioni di un minuto promesse da OpenAI con Sora.