A poche ore dalla presentazione del nuovo modello linguistico di grandi dimensioni di OpenAI, GPT-4o (Omni), le prime reazioni al lancio sono contrastanti. Mentre alcuni si sono allontanati dalla breve presentazione dimostrativa di 26 minuti con la voglia di saperne di più, altri hanno espresso opinioni più critiche.
Caratteristiche principali di GPT-4o
OpenAI ha rilasciato una serie di video dimostrativi e ulteriori informazioni sul nuovo modello di base, che secondo l’azienda è più veloce del precedente modello GPT-4, più accessibile per gli sviluppatori di terze parti e, cosa forse più importante, più empatico. GPT-4o, infatti, è in grado di rilevare e imitare meglio le espressioni umane, soprattutto attraverso l’audio, evocando la protagonista virtuale di Her, film del 2013 scritto e diretto da Spike Jonze.
GPT-4o è utilizzabile gratuitamente attraverso ChatGPT per tutti gli utenti, anche se gli abbonati paganti ne usufruiscono per primi. Al momento, è disponibile solo con le funzionalità di testo e immagini, mentre l’audio e il video arriveranno nelle prossime settimane.
A differenza dei precedenti modelli GPT, GPT-4o è stato addestrato fin dall’inizio per gestire in modo integrato testo, audio e immagini. Mentre i modelli precedenti convertivano tutti i dati in testo, GPT-4o trasforma direttamente testo, audio e immagini in token, senza passare attraverso una conversione intermedia in formato testuale. Questo approccio innovativo permette al nuovo di elaborare in parallelo informazioni multimodali, aumentando la velocità e riducendo i costi computazionali.
Reazioni positive e entusiasmo per le nuove funzionalità
Alcuni influencer e sviluppatori di AI hanno espresso entusiasmo per le nuove funzionalità di GPT-4o, come la nuova app desktop ChatGPT per macOS e la capacità di renderizzare oggetti 3D a partire da richieste testuali. Alcuni hanno addirittura suggerito che GPT-4o potrebbe essere considerato un’intelligenza artificiale generale (AGI), in grado di superare la maggior parte degli esseri umani e dei compiti di valore economico.
Alright I'm gonna say it… This is essentially AGI.
This will be seen as magic to masses. What else do you call it when a virtual "person" can listen, talk, see, and reason almost indistinguishably from an average human?
Isn't that AGI? https://t.co/geMZx8BFjE
— Benjamin De Kraker (@BenjaminDEKR) May 13, 2024
Critiche e confronti con altre aziende tecnologiche
D’altra parte, alcuni esperti e giornalisti hanno espresso delusione per l’evento di presentazione e le dimostrazioni, ritenendo che non rappresentino un significativo salto in avanti nelle capacità dell’AI. Alcuni hanno sottolineato il crescente divario di capacità tra OpenAI e altre aziende tecnologiche di più lunga data, come Google, Meta e Microsoft, che dispongono di maggiori risorse e infrastrutture per l’addestramento e la distribuzione dei modelli di AI.
Nonostante GPT-4o sia ancora un prodotto molto giovane e tante funzionalità debbano ancora essere rese pubbliche, le reazioni appassionate dimostrano che OpenAI ha già toccato un nervo scoperto. Alcuni ritengono che il ritmo del cambiamento sia incredibile e che il nuovo modello di intelligenza artificiale cambierà completamente il ruolo degli assistenti AI, mentre altri rimangono scettici riguardo all’effettivo impatto e alle capacità del nuovo modello.