Gemma 2 di Google, il nuovo modello AI da 27 miliardi di parametri

Gemma 2 di Google, il nuovo modello AI da 27 miliardi di parametri

Google ha svelato Gemma 2, la nuova serie di modelli AI open source che vedrà un primo rilascio a giugno con un modello da 27 miliardi di parametri.
Gemma 2 di Google, il nuovo modello AI da 27 miliardi di parametri
Google ha svelato Gemma 2, la nuova serie di modelli AI open source che vedrà un primo rilascio a giugno con un modello da 27 miliardi di parametri.

Lo scorso febbraio, Google DeepMind ha presentato Gemma, rilasciando due modelli open-source con 2 miliardi e 7 miliardi di parametri. Quest’anno, durante la conferenza degli sviluppatori Google I/O, l’azienda ha svelato la serie Gemma 2, il cui primo modello sarà un LLM leggero ma molto più grande, con ben 27 miliardi di parametri. Tuttavia, bisognerà attendere fino a giugno per poterlo utilizzare.

Josh Woodward, vicepresidente dei Google Labs, ha spiegato durante una tavola rotonda con i giornalisti che la dimensione di 27 miliardi di parametri è stata scelta intenzionalmente. Questo modello è ottimizzato per essere eseguito sulle GPU di nuova generazione di Nvidia o su un singolo host TPU in Vertex AI, rendendolo facile da usare. Inoltre, Gemma 2 sta già dimostrando una grande qualità, superando modelli due volte più grandi.

La famiglia Gemma per dispositivi con risorse limitate

Gemma è la famiglia di modelli leggeri di Google pensati per gli sviluppatori che desiderano incorporare l’intelligenza artificiale nelle loro app e nei loro dispositivi senza richiedere un consumo eccessivo di memoria o di potenza di elaborazione. Questa caratteristica rende Gemma adatta all’uso su dispositivi con risorse limitate come smartphone, dispositivi IoT e PC.

Con 27 miliardi di parametri, Gemma 2 promette di offrire risultati e prestazioni più accurati, gestendo al contempo assegnazioni più complesse rispetto ai suoi predecessori. Un set di dati più ampio per l’addestramento consente all’intelligenza artificiale di fornire risposte di qualità superiore in tempi più brevi.

Secondo Woodward, Gemma 2 è progettato per funzionare su una singola TPU, ma si riferisce specificamente alle TPUv5e, il chip di ultima generazione di Google, rilasciato lo scorso agosto. L’utilizzo di Gemma 2 richiede quindi un singolo chip AI specializzato per gestire i calcoli, ridurre la latenza e gestire compiti come il riconoscimento delle immagini e l’elaborazione del linguaggio naturale. Meno risorse sono necessarie, più gli sviluppatori risparmiano per reinvestire nelle loro app.

Confronto con GPT-4o di OpenAI

Il debutto di Gemma 2 avviene all’ombra della presentazione da parte di OpenAI di GPT-4o, il suo LLM multimodale, e viene definito un “aggiornamento significativo” rispetto a ciò che gli utenti sperimentano attualmente, soprattutto per coloro che utilizzano la versione gratuita di ChatGPT. Sarà interessante vedere come Gemma 2 si confronterà con questo e altri modelli concorrenti.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
16 mag 2024
Link copiato negli appunti