Google ha appena rilasciato due nuovi modelli della serie Gemini 1.5: Gemini-1.5-Pro-002 e Gemini-1.5-Flash-002, che apportano significativi miglioramenti rispetto alle versioni precedenti lanciate a maggio.
Nuovi modelli Gemini
Questi aggiornamenti si traducono in un incremento delle prestazioni del 7% circa in MMLU-Pro, del 20% circa nei benchmark MATH e HiddenMath e del 2-7% circa nei casi d’uso relativi alla visione e al codice. Inoltre, l’utilità complessiva delle risposte generate dai modelli è stata ottimizzata, con output più concisi e una riduzione della lunghezza predefinita dal 5% al 20% rispetto ai modelli precedenti.
Riduzione dei prezzi e aumento dei limiti tariffari per le API dei modelli Gemini 1.5
Parallelamente ai miglioramenti dei modelli, Google ha ridotto i prezzi delle API per la serie Gemini 1.5. In particolare, il costo dei token di input è stato ridotto del 64%, mentre quello dei token di output ha subito una diminuzione del 52%. Inoltre, a partire dal 1° ottobre 2024, il prezzo dei token incrementali memorizzati nella cache per Gemini 1.5 Pro, per i prompt inferiori a 128K token, sarà ridotto del 64%.
Google ha anche aumentato i limiti tariffari, consentendo agli sviluppatori di creare applicazioni AI più complesse. I limiti di velocità del livello a pagamento sono stati portati a 2.000 RPM per 1.5 Flash e a 1.000 RPM per 1.5 Pro, rispetto ai precedenti 1.000 e 360 rispettivamente. Grazie ai nuovi modelli, è stato possibile ridurre la latenza, offrendo agli sviluppatori un output due volte più veloce e una latenza tre volte inferiore.
Google punta su maggiore autonomia e controllo
Con il rilascio dell’aggiornamento Gemini 1.5 basato su modelli 002, Google ha apportato miglioramenti significativi soprattutto in termini di precisione nel seguire le richieste fornite dagli utenti. La nuova versione tuttavia, bilancia attentamente tale caratteristica con aspetti legati a sicurezza e affidabilità. Infatti, diversamente dal passato, l’azienda ha scelto di non applicare filtri predefiniti su contenuti potenzialmente problematico, lasciando agli sviluppatori la facoltà di implementare autonomamente, caso per caso, limitazioni in base alle specifiche esigenze.
Disponibilità dei modelli Gemini 1.5 aggiornati
Tutti i modelli Gemini 1.5 aggiornati sono ora accessibili agli sviluppatori attraverso Google AI Studio e l’API Gemini. Per le grandi aziende e i clienti di Google Cloud, i nuovi modelli sono disponibili su Vertex AI.
Infine, Google ha rilasciato una versione sperimentale migliorata del modello Gemini 1.5, che si chiama “Gemini-1.5-Flash-8B-Exp-0924“. Questa nuova versione potenziata di Gemini 1.5 garantisce miglioramenti sostanziali sia nelle attività che prevedono l’elaborazione del linguaggio naturale, sia in quelle che integrano modalità multimodali come testo e immagini.