Modelli AI Jamba 1.5 di AI21 Labs debuttano su Azure

Modelli AI Jamba 1.5 di AI21 Labs debuttano su Azure

Disponibili su Microsoft Azure i nuovi modelli open source Jamba 1.5 di AI21 Labs, che offrono efficienza e supporto a contesti lunghi.
Modelli AI Jamba 1.5 di AI21 Labs debuttano su Azure
Disponibili su Microsoft Azure i nuovi modelli open source Jamba 1.5 di AI21 Labs, che offrono efficienza e supporto a contesti lunghi.

AI21 ha lanciato la famiglia di modelli Jamba 1.5, stabilendo un nuovo standard per i modelli di AI a contesto lungo. Questa release introduce due potenti modelli aperti: Jamba 1.5 Mini e Jamba 1.5 Large, progettati per offrire velocità, efficienza e prestazioni senza precedenti per le applicazioni AI aziendali.

Il cuore di questi modelli è un’architettura ibrida SSM-Transformer che combina i livelli Transformer e Mamba con un approccio Mixture-of-Experts. Questo design innovativo consente ai modelli Jamba di elaborare grandi quantità di informazioni con velocità e precisione eccezionali.

I modelli Jamba sono fino a 2,5 volte più veloci dei concorrenti della loro classe di dimensioni, il che li rende ideali per le attività che richiedono l’elaborazione di dati estesi, come l’analisi finanziaria, la sintesi di documenti e le applicazioni di assistenza clienti.

La famiglia di modelli Jamba 1.5

La caratteristica principale della famiglia Jamba 1.5 è l’impressionante finestra di contesto da 256K token (circa 800 pagine di testo), attualmente la più grande disponibile tra i modelli open source. La capacità di gestire contesti così ampi permette ai modelli Jamba 1.5 di eseguire in modo eccellente compiti complessi come l’analisi dei documenti e il ragionamento articolato. Non dovendo spezzettare continuamente i dati in ingresso, questi modelli velocizzano l’elaborazione riducendo tempi e costi computazionali.

Jamba 1.5 Mini è il modello aperto più forte nella sua classe di dimensioni con un punteggio di 46,1 nel benchmark Arena Hard, superando modelli più grandi come Mixtral 8x22B e Command-R+. Jamba 1.5 Large, con un punteggio di 65,4, supera sia Llama 3.1 70B che 405B.

Entrambi i modelli dimostrano una velocità superiore, con Jamba 1.5 Large che supera concorrenti come Llama 3.1 70B e Mistral Large 2 nei test di latenza end-to-end a 10K contesti. Per finestre di contesto ampie, si è dimostrato due volte più veloce dei modelli della concorrenza.

Disponibilità dei modelli Jamba

Nello sviluppare i modelli Jamba 1.5, AI21 Labs ha prestato particolare attenzione alle esigenze degli sviluppatori. Per questo motivo, i modelli supportano funzionalità utili come le chiamate di funzione, la modalità JSON e il DOM (Document Object Model). Tutto ciò rende i modelli Jamba 1.5 facilmente integrabili in sistemi di intelligenza artificiale agili e flessibili.

I modelli Jamba 1.5 sono disponibili su diverse piattaforme, tra cui AI21 Studio, Google Cloud Vertex AI, Microsoft Azure e NVIDIA NIM, con piani per una distribuzione più ampia su Amazon Bedrock, Databricks e altri importanti provider. I modelli sono disponibili anche per implementazioni private on-prem. Questa accessibilità dovrebbe consentire agli sviluppatori di integrare rapidamente questi modelli nei loro sistemi con facilità, utilizzando strumenti familiari come LangChain e Hugging Face.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
23 ago 2024
Link copiato negli appunti