Solo due mesi fa era stato annunciato Llama 3.1 con 405 miliardi di parametri. Meta ha svelato ieri il nuovo modello Llama 3.2 che può analizzare e comprendere tabelle, grafici e immagini. Viene offerto in quattro versioni, due delle quali ottimizzate per l’esecuzione sui dispositivi mobile. Ovviamente sono ancora open source. Gli sviluppatori e le aziende possono usarli anche tramite Amazon Bedrock, Google Cloud Vertex AI e Microsoft Azure AI.
Meta Llama 3.2 anche in Europa
I modelli Llama 3.2 di piccola e media dimensione (11 e 90 miliardi di parametri, rispettivamente) offrono le funzionalità più avanzate e le prestazioni maggiori. Sono in grado di analizzare e comprendere il contenuto di documenti con grafici e tabelle, generare, descrivere (anche con didascalie) e modificare un’immagine.
In base ai test pubblicati da Meta, Llama 3.2 11B e 90B superano Claude 3 Haiku e GPT-4o mini nella comprensione di testo e immagini. Il supporto multimodale ha richiesto una nuova architettura e l’addestramento con dataset aggiornati. Questi due modelli non sono disponibili in Europa, come anticipato dall’azienda di Menlo Park, in quanto non è possibile usare i dati degli utenti (Meta chiede una maggiore chiarezza normativa).
I modelli Llama 3.2 1B e 3B con 1 e 3 miliardi di parametri possono essere eseguiti sui dispositivi mobile, quindi senza accesso al cloud. Ciò migliora le prestazioni e garantisce la privacy. Possono essere sfruttati ad esempio per riscrivere testo, creare bozze e generare riassunti (non sono multimodali).
Sono ottimizzati per processori Arm. Meta ha collaborato con Qualcomm e MediaTek durante lo sviluppo. Questi modelli non sono stati addestrati con i dati degli utenti europei, quindi possono essere utilizzati anche in Europa dai produttori e dagli sviluppatori di app per smartphone e tablet.