La startup francese ha annunciato la disponibilità di Mistral Small 3.1, versione aggiornata del modello introdotto a gennaio. Sono stati apportati miglioramenti nella generazione di testo e nella comprensione multimodale. Le prestazioni sono superiori a quelle di Gemma 3 (Google) e GPT-4o mini (OpenAI).
Basta un Mac con 32 GB di RAM
Mistral Small 3.1 è un modello open source con 24 miliardi di parametri. È disponibile con licenza Apache 2.0, quindi può essere modificato e distribuito liberamente, a differenza dei modelli Gemma di Google e Llama di Meta. Ha una context window di 128k token e una velocità di inferenza di 150k token.
Mistral Small 3.1 può essere utilizzato per sviluppare applicazioni che offrono gestione del testo, comprensione di input multimodali e supporto di più lingue (italiano incluso) con bassa latenza ed efficienza. In base ai benchmark pubblicati dalla startup francese, Mistral Small 3.1 è il primo modello open source che supera le prestazioni dei principali modelli proprietari di piccole dimensioni, tra cui Gemma 3-27B (Google), Claude 3.5 Haiku (Anthropic) e GPT-4o mini (OpenAI).
Il nuovo modello può risolvere problemi matematici, supportare una conversazione e comprendere le immagini. Grazie alle ridotte dimensioni può essere eseguito su una singola GPU NVIDIA RTX 4090 o su un Mac con 32 GB di RAM, quindi direttamente sul dispositivo senza accesso al cloud. Ciò consente di ridurre la latenza e garantire la privacy.
Mistral Small 3.1 può essere ottimizzato per specifici settori, come consulenza legale, diagnosi medica e supporto tecnico. Gli sviluppatori possono scaricare il modello da Hugging Face. È inoltre accessibile tramite API su La Plateforme e su Google Cloud Vertex AI. Nelle prossime settimane arriverà anche su NVIDIA NIM e Microsoft Azure AI Foundry.