Mistral sbarca su Amazon Bedrock: AWS punta sull'open source

Mistral sbarca su Amazon Bedrock: AWS punta sull'open source

AWS integrerà i modelli AI open source di Mistral in Amazon Bedrock, la sua piattaforma per lo sviluppo di applicazioni di AI generativa.
Mistral sbarca su Amazon Bedrock: AWS punta sull'open source
AWS integrerà i modelli AI open source di Mistral in Amazon Bedrock, la sua piattaforma per lo sviluppo di applicazioni di AI generativa.

Amazon Web Services (AWS), il leader del mercato dei server cloud, ha annunciato in un post sul blog che porterà i modelli di intelligenza artificiale generativa open source della startup francese Mistral su Amazon Bedrock, il servizio gestito per le offerte di intelligenza artificiale generativa e lo sviluppo di applicazioni lanciato lo scorso anno. Questa mossa rafforza la posizione di AWS nella battaglia in corso tra i fornitori di server cloud per offrire ai propri clienti il set più completo di modelli di intelligenza artificiale generativa.

I modelli di Mistral disponibili su Bedrock

Due modelli di Mistral saranno disponibili attraverso il servizio Bedrock: Mistral 7B e Mixtral 8x7B. Entrambi sono basati sull’architettura Transformer e sono addestrati su grandi quantità di dati testuali provenienti da diverse fonti. Tuttavia, i modelli differiscono per alcune caratteristiche:

  • Mistral 7B è progettato per l’efficienza, richiede poca memoria e offre un elevato throughput. Supporta un’ampia gamma di casi d’uso, tra cui la sintesi del testo, la classificazione, il completamento e il completamento del codice.
  • Mixtral 8x7B è ancora più potente e utilizza un modello Mixture-of-Experts (MoE) per eseguire sintesi di testi, risposte a domande, classificazione di testi, completamento di testi e generazione di codici in più lingue: inglese, francese, tedesco, spagnolo e italiano.

I modelli di Mistral saranno disponibili su Bedrock molto presto, secondo il post sul blog. Quando saranno pronti, appariranno qui.

I vantaggi dei modelli di Mistral per i clienti AWS

L’integrazione dei modelli di Mistral AI in Amazon Bedrock è motivata da diversi fattori, tra cui:

  • Equilibrio costi-prestazioni: I modelli di Mistral AI esemplificano un eccellente equilibrio tra costi e prestazioni. La loro natura efficiente, conveniente e scalabile li rende un’opzione interessante per gli sviluppatori e le organizzazioni che vogliono sfruttare l’IA generativa senza dover sostenere costi proibitivi.
  • Velocità di inferenza: grazie all’enfasi posta sulla bassa latenza, sui bassi requisiti di memoria e sull’elevato throughput, i modelli di IA di Mistral sono ottimizzati per garantire una velocità di inferenza elevata. Questa caratteristica è fondamentale per scalare in modo efficiente i casi d’uso di produzione.
  • Trasparenza e personalizzazione: Mistral AI promuove la trasparenza e la personalizzazione dei suoi modelli, consentendo alle organizzazioni di rispettare i severi requisiti normativi.
  • Accessibilità: I modelli sono progettati per essere accessibili a un vasto pubblico, facilitando l’integrazione delle funzionalità di IA generativa nelle applicazioni di varie organizzazioni, indipendentemente dalle loro dimensioni.

Il contesto competitivo di AWS nel cloud

AWS non è l’unico fornitore di server cloud a offrire modelli di intelligenza artificiale generativa ai propri clienti. Microsoft, il suo principale concorrente nel cloud, ha recentemente aggiunto i modelli open-source Llama AI di Meta al suo Azure AI Studio, il rivale di Bedrock.

Inoltre, Amazon ha investito in un altro fornitore di modelli di intelligenza artificiale rivale closed-source, Anthropic, e sta lavorando per sviluppare i propri modelli di base gen AI in-house. Queste mosse dimostrano l’importanza strategica dell’AI generativa per il futuro del cloud computing.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
26 feb 2024
Link copiato negli appunti