Meta crea modello AI efficiente per gli smartphone: MobileLLM

Meta crea modello AI efficiente per gli smartphone: MobileLLM

MobileLLM di Meta è un modello AI ottimizzato per gli smartphone, con minor potenza computazionale, ma in grado di garantire prestazioni eccellenti.
Meta crea modello AI efficiente per gli smartphone: MobileLLM
MobileLLM di Meta è un modello AI ottimizzato per gli smartphone, con minor potenza computazionale, ma in grado di garantire prestazioni eccellenti.

I ricercatori di Meta AI hanno presentato MobileLLM, un innovativo approccio alla creazione di modelli linguistici efficienti progettati per smartphone e altri dispositivi con risorse limitate. Il lavoro mette in discussione le ipotesi sulle dimensioni necessarie per creare LLM efficaci.

Ottimizzazione di modelli con meno di 1 miliardo di parametri

Il team di ricerca, composto da membri di Meta Reality Labs, PyTorch e Meta AI Research (FAIR), si è concentrato sull’ottimizzazione di modelli con meno di 1 miliardo di parametri, una frazione delle dimensioni di modelli come GPT-4, che invece ha oltre un trilione di parametri. Yann LeCun, Chief AI Scientist di Meta, ha evidenziato gli aspetti chiave della ricerca su X.

Ggli ingegneri di Meta hanno ottimizzato l’architettura del modello in modo da farla funzionare bene anche con meno potenza di calcolo. È un po’ come costruire un motore più compatto ed efficiente che consuma meno benzina. Questo modello AI compatto occupa quindi poco spazio e richiede meno potenza di elaborazione. Ciò lo rende perfetto per funzionare all’interno di dispositivi come gli smartphone, che hanno risorse hardware limitate rispetto a un computer.

MobileLLM inoltre, ha ottenuto risultati migliori del 2,7-4,3% rispetto agli altri modelli a parità di dimensioni contenute, sviluppati da altre aziende.

Accuratezza paragonabile a modelli più grandi

La versione da 350 milioni di parametri di MobileLLM ha dimostrato un’accuratezza paragonabile a quella del modello Llama 2, molto più grande e da 7 miliardi di parametri, su alcuni compiti di chiamata API. Ciò suggerisce che, per alcune applicazioni specifiche, modelli più compatti potrebbero offrire funzionalità simili pur utilizzando risorse computazionali significativamente inferiori.

Disponibilità di MobileLLM

Lo sviluppo di MobileLLM è in linea con il crescente interesse per modelli AI più efficienti, ma anche più compatti e specializzati, i cosiddetti “Small Language Models” (SLM). Sebbene MobileLLM non sia ancora disponibile per l’uso pubblico, Meta ha reso disponibile il codice di pre-addestramento, consentendo ad altri ricercatori di sviluppare il proprio lavoro.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
9 lug 2024
Link copiato negli appunti