Mark Zuckerberg ha annunciato che Meta investirà parecchi risorse nel campo dell’intelligenza artificiale. Ciò comporta un aggiornamento dell’infrastruttura IA, oggi usata per ricerca e moderazione dei contenuti, oltre che dagli algoritmi dei suggerimenti in app e servizi. L’azienda ha quindi realizzato il suo primo chip custom per l’addestramento dei modelli.
MTIA: chip per l’intelligenza artificiale
L’aggiornamento dell’infrastruttura IA di Meta prevede tre novità. La prima è MTIA (Meta Training and Inference Accelerator), un ASIC (Application Specific Integrated Circuit) che consente di incrementare l’elaborazione dei modelli IA, ridurre la latenza e migliorare l’efficienza energetica. Viene realizzato da TSMC con tecnologia di processo a 7 nanometri.
Il chip raggiunge una frequenza massima di 800 MHz e consuma solo 25 Watt. È presente un sottosistema di memoria LPDDR5 fino a 128 GB, 128 MB di SRAM e un firmware che gestisce le risorse di calcolo. Meta utilizza attualmente le GPU di NVIDIA, ma l’obiettivo è ridurre la dipendenza dall’azienda di Santa Clara, adottando la stessa strategia di Microsoft.
Questo è tuttavia un piano a lungo termine. Il supercomputer di Meta, denominato Research SuperCluster (RSC), viene utilizzato per l’addestramento dei modelli IA di grandi dimensioni. In seguito all’ultimo aggiornamento, RSC è ora composto da 2.000 sistemi NVIDIA DGX A100 per un totale di 16.000 GPU NVIDIA A100 e una potenza di calcolo pari a circa 5 exaflops. Il training del modello LLaMA (Large Language Model Meta AI) avviene con 2.048 GPU A100 in circa 21 giorni.
Meta ha inoltre avviato la progettazione di un nuovo data center che supporterà l’hardware IA di prossima generazione. L’azienda di Menlo Park ha infine sviluppato MSVP (Meta Scalable Video Processor), un ASIC per la transcodifica dei video on-demand e in tempo reale (streaming). Verrà sfruttato anche per la generazione di contenuti IA, AR e VR.