Fastweb ha annunciato l’acquisto di un supercomputer con 31 NVIDIA DGX H100 che verrà utilizzato per l’addestramento e l’inferenza dei modelli di intelligenza artificiale generativa. Inoltre verrà sfruttato per lo sviluppo di un ChatGPT in lingua italiana. L’azienda milanese offre da tempo un assistente, denominato FastwebAI e basato su GPT-3.5 Turbo, che aiuta gli utenti nella scelta delle offerte.
Un chatbot italiano con le GPU NVIDIA
Fastweb ha acquistato un sistema composto da 31 NVIDIA DGX H100 che sarà installato presso uno dei data center di ultima generazione ubicato in Lombardia, interamente alimentato da energia rinnovabile. Ogni DGX H100, basato sull’architettura DGX SuperPOD, integra 8 GPU H100 per un totale di 248 GPU. Il supercomputer entrerà in funzione nella prima metà del 2024.
Le NVIDIA H100 sono le GPU più utilizzate per l’addestramento dei modelli di intelligenza artificiale generativa, tra quelli di Meta, Microsoft e OpenAI. Ogni singola GPU costa diverse migliaia di dollari, quindi l’investimento effettuato da Fastweb è piuttosto importante. Una parte della spesa verrà recuperata offrendo l’accesso a università, aziende e pubbliche amministrazioni in modalità IaaS (Infrastructure as a service) per lo sviluppo di applicazioni e servizi IA.
L’azienda milanese svilupperà inoltre un LLM (Large Language Model) con dati in lingua italiana, quindi il chatbot “catturerà sfumature della lingua italiana, della sua grammatica, del contesto e della specificità culturale nazionale“. ChatGPT e simili supportano la lingua italiana, ma i dati per il training dei modelli sono principalmente in inglese.
Ovviamente i dati di input e output verranno conservati su server che si trovano in Italia. Ciò garantisce privacy e sicurezza superiori rispetto ai modelli statunitensi, in quanto sono rispettate tutte le normative italiane ed europee.