Secondo un nuovo rapporto di The Information, xAI ha in programma la costruzione di un supercomputer per potenziare il suo chatbot AI, Grok. Il supercomputer, soprannominato da Musk “Gigafactory of Compute“, dovrebbe essere pronto per l’autunno del 2025 e potrebbe prevedere una collaborazione con Oracle.
Va detto però, che Né xAI né Oracle hanno rilasciato commenti ufficiali sulla possibile collaborazione per la realizzazione del supercomputer. Questo silenzio non fa che alimentare le speculazioni sia sulla partnership, sia sulla natura del progetto.
Gigafatory of Compute, il supercomputer di xAI
In una presentazione agli investitori, Elon Musk ha rivelato che il nuovo supercomputer di xAI utilizzerà ben 100.000 GPU H100 di Nvidia basate sull’architettura Hopper, rendendolo almeno quattro volte più grande dei cluster GPU esistenti. Le GPU H100 di Nvidia sono molto ricercate nel mercato dei chip per i data center di intelligenza artificiale, anche se la forte domanda ne ha reso difficile la reperibilità.
Non è chiaro il motivo per cui xAI abbia optato per una tecnologia di generazione precedente rispetto alle nuove GPU B100 e B200 basate su Blackwell che Nvidia si appresta a lanciare. Tuttavia, questo massiccio investimento hardware riflette le ambizioni di xAI nello sviluppo di modelli linguistici avanzati.
Stando alle dichiarazioni riportate, Musk si considera personalmente responsabile della realizzazione del supercomputer nei tempi previsti, data l’importanza strategica del progetto. Si tratta di indiscrezioni non ufficiali e i piani potrebbero cambiare. Ad ogni modo, la portata dell’investimento indica la volontà di xAI di dotarsi dell’infrastruttura computazionale necessaria a competere ai massimi livelli nel campo dell’intelligenza artificiale.
xAI sfida i colossi dell’AI
Quello che è chiaro invece, è l’obiettivo di xAI: competere direttamente con i giganti dell’intelligenza artificiale come OpenAI e Google, superando le capacità dei cluster GPU rivali, sia in termini di dimensioni che di potenza computazionale, per alimentare Grok, la nuova generazione di intelligenza artificiale.
Musk, che in passato è stato anche co-fondatore di OpenAI, considera xAI un formidabile contendente nel campo dell’AI ed è per questo che ha bisogno di realizzare il prossimo supercomputer.
Il modello Grok 2 di xAI ha richiesto circa 20.000 GPU Nvidia H100 per l’addestramento, ma le versioni future come Grok 3, secondo quanto dichiarato da Musk, necessiteranno di ben 100.000 GPU. Ciò indica l’intenzione di aumentare enormemente la potenza di calcolo per migliorare le capacità dei modelli.