Intel ha presentato una nuova serie di processori Intel Xeon Scalable di terza generazione accompagnata da una serie di soluzioni ulteriori pensati complessivamente per favorire l’adozione di Intelligenza artificiale e analytics “nei data center, nella rete e negli ambienti Intelligent-Edge“.
Si tratta nelle promesse di Intel di una vera e propria piattaforma di Intelligenza Artificiale e analytics, dunque progettata con finalità e parametri specifici per questo tipo di utilizzo. Il tutto non senza ambizioni: Intel definisce la nuova suite una soluzione “senza paragoni“, mettendo in campo un tutt’uno fatto di processori, memoria, soluzioni storage e FPGA (Field Programmable Gate Array).
Intel, piattaforma per IA e analytics
Queste le novità annunciate da Intel:
Nuovi processori Intel Xeon Scalable di terza generazione
Intel sta ulteriormente estendendo il proprio investimento nell’accelerazione di intelligenza artificiale integrata nei processori Intel Xeon Scalable di terza generazione attraverso il supporto del formato bfloat16 all’interno dell’esclusiva tecnologia Intel DL Boost. bfloat16 è un formato numerico compatto che utilizza metà dei bit rispetto all’attuale formato FP32, ottenendo comunque un’accuratezza paragonabile nella modellazione con modifiche minime (o nulle) al software. L’aggiunta del supporto bfloat16 accelera le prestazioni sia del training che dell’inferenza dell’AI nella CPU. Le distribuzioni ottimizzate da Intel per i più importanti framework di deep learning (compresi TensorFlow e Pytorch) supportano bfloat16 e sono disponibili attraverso il toolkit Intel AI Analytics. Intel fornisce le ottimizzazioni di bfloat16 anche all’interno del toolkit OperVINO e in ambiente ONNX Runtime per semplificare l’implementazione di inferenze. I processori Intel Xeon Scalable di terza generazione (nome in codice “Cooper Lake”) rappresentano l’evoluzione dell’offerta 4 e 8 socket di Intel. Il processore è progettato per il deep learning, per la virtual machine (VM) density, per i database in-memory, per le applicazioni mission critical e per i carichi di lavoro con analytics intensive. Le aziende che sono in procinto di aggiornare le loro infrastrutture possono aspettarsi un vantaggio di 1,9 volte per i più comuni carichi di lavoro e fino a 2,2 volte la quantità di VMrispetto alle equivalenti piattaforme a 4 socket di 5 anni fa.
Nuova Memoria Persistente Intel Optane
[…] offre fino a 4,5 TB di memoria per ciascun socket per gestire i carichi di lavoro che elaborano grandi quantità di dati, come i database in-memory, la dense virtualization, l’analytics e il calcolo ad alte prestazioni.
Nuove SSD NAND 3D Intel
per i sistemi che immagazzinano i dati in array all-flash, Intel annuncia la disponibilità delle SSD NAND 3D Intel ad alta capacità: Intel SSD D7-P5500 e P5600. Queste SSD NAND 3D sono basate sulla più recente tecnologia triple-level cell (TLC) 3D NAND e su un nuovo controller PCIe a bassa latenza in modo da rispondere alle esigenze di IO intensivo richieste da carichi di lavoro di AI e analytics, oltre che su funzionalità avanzate per migliorare l’efficienza dell’IT e la sicurezza dei dati.
La prima FPGA di Intel ottimizzata per l’AI
Intel ha presentato le FPGA Intel Stratix 10 NX di prossima introduzione sul mercato; si tratta delle prime FPGA di Intel ottimizzate per l’AI e pensate per l’accelerazione dell’AI a grande ampiezza di banda e bassa latenza. Queste FPGA offriranno un’accelerazione AI personalizzabile, riconfigurabile e scalabile per quelle applicazioni che richiedono grande potenza di calcolo, come ad esempio l’elaborazione del linguaggio parlato e la rilevazione delle frodi. Le FPGA Intel Stratix 10 NX comprendono una high-bandwidth memory (HBM) integrata, funzionalità di networking ad alte prestazioni e nuovi blocchi aritmetici ottimizzati per l’AI denominati AI Tensor Blocks, che contengono array densi dei moltiplicatori a minore precisione tipicamente utilizzati per l’aritmetica di modellazione dell’AI.
I nuovi processori e la nuova memoria persistente sono disponibili fin da subito, mentre per quanto riguarda la FPGA ottimizzata per Intelligenza Artificiale occorrerà attendere ancora circa un semestre.