Se Google ha impiegato ben 1.000 PC per simulare la sua rete neurale con riconoscimento-gattini incorporato, NVIDIA sostiene di poter ridurre quel numero a una manciata grazie all’utilizzo delle unità acceleratici GPU (usate in questo caso per calcoli GPGPU) basate su architettura Kepler e comunemente disponibili in commercio a un prezzo (relativamente) contenuto.
NVIDIA ha collaborato con i ricercatori della Stanford University per replicare (incrementandole di 6,5 volte) le capacità computazionali del setup di Google, ma in questo caso la rete neurale è alimentata dalla potenza bruta di 16 macchine equipaggiante con schede grafiche GeForce GTX 680 – nella versione con 4 Gigabyte di memoria RAM.
Alla nuova rete artificiale super-potenziata dalle GPU ha collaborato Andrew Ng, ricercatore già impegnato in precedenza nel progetto di rete neurale gattino-dipendente di Google svelato l’anno scorso e ora surclassata dal nuovo design basato su schede GeForce pensato da NVIDIA.
Che si tratti di macchine basate su CPU, GPU o design ibridi, a ogni modo, le reti neurali artificiali hanno già svariate potenzialità applicative e altre se ne aggiungono di continuo. Microsoft, ad esempio, ha usato questo genere di tecnologia per raddoppiare la velocità di riconoscimento vocale di Bing su gadget Windows Phone e migliorare l’accuratezza del riconoscimento del 15 per cento.
Alfonso Maruccia