Alfonso Maruccia

Reti neurali, meglio se con le GPU

NVIDIA illustra una nuova ricerca sulle reti neurali che taglia sull'hardware e l'energia elettrica necessari grazie all'impiego delle sue GPU. Mentre Microsoft migliora le performance del riconoscimento vocale su Windows Phone

Roma - Se Google ha impiegato ben 1.000 PC per simulare la sua rete neurale con riconoscimento-gattini incorporato, NVIDIA sostiene di poter ridurre quel numero a una manciata grazie all'utilizzo delle unità acceleratici GPU (usate in questo caso per calcoli GPGPU) basate su architettura Kepler e comunemente disponibili in commercio a un prezzo (relativamente) contenuto.

NVIDIA ha collaborato con i ricercatori della Stanford University per replicare (incrementandole di 6,5 volte) le capacità computazionali del setup di Google, ma in questo caso la rete neurale è alimentata dalla potenza bruta di 16 macchine equipaggiante con schede grafiche GeForce GTX 680 - nella versione con 4 Gigabyte di memoria RAM.

Alla nuova rete artificiale super-potenziata dalle GPU ha collaborato Andrew Ng, ricercatore già impegnato in precedenza nel progetto di rete neurale gattino-dipendente di Google svelato l'anno scorso e ora surclassata dal nuovo design basato su schede GeForce pensato da NVIDIA.
Che si tratti di macchine basate su CPU, GPU o design ibridi, a ogni modo, le reti neurali artificiali hanno già svariate potenzialità applicative e altre se ne aggiungono di continuo. Microsoft, ad esempio, ha usato questo genere di tecnologia per raddoppiare la velocità di riconoscimento vocale di Bing su gadget Windows Phone e migliorare l'accuratezza del riconoscimento del 15 per cento.

Alfonso Maruccia
Notizie collegate
3 Commenti alla Notizia Reti neurali, meglio se con le GPU
Ordina