Accanto alle applicazioni dell’intelligenza artificiale, dalla conferenza I/O di Google arriva una nuova conferma di voci che circolano da tempo sui progetti della corporation dell’advertising. E si tratta, questa volta, di “duro metallo” tarato sulle esigenze specifiche dell’azienda.
A Mountain View è stato infatti presentato Tensor Processing Unit (TPU), processore con design personalizzato ( ASIC ) che la corporation ha pensato specificatamente per accelerare gli algoritmi di machine learning alla base della piattaforma TensorFlow .
Google dice di aver messo a lavoro i TPU nei suoi data center per oltre un anno , e di avere per questo sperimentato performance per watt ottimizzate di qualche ordine di magnitudine rispetto ai chip tradizionali realizzati con design “generalisti”.
A Mountain View parlano di prestazioni equivalenti a un balzo tecnologico “setti anni nel futuro” o tre generazioni della legge di Moore, anche se nel caso in oggetto la legge di Moore – il raddoppio dei transistor implementati in un chip ogni due anni – c’entra davvero poco e un ASIC personalizzato come TPU non può certo essere impiegato negli stessi scenari computazionali di una CPU x86 tradizionale.
Sia come sia, la tecnologia TPU conferma la vocazione sempre più autarchica di Mountain View, una vocazione a progettare hardware su misura che dovrebbe garantire le migliori performance al software della corporation. TPU è il risultato di un progetto “clandestino” avviato svariati anni fa, conferma la corporation, e prevedibilmente non sarà il solo.
Alfonso Maruccia