Google ha presentato ieri i nuovi Pixel 6 e Pixel 6 Pro. Oltre al design, l’azienda di Mountain View ha aggiornato le specifiche rispetto alla precedente generazione. Tra i nuovi componenti hardware spicca il Google Tensor, un SoC basato sull’architettura ARM e progettato soprattutto per il machine learning.
Google Tensor: machine learning nello smartphone
Per il Google Tensor è stata scelta una configurazione 2+2+4. Il SoC è composto da una CPU octa core con due ARM Cortex-X1 a 2,80 GHz, due ARM Cortex-A76 a 2,25 GHz e quattro ARM Cortex-A55 a 1,8 GHz. Stranamente l’azienda di Mountain View ha optato per il Cortex-A76, invece dei più recenti Cortex-A77 o Cortex-A78, ma il processo produttivo è a 5 nanometri (invece di 7 nanometri), quindi dovrebbe avere consumi inferiori.
Il SoC integra inoltre la GPU ARM Mali-G78MP20, un ISP custom e soprattutto una TPU (Tensor Processing Unit), da cui il nome del processore. Quest’ultima è in grado di elaborare i modelli ML (machine learning) che Google ha sviluppato per varie funzionalità IA, in particolare per il riconoscimento vocale (fino a 200 parole al minuto) e il miglioramento di audio e video.
I modelli ASR (Automatic Speech Recognition) sono utilizzati per la prima volta su un Pixel da Google Assistant e per Recorder, Live Caption e Live Translate. L’elaborazione avviene sul dispositivo senza incidere sulla durata della batteria. Ovviamente la TPU del SoC viene sfruttata al massimo per la cosiddetta fotografia computazionale e i video.
Tra le funzionalità più rilevanti ci sono Motion Mode, Magic Eraser, Real Tone, Face Unblur e HDRNet. Quest’ultima consente di applicare gli algoritmi HDR+ ad ogni singolo frame dei video 4K a 60 fps.