Presentato negli anni scorsi in occasione dell’evento I/O 2015 dedicato agli sviluppatori, Project Soli è un’iniziativa sperimentale portata avanti dal team Google ATAP (Advanced Technology and Projects), lo stesso già al lavoro in passato sul concept di smartphone modulare Ara e sulla tecnologia Jaquard che mira a integrare superfici touch nei tessuti degli indumenti. Si tratta in questo caso di un sistema dedicato all’interazione con i dispositivi basato esclusivamente sulle gesture delle mani.
Il Project Soli di Google ATAP
Nel dettaglio, Soli impiega una componente radar dalle dimensioni estremamente contenute, in grado di interpretare in modo preciso e in tempo reale i movimenti delle dita. L’utente può dunque così, ad esempio, abbassare o alzare il volume di riproduzione dei contenuti, effettuare lo scrolling all’interno di una pagina oppure selezionare un pulsante virtuale senza in alcun modo toccare lo schermo o altri controller fisici: gli basta muovere l’indice e il pollice. Il funzionamento è ben illustrato dal filmato dimostrativo in streaming di seguito. Una tecnologia che, nelle intenzioni di bigG, un giorno non troppo lontano consentirà a chi ha deficit o impedimenti fisici tali da rendere impossibile l’utilizzo di un tradizionale touchscreen o dei comandi vocali di accedere ad applicazioni e servizi senza alcun ostacolo.
Dell’iniziativa non si è parlato per lungo tempo, ma oggi torniamo a farlo poiché la FCC (Federal Communications Commission) ha dato il via libera all’utilizzo dello spettro di banda 57-64 GHz, con l’emissione di potenze superiori rispetto a quanto previsto dalla normatica statunitense, ma in linea con quelle fissate dagli standard europei. Un’esigenza dettata dal fatto che, altrimenti, potrebbero verificarsi intoppi nel funzionamento del sistema.
Una richiesta inizialmente messa in standby, anche in conseguenza all’opposizione sollevata da Facebook, ma che ora è stata accolta in considerazione del fatto che il progetto “è di pubblico interesse e fornisce una modalità di controllo dei dispositivi innovativa basata su una tecnologia di gesture delle mani di tipo touchless”. Secondo l’ente americano, i dispositivi basati sulla tecnologia di Project Soli potranno essere utilizzati anche a bordo degli aerei, purché con modalità rispettose delle regole stabilite dalla Federal Aviation Administration.
Gesture e riconoscimento degli oggetti
Il sistema su cui si basa il progetto, come si può vedere nella clip seguente, offre un livello di precisione tale da poter essere impiegato anche per il riconoscimento degli oggetti, arrivando a distinguere persino il materiale di cui sono composti: plastica, liquido, rame, acciaio e così via.
Non è difficile immaginare come una tecnologia di questo tipo possa essere impiegata nei contesti più svariati, da quello consumer (smartphone, tablet, automobili, computer) alle applicazioni industriali. Da sottolineare inoltre che, proprio per la natura del sistema radar impiegato, il riconoscimento delle gesture può avvenire anche se la componente è trasportata, ad esempio, all’interno dello zaino oppure in tasca. Non resta ora che attendere ulteriori informazioni in merito da parte del team ATAP di Mountain View: occhi puntati sul Google I/O 2019 che andrà in scena nella prossima primavera.