Microsoft, il gesto che comanda la macchina

Microsoft, il gesto che comanda la macchina

Redmond, con i suoi ricercatori, sta mettendo a punto interfacce gestuali sempre più complesse e sofisticate: presto potrebbero soppiantare mouse e tastiera
Redmond, con i suoi ricercatori, sta mettendo a punto interfacce gestuali sempre più complesse e sofisticate: presto potrebbero soppiantare mouse e tastiera

Chi ricorda Tom Cruise nel film Minority Report mentre dialoga con il sistema informatico PreCrime, semplicemente gesticolando? Nella pellicola di Spielberg l’attore americano non utilizza nè mouse nè tastiera ma semplicemente gesture che gli permettono di effettuare operazioni piuttosto complesse. Quello che poteva sembrare fantascienza, era il 2002, oggi potrebbe diventare realtà grazie alle ricerche di Microsoft nel campo del motion-tracking . Nel laboratori di Redmond sparsi qua e là per il mondo, infatti, si stanno mettendo a punto algoritmi e interfacce gestuali sempre più complesse che forse un giorno potrebbero rendere superflue le periferiche che usiamo abitualmente.

Andrew Fitzgibbon all'opera con una delle sue ultime creazioni

Uno dei team di ricerca ha sede operativa a Cambridge in Inghilterra, è guidato da Andrew Fitzgibbon e vede anche la partecipazione di una ricercatrice italiana, Federica Bogo. Qui, recuperando i risultati di un lavoro del 1940, hanno messo a punto un algoritmo che traccia con estrema precisione il movimento delle mani . Microsoft non è nuova a questo genere di innovazioni: basti pensare all’avveniristico controller ludico Kinect , lanciato nel 2009 e basato sul movimento del corpo. Di recente, poi, Redmond ha svelato un’altra interessante innovazione che si ispira all’interazione cosiddetta non-tattile: il display pre-touch, in cui non è necessario toccare fisicamente la superficie per impartire un comando ma semplicemente avvicinare il dito nel punto prescelto.

Insomma, nella visione futura del colosso statunitense si potranno utilizzare le mani per prendere un oggetto, toccare, plasmare, premere un pulsante e far scorrere un cursore, tutto all’interno di un ambiente virtuale e con tempi di latenza assolutamente trascurabili. Jamie Shotton, uno dei ricercatori coinvolti nel progetto di Microsoft, spiega che si è raggiunto un livello di accuratezza tale che l’utente quasi percepisce la mano dell’avatar come fosse la propria . I risultati parziali di questo lavoro sono stati diffusi in un video che mostra le mani dell’operatore alle prese con leve, slider, cursori, tastiere e quant’altro, nonché il livello elevato di precisione nel tracciamento del movimento delle mani. Contrariamente a quanto si possa pensare, proseguono i ricercatori, il funzionamento di un sistema del genere non richiede hardware particolarmente potente, bastando un sensore in grado di rilevare immagini in 3D. E al momento si tratta di tecniche e tecnologie tuttora in fase di studio, che presentano ancora ampi margini di potenziamento e ottimizzazione.

Luca Barbieri

fonte immagine

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
30 giu 2016
Link copiato negli appunti