Berlino – Il mercato dei PC è in stagnazione, colpito ai punti vitali dall’esplosione del fenomeno mobile: un fenomeno reso inevitabile dall’aumento lineare della capacità di calcolo racchiusa in sistemi sempre più piccoli, controllabili con nuove formule di input gradualmente sempre più naturali. Prima la tastiera, poi il mouse, poi il tocco, ora anche la voce con la proliferazione degli assistenti personali: la strada verso il Perceptual Computing è stata aperta , e la crescita di nuove forme di interfaccia utente potrebbe riservare per l’industria e i consumatori anche qualche sorpresa. Come una nuova primavera dei Personal Computer.
Introdurre su vasta scala il Perceptual Computing equivale a ridefinire il rapporto consolidato instaurato tra macchine e utenti. Siamo abituati a formule di input rigidamente definite, costretti a misurarci con linguaggi da imparare e metafore da adottare per riuscire a impiegare al meglio le capacità dei semiconduttori. Ma cosa accadrebbe se queste complicazioni sparissero, assorbite da una macchina dotata della capacità di comprendere le più sottili sfumature del linguaggio (parlato e fisico) degli esseri umani? La dematerializzazione dei dati è già quasi una realtà, col proliferare delle soluzioni cloud: la scomparsa delle interfacce uomo-macchina tradizionali, sostituite da un approccio “naturale”, potrebbe diventare realtà entro una decina di anni.
Una vita spesa alla corte del microprocessore x86: Mooly Eden , oggi vicepresidente di Intel, ha iniziato a scalare i ranghi di Santa Clara nel 1982. Dopo aver contribuito al lancio di piattaforme molto significative nella storia del chipmaker, una su tutte Centrino che di fatto ha trasformato i laptop in un fenomeno di massa, ora la sua carica ufficiale è quella di “general manager Perceptual Computing”: un segnale che Intel fa molto sul serio in questo campo, vi ha schierato uno dei suoi uomini migliori e ha investito decine di milioni di dollari nello sviluppo hardware e software. Il risultato sono tre diverse fotocamere 3D, destinate a tre diversi formati di device: i primi esempi dell’applicazione di questa tecnologia arriveranno già alla fine dell’anno, probabilmente in coincidenza con il CES 2015 a Las Vegas; ma le implicazioni per l’industria e per l’utente finale sono evidenti si da ora. Mooly Eden, ha accettato di parlarne con Punto Informatico in occasione dell’IFA di Berlino.
Punto Informatico: La sfida delle interfacce naturali è stata lanciata molti anni or sono, Bill Gates ne parla dal secolo scorso in pratica. Ci sono molte aziende impegnate nello sviluppo delle proprie soluzioni, legate al touch e alla voce. Non c’è il rischio che ciascuna di esse sviluppi il proprio “vocabolario” per le proprie applicazioni, costringendo poi l’utente a dover apprendere questi nuovi linguaggi per adottare uno o più di questi nuovi prodotti?
Mooly Eden: Quando parliamo di Perceptual Computing, mettiamo subito in chiaro tre parole chiave: natural, intuitive e immersive . Non devi leggere una guida per usarlo: devi solo usarlo, appunto. Quando noi due parliamo, non abbiamo bisogno di imparare a farlo: ci vediamo e parliamo, semplicemente. Il fulcro della domanda è l’idea di costruire un vocabolario: e perché farlo? Se lo facessimo, l’operazione perderebbe di intuitività: la nostra sfida è progettare questi strumenti in modo tale che quando ti ci accosti siano completamente intuitivi.
PI: In che modo?
ME: Il primo strumento di interazione ovvio nel percorso di interfaccia è la voce: l’inglese, come lingua veicolare, è inglese sia che lo strumento tecnologico lo sviluppi Microsoft, o Qualcomm, o Google, o Intel. Il linguaggio è sempre lo stesso, e qualcosa di simile vale anche per i gesti: cerchiamo di riprodurre i gesti che si usano nella vita di tutti i giorni. Ad esempio: per dire “stop” ( mima con la mano il segno col palmo verso l’interlocutore , ndr) fai semplicemente così.
PI: Qual è il punto di non ritorno, per così dire, il requisito minimo affinché tutto questo funzioni?
ME: C’è un punto a cui miriamo: fare in modo tale che il computer impari a conoscerti e riconoscerti allo stesso modo in cui lo farebbe un essere umano. Guardando un interlocutore io sono in grado di interpretare alcuni segnali: per esempio se sto facendo domande interessanti, dando risposte intelligenti. Leggo il suo viso e capisco. Oggi siamo in grado di leggere 68 punti del viso tramite il computer: possiamo capire se sorridi, se sei felice, se sei infelice, se sei annoiato ( vedi video sottostante, ndr ). Il computer imparerà a comprendere chi si trova di fronte anche in base all’espressione del viso, che è qualcosa di slegato da culture differenti di popoli differenti.
PI: Quindi è questo l’approccio generale seguito da Intel.
ME: Stiamo cercando di farlo nella maniera più naturale possibile. Se lo stiamo facendo bene o male sarà l’utente a stabilirlo, ma l’obiettivo è rendere il computer in grado di capirti, comprenderti, comunicare allo stesso modo in cui lo fanno gli esseri umani.
PI: Cosa succede con le forme di comunicazione più sottili, per esempio il sarcasmo? Ci sono circostanze in cui la comunicazione è fatta di sfumature.
ME: Certamente è una sfida, e per questo ci piace: in termini tecnici qui stiamo parlando di “multi-modalità” della comunicazione; mentre parliamo tu mi ascolti, ma mi guardi anche, osservi il mio linguaggio del corpo. Sviluppando la nostra tecnologia stiamo puntando proprio a questo, alla multi-modalità: lo sviluppo naturalmente non sarà immediato e richiederà anni, ma l’approccio sarà sempre più naturale e spontaneo e lo scopo finale, il nirvana, sarà permettere di comunicare col computer allo stesso modo in cui si comunica con un essere umano. Così come quando si parla con qualcuno non c’è bisogno di “aver fatto i compiti a casa”, allo stesso modo non sarà necessario imparare nulla per iniziare a usare una macchina. PI: Non ci sono dei limiti legati alla capacità di calcolo? Forse non abbiamo ancora raggiunto il livello necessario a sostenere appieno questo cambiamento.
ME: Questo è un punto interessante: molti ci chiedono perché ci stiamo muovendo adesso, e non l’abbiamo fatto 2 o 3 anni fa. È proprio questo il punto: 3 o 4 anni fa non avevamo abbastanza capacità di calcolo, in molti volevano seguire questo approccio, film come Minority Report, Star Trek, scrittori come Asimov, ne parlano da anni e anni. Ma non avevamo abbastanza potenza per rendere realtà questi sogni. Quello che mostriamo nei nostri demo è qualcosa di già visto nei film di fantascienza, niente che mostriamo non è già stato mostrato al cinema: il nostro lavoro è trasformare la fantascienza in scienza, eliminando la fantasia.
PI: A che punto siamo con questo processo?
ME: Siamo sul punto di avere abbastanza potenza per fare tutto questo: ma ci sono esempi pratici che dimostrano ancora quanta strada c’è da fare. Uno tra i tanti: posso prendere una delle nostre fotocamere 3D, prenderti le misure e provare a realizzare un vestito basandomi su questi dati. Come ti andrà il vestito? Se si guarda attentamente quanto indossiamo, si può notare che ci sono pieghe nel tessuto, che non tutti i capi “cadono” uguali addosso. Quindi per fare una misurazione corretta sarebbe necessario effettuare decine di misurazioni per ore, e cambiando il tessuto con cui confezionare l’abito tutto finirebbe per essere diverso, e ci vorrebbero misure diverse per confezionare il vestito. Sono sicuro che in futuro sarà possibile restare seduti comodamente a casa e fare shopping virtualmente, ma non è possibile farlo ancora oggi per i motivi che ho appena spiegato. Certamente l’atto di uscire per andare a fare shopping non sparirà, viste le implicazioni sociali che ha, ma sicuramente lo shopping virtuale arriverà.
PI: Con che velocità ci avviciniamo a quel momento?
ME: Questo è un perfetto esempio di quanta potenza di calcolo ci manchi per svolgere alcuni compiti: già oggi siamo in grado di mettere 2 miliardi di transitor in un chip, tra 2 anni saranno 4, poi 8 e così via: siamo sulla buona strada per coprire la distanza che ci separa da un cervello umano.
PI: Ma è solo una questione di transistor, o c’è anche il fattore architettura, design della CPU in ballo? C’è differenza tra la struttura di un cervello e quella di un transistor.
ME: La Legge di Moore dice che ogni due anni raddoppiano il numero di transistor in un chip: oggi siamo a 2, poi 4, 8, 16, 32, 64, 128 ( conta sulle dita di una mano , ndr)… Quanti anni fa? In 12 anni avremo eguagliato il numero di neuroni nel cervello di una persona, circa 100 miliardi.
PI: Sempre che non ci si scontri con qualche ostacolo tecnologico sul cammino.
ME: In Intel parliamo di limiti fisici da 20 anni, ed è vero che in certe circostanze potremo essere costretti a cercare soluzioni alternative: dovremo senz’altro fare i conti col numero di atomi necessari a svolgere un compito, ma riusciremo ad andare avanti. Semmai la vera questione è il numero di connessioni: ogni neurone nel cervello è collegato dalle sinapsi con migliaia di altri neuroni, mentre un transistor non arriva a 10 interconnessioni con altri transistor.
PI: Come si supera questa differenza?
ME: Il cervello umano lavora a circa 750 hertz, i nostri processori allo stato attuale lavorano a 3 o 3,5 miliardi di operazioni al secondo: quindi a una velocità enormemente superiore. Poi ci sono naturalmente in corso esperimenti per superare la tradizionale architettura di Von Neuman, avvicinando i processori e i computer a qualcosa di più simile al cervello umano. Col passare del tempo ci saranno sempre di più di queste architetture che tentano di imitare il cervello umano: al momento si tratta di ricerche scientifiche più che applicazioni commerciali, ma credo che in una ventina d’anni ci saranno sviluppi interessanti in tal senso.
PI: Un concetto che ricorda molto da vicino la “singolarità” descritta da Ray Kurzweil.
ME: In effetti la sua è una predizione simile a quella della Legge di Moore, che fissa una data per quando arriverà il momento in cui un computer avrà una capacità analoga a quella di un cervello umano. Kurzweil poi è andato anche oltre, predicendo l’avvento di un computer in grado di avere capacità analoghe a quelle dell’intera umanità: secondo lui quella sarà la fine dell’homo sapiens. E questa sembra fantascienza oggi, ma in questo ( afferra lo smartphone che ha sul tavolo davanti a lui , ndr) c’è molta più potenza e tecnologia di quanta ce ne fosse sul modulo che ha portato l’uomo sulla Luna! Se si guarda alla velocità, al passo con il quale la tecnologia si è andata evolvendo in questi anni, si rimane stupefatti: 20 anni fa non avevamo Internet praticamente! PI: Crede che questo nuovo modo di intendere la tecnologia, lo sviluppo della tecnologia e il modo in cui le persone vi si relazionano, cambierà anche il modo in cui Intel porta avanti i propri affari?
ME: Assolutamente sì. Dalla potenza pura, che sarà relegata a questioni relative al mercato enterprise, ci stiamo muovendo sempre di più verso un concetto di “user experience”: non è più questione di offrire 5 volte le performance della generazione precedente, si tratta di offrire un’esperienza d’uso migliore. Certo questo sottintende delle performance, ma alla fine dei conti la questione è cosa farci con tutta questa potenza.
PI: Adattarsi o morire.
ME: È per questo che il business model di Intel andrà evolvendosi e cambiando, per includere wearable computing, Internet Of Things, ovviamente senza dimenticare PC e server. Ma diciamo anche un’altra cosa: non cambierà solo il modo in cui Intel porta avanti i suoi affari, la tecnologia cambierà il modo in cui le persone portano avanti la propria vita.
PI: Le prime applicazioni di questa nuova tecnologia sono però tutte improntate a formati tradizionali, soprattutto o quasi unicamente PC e laptop: non si vedono in giro neppure prototipi legati a questi temi di apparecchi mobile o wearable.
ME: È sbagliato pensare a questo progetto come una camera stagna: le implicazioni del Perceptual Computing si estenderanno a tutti i rapporti con la tecnologia, lo stereo di casa sarà controllato con dei gesti della mano, il frigorifero di casa avrà dei sensori che individueranno i cibi presenti e quelli che mancano.
PI: Ma questa ultima non è un’applicazione della cosiddetta Internet Of Things?
ME: Certo, ma per realizzare certe funzioni ci sarà bisogno di sensori come quelli che stiamo sviluppando qui, e se è vero che un frigorifero connesso è Internet Of Things, l’interfaccia per il suo utilizzo passerà necessariamente per il Perceptual Computing. Pensiamo alla radio: un tempo non c’erano stazioni memorizzate, c’era soltanto la manopola da girare per sintonizzare a orecchio la frequenza giusta, ma poi la tecnologia è entrata in gioco. Lo stesso succederà gradualmente in tutti i settori, pensiamo all’automobile: tra 10-15 anni nessuno guiderà più un’auto, perché sarà ritenuto insicuro.
PI: Siamo italiani, dovrà convincerci a farlo.
ME: Ci vorrà un attimo: se vuoi guidare per dimostrare che sei un macho e guidi in modo sportivo, posso programmare un computer per farlo al posto tuo, ma farlo in modo sicuro. Ci sono punti ciechi in un auto, a volte il guidatore è stanco, nervoso, magari ha bevuto: ci sarà un’interfaccia per dire all’auto dove andare e come, ma non ho dubbi che sarà questo lo scenario entro pochi anni. Vetture autonome.
Ed è già realtà: pensiamo agli aeroplani, chi ha un minimo di familiarità con gli aerei sa che ormai il pilota automatico gioca un ruolo chiave nel viaggio. Chi assiste alle procedure di volo dalla cabina di pilotaggio sa che il grosso del lavoro consiste nelle comunicazioni tra terra e chi è al timone, e quest’ultimo si limita a ruotare una manopola e selezionare le indicazioni giuste per il pilota automatico: paradossalmente è proprio la parte della comunicazione con i controllori la più rischiosa, è lì che si possono annidare gli errori. Perché non limitarsi a inviare un segnale da terra e settare automaticamente gli strumenti di bordo?
PI: Quindi in un certo senso il Perceptual Computing sarà l’interfaccia utente della Internet delle Cose?
ME: Io credo che sarà l’interfaccia del computing in assoluto: oggi il principale limite alla miniaturizzazione dei PC è la presenza degli schermi e delle tastiere, che sono ormai gli elementi più grossi che compongono lo strumento. E sono l’interfaccia. Nel momento in cui riusciremo a fare a meno della tastiera e dello schermo, allora riusciremo a fare un grosso passo in avanti nelle dimensioni dei PC.
PI: Come quando si parla di PC “spariti” dalle nostre vite, inglobati nei muri e in uno specchio, o una finestra.
ME: Stanno “sparendo dappertutto”, per così dire: non li vedo ma sono ovunque, e sono una delle ragioni per cui stiamo investendo tanto nella Internet Of Things e nel Perceptual Computing. Nel 2020 si prevede ci saranno 15 miliardi di dispositivi connessi e non è un segmento che si possa ignorare
PI: Non la preoccupano le implicazioni per quanto riguarda la sicurezza?
ME: Siamo molto preoccupati di questo: un cyberattacco sarà rivolto a un dispositivo remoto, banale, “stupido”, che passerà l’infezione al telefono, da questo al server, facendosi strada nei sistemi. Siamo consapevoli dell’enormità dell’esposizione, e tratteremo la materia con la massima attenzione. PI: C’è poi il capitolo software.
ME: La ragione per cui abbiamo creato un SDK per la nostra tecnologia RealSense da aprire agli sviluppatori è per promuovere e invogliare la creazione di prodotti innovativi in questo settore, con risultati ora neppure immaginabili.
PI: State investendo davvero molto in questo senso.
ME: Se guardo al mio team, il team Perceptual Computing, siamo al 70 per cento software e solo al 30 per cento hardware.
PI: Eppure storicamente siete una hardware-company.
ME: Assolutamente no! È storia vecchia quella: Intel è una delle più grandi software-company del mondo, la numero 8 nelle classifiche globali! Abbiamo moltissimi uomini e donne che si occupano di software in azienda: le persone continuano a pensare a noi come “quelli dei microprocessori”, ma se pensate a tutti gli algoritmi, i middleware… se vuoi offrire un prodotto completo devi pensare all’intera piattaforma, e il caso del Perceptual Company, del mio team, è il perfetto esempio di questa tendenza e di questo approccio.
PI: Un problema di percezione.
ME: Scrivere software ovviamente non significa solo scrivere prodotti destinati al consumatore finale: Intel produce molti SDK, per consentire agli sviluppatori di accedere a delle API semplici per sfruttare al massimo le capacità dell’hardware. Il tutto provando anche a essere agnostici rispetto alla piattaforma software finale che verrà utilizzata, che sia essa Windows o Android. Scendere fino al “metallo” per ottimizzare può essere sfidante, soprattutto se si sta lavorando a software già complicato come i videogame: essere costretti a farsi strada attraverso diversi strati di software fino all’hardware è un lavoro lungo, e non dover essere costretti a riscrivere da capo interi algoritmi può migliorare l’adozione di una tecnologia. È sbagliato pensare a noi come una hardware-company: sicuramente lo siamo, ma siamo anche molto impegnati nel settore del software.
PI: Quanto è complesso lo sviluppo della tecnologia RealSense e dei sensori 3D che vi apprestate a lanciare?
ME: Probabilmente il dispositivo più complesso che ho avuto per le mani in tutta la mia carriera. Ci sono i sensori, ci sono i laser, ci sono le ottiche: tutte e tre sfide complicate da sole, che poi vanno combinate tramite software per riuscire a realizzare l’immagine tridimensionale desiderata.
PI: C’è domanda per questi dispositivi che avete sviluppato?
ME: Tutti i più importanti OEM saranno a bordo al momento del lancio, tutti stanno preparando un prodotto. Abbiamo già mostrato dispositivi Asus e Lenovo, ma nel Q1 2015 ci saranno molti altri prodotti: tutti i nomi più importanti saranno della partita.
PI: Che tipo di rapporto c’è tra lo sviluppo di questa tecnologia e il lancio di Kinect da parte di Microsoft? In effetti è stata la prima dimostrazione su larga scala di utilizzo di linguaggio naturale e di quello che può essere definito come Perceptual Computing.
ME: Quanti anni ha Kinect? noi abbiamo iniziato il lavoro su questa tecnologia quattro anni fa ( Kinect è stata lanciata nel 2010 , ndr), ma nel caso di Kinect il lavoro di riconoscimento è più relativo alla struttura dello scheletro, con scopi legati ai videogame. Resta un ottimo esempio che dimostra come si possano usare i gesti per controllare un device invece di usare un controller tradizionale per l’input. Attenzione, questo non è un settore dove esista una contrapposizione: va dato atto a Microsoft per quanto ha ottenuto, ma da parte nostra abbiamo investito moltissimo per riuscire a sviluppare questa tecnologia con caratteristiche molto avanzate, parliamo di anni di lavoro e decine di milioni di dollari. Il costo per sviluppare questi prodotti è alto, mentre per i consumatori il costo finale sarà relativamente basso: la nostra speranza per rientrare dell’investimento è che questo tipo di innovazione spinga i consumatori ad acquistare più PC.
PI: Quindi le sorti di Intel sono sempre legate alle sorti del PC. Non c’è il timore che il calo dei prezzi di questi ultimi possa danneggiare il business di Intel?
ME: Di certo lo scorso anno non è stato uno dei migliori per il mercato PC. Il numero di previsioni che dava per spacciato questo settore era molto alto, eppure niente è successo davvero: alla fine il mercato dei PC si è stabilizzato, potrebbe addirittura crescere quest’anno. In circolazione ci sono parecchie macchine datate, e guardando al ciclo di vita e di sostituzione dei PC ormai abbiamo raggiunto valori di 4 o 5 anni prima che il consumatore sostituisca il suo Personal Computer. Ma introducendo ed evolvendo tecnologie come questa, si può spingere i consumatori a cambiare PC più spesso: è una scommessa che punta a rivitalizzare il settore, ci sono sviluppi interessanti per l’istruzione, per la comunicazione e collaborazione aziendale, tutti stimoli che possono rilanciare le vendite di tutto l’ecosistema PC. Noi abbiamo tutto da guadagnarci da una situazione del genere, e non siamo timidi nell’ammetterlo.
PI: Quindi il Perceptual Computing è un acceleratore, non una nuova forma di business?
ME: Volendo si può anche interpretarlo come un nuovo business, ma qui non si tratta di sostituire un modello esistente – che siano PC o tablet – si tratta di migliorare l’interazione dell’uomo con la macchina. Per garantire un avanzamento significativo nell’esperienza d’uso.
a cura di Luca Annunziata