L’assistente personale di Apple ha avuto una meritata attenzione in occasione del recente WWDC2017 . Dal 2010, anno dell’ acquisizione della software house che ha donato la vita a Siri, gli sforzi sono stati molteplici e altrettanti gli investimenti (l’ultimo valutato in 200 milioni di dollari risale a poche settimane fa con l’acquisizione di Lattice Data , specialista in intelligenza artificiale, e ne seguiranno altri ). La battaglia al miglior assistente personale è però lontana dall’essere vinta contro competitor agguerriti come Google Assistant, Amazon Alexa e Microsoft Cortana solo per citare i tre principali.
Tutti questi player hanno da tempo sviluppato hardware che montano a bordo le loro creature, nel tentativo di entrare negli ambienti domestici sotto nuove spoglie instaurando con gli utenti un nuovo rapporto basato sull’interscambio vocale (Google Home, Amazon Echo sono i due esempi più riusciti, ma anche Cortana si è nel tempo incarnata in uno speaker firmato Harman Kardon). Apple è rimasta fino ad oggi ancorata ai dispositivi mobile, al suo amato iPhone, evidenziando lacune su quello che dovrebbe essere il cuore di questo tipo di assistenti: il riconoscimento, ma soprattutto l’interazione vocale .
Solo ora ha presentato HomePod , uno speaker che sarà disponibile da dicembre, ma che per stessa ammissione di Apple è più orientato alla musica che a risolvere problemi e fornire assistenza . Sul sito di presentazione non a caso viene descritto così: “HomePod è un potente e straordinario speaker che si adatta a tutto e assieme ad Apple Music ti consente di accedere senza sforzo a uno dei più grandi cataloghi musicali del mondo. Tutto controllato attraverso l’interazione vocale naturale con Siri. Porta l’esperienza di ascolto ad un livello completamente nuovo. E questo è solo l’inizio”.
È chiaro quindi che la strada da percorrere su machine learning e intelligenza artificiale è ancora tutta in salita. Tanto che alcuni ricercatori, come Oren Etzioni della Allen Institute per l’AI avanzano perplessità sul fatto che l’attuale Siri sia veramente “intelligente”: “Apple ha il riconoscimento vocale, ma non è chiaro dove altro il machine learning possa aiutare. Fateci vedere nei vostri prodotti dove il machine learning viene impiegato”. Altri , come l’analista Gene Munster, sono ancora più pungenti affermando che “l’intelligenza artificiale non è nel DNA di Apple”.
In realtà sono tantissimi i prodotti e servizi della mela morsicata basati su deep learning (ad esempio per evitare le frodi nello store, aumentare la durata della batteria, aiutare a identificare i feedback più utili da migliaia di beta tester) e ancora sul machine learning che aiuta Apple a presentare le migliori storie che rispecchiano gli interessi dell’utente, oppure su Apple Watch a capire se l’utilizzatore si sta veramente allenando. Il suo impiego avviene anche nel riconoscimento di visi e luoghi nelle foto e nel valutare se il segnale WiFi è così da debole da preferire la connessione tramite rete cellulare e perfino nel montaggio automatico di mini video.
La situazione non sarebbe quindi così catastrofica, seppur richieda da parte di Apple nuovi sforzi e probabili cambi di strategia. Potando a casa quanto di buono fatto, dalla recente presentazione dovrebbe essere migliorato molto il grado di interazione tra Siri e le funzionalità di iOS11 . Questo si traduce in tanti utili gadget che seducono l’utente finale: proposta di traduzione di termini in lingua straniera, notifiche sulla base della propria agenda o informazioni sui mezzi di trasporto (come ad esempio un volo che sta arrivando e via dicendo), facilitazioni nella ricerca di foto, informazioni su condizioni meteo e traffico puntuali, miglior valutazione del contesto ecc. Anche la nuova voce più naturale che ora esce dalla bocca di Siri è un piccolo goal messo a segno.
Per Apple si aprono nuove sfide, in un contesto dove innovare è sempre più difficile. I dati degli utenti, avidamente fagocitati, rappresentano dell’ottimo carburante per l’intelligenza artificiale su cui Apple finora non ha potuto fare affidamento, fedele com’è alla sua ferrea politica di rispetto della privacy . Ma l’origine dei problemi, come lo stesso team Apple riconosce, è da cercare anche altrove. L’ abbandono di numerosi membri della squadra migrati verso i competitor (primi tra tutti i cofondatori di Siri Adam Cheyer e Dag Kittlaus passati a Viv , ora di Samsung) e il ritardo nell’apertura agli sviluppatori terzi (avvenuta sostanzialmente solo lo scorso anno) hanno sicuramente giocato la loro parte.
Visti gli ingenti investimenti Apple non sembra intenzionata a mollare l’osso. Anche se al momento si deve accontentare di rimanere in coda. Attenendosi ad alcuni test di laboratorio Siri ha dimostrato di rispondere correttamente al 62 per cento delle 5.000 diverse domande poste contro il 90 per cento di Google Assistant e Amazon Alexa. E questo è un dato di fatto a cui Apple difficilmente potrà ribattere.
Mirko Zago