L’importanza di Alexa è sempre più centrale e fondamentale per Amazon, come testimonia l’integrazione dell’assistente virtuale nella gamma di nuovi dispositivi presentati nella serata di ieri dal gruppo di Bezos. L’intenzione è quella di rendere l’IA pressoché onnipresente, supportando al tempo stesso la creatività e la fantasia delle terze parti. A tale scopo nasce Alexa Presentation Language.
Alexa Presentation Language
Si tratta a tutti gli effetti di un linguaggio di programmazione rivolto alla community di sviluppatori e studiato in modo da consentire la creazione di voice skill per Alexa, incentrate in particolare sulla gestione dei contenuti multimediali. Funzionalità dunque basate sulla voce dell’utente, ma che come risultato forniscono un output visivo che può essere un’immagine, uno slideshow, un video e così via. Device come il nuovo Echo Show saranno ovviamente i primi a beneficiarne. Così Paul Cutsinger, responsabile Amazon per Echo e Alexa, introduce l’iniziativa con un suo intervento.
Siamo entusiasti di annunciare oggi l’anteprima di un nuovo design language e di strumenti che renderanno semplice creare skill di Alexa visivamente evolute per decine di milioni di dispositivi e schermi. L’Alexa Presentation Language vi permette di realizzare esperienze vocali interattive che includono grafiche, immagini, slideshow e video, da personalizzare per ogni tipologia di device.
Deliver voice-first multimodal experiences on Alexa-enabled devices with screens. Learn about the new Alexa Presentation Language and apply for the developer preview: https://t.co/aUf0pV2lER pic.twitter.com/p81uE4Uo0X
— Alexa Developers (@alexadevs) September 21, 2018
Grazie agli strumenti offerti da APL gli sviluppatori saranno in grado di creare applicazioni con funzionalità basate sui comandi vocali, per l’interazione con dispositivi come quelli della gamma Fire TV, i tablet di Amazon e gli speaker della linea Echo. Entro i prossimi mesi arriveranno inoltre gli SDK Smart Screen e TV Device per renderle compatibili anche con prodotti di terze parti.
Comandi vocali ed elementi visivi
Facciamo un esempio concreto: se con gli smart speaker è già oggi possibile chiedere all’assistente virtuale di spiegare passo passo come si prepara una pietanza in cucina, l’aggiunta dell’elemento visivo sicuramente può essere d’aiuto. Dunque, chiedendo “Alexa, come si prepara un’omelette?”, anziché limitarsi ad ascoltare gli step necessari a finalizzare la ricetta, potranno essere mostrate le fotografie o le clip delle varie fasi sul display, semplificando il tutto.
Amazon ha intenzione di offrire agli sviluppatori una grande libertà d’azione, consentendo loro di personalizzare le esperienze in ogni parte, ad esempio nel posizionamento degli elementi grafici sullo schermo, anche in base alle capacità di elaborazione di ogni singolo dispositivo. Per semplificare l’approccio con Alexa Presentation Language viene ovviamente fornita documentazione ed esempi a cui far riferimento.
APL è ora disponibile sotto forma di preview, con alcune limitazioni in termini di funzionalità come l’ancora assente supporto per video, audio e contenuti HTML5, che in ogni caso arriverà a breve. Alcune realtà di terze parti hanno già avuto modo di sperimentarne le potenzialità: è il caso di CNBC che a richiesta mostra un grafico con l’andamento dei titoli sul mercato azionario, di Big Sky con le previsioni meteo per una determinata località, di NextThere per consultare gli orari del trasporto pubblico, di Kayak con gli slideshow delle destinazioni di viaggio e di Food Network per chi desidera mettersi ai fornelli imparando nuove ricette.
Create delightful screen-based devices with Alexa using the new Alexa Smart Screen and TV Device SDK and dev kit: https://t.co/hp0fDHKITb pic.twitter.com/CGtERgPuas
— Alexa Developers (@alexadevs) September 20, 2018