L’intelligenza artificiale di Alexa per l’accessibilità, con l’iniziativa Show and Tell presentata oggi da Amazon. L’obiettivo è quello di impiegare gli algoritmi alla base dell’assistente virtuale, integrato anche nei dispositivi della serie Echo, per riconoscere gli oggetti inquadrati dai sensori fotografici presenti, così da descriverli. Una tecnologia che può tornare utile, ad esempio, per chi soffre di problemi alla vista.
Alexa per l’accessibilità: Show and Tell
Il filmato in streaming di seguito con il quale il gruppo di Seattle annuncia il progetto è già di per sé piuttosto esplicativo: funziona posizionando un oggetto di fronte al device e ponendo un quesito come “Alexa, cosa ho in mano?”, per poi lasciare che l’IA risponda in pochi secondi. La disponibilità di Show and Tell è confermata da Amazon a partire da oggi per gli Stati Uniti con supporto agli smart display Echo Show di prima e seconda generazione. Con tutta probabilità arriverà in futuro anche in altri territori.
Lo sviluppo di Show and Tell è stato portato avanti con il contributo di alcuni dipendenti Amazon che soffrono di problemi alla vista e con il Vista Center for the Blind di Santa Cruz, raccogliendo così i feedback necessari al perfezionamento. L’obiettivo è quello di rendere Alexa sempre più funzionale e versatile, non solo per operazioni come la ricerca delle informazioni online o il controllo dei contenuti multimediali, ma anche nei piccoli gesti quotidiani che per alcuni possono risultare difficoltosi a causa di patologie o disabilità.