Tutti siamo abituati ad utilizzare i comandi vocali per interagire con gli assistenti digitali attualmente sul mercato. Purtroppo molte persone non possono farlo perché sono affette da disturbi del linguaggio. Per questo motivo è stato stato avviato lo sviluppo di algoritmi più complessi che permetteranno ad Alexa e Siri di riconoscere le parole pronunciate lentamente o in modo poco chiaro.
Alexa e Siri accessibili a tutti
Gli assistenti digitali riconoscono la voce umana perché l’intelligenza artificiale è stata addestrata con milioni di file audio. Ma quando un utente parla troppo lentamente o in maniera poco chiara, come accade per le persone affette da balbuzie o disartria, Alexa e Siri non riescono a comprendere le loro richieste.
Amazon ha iniziato ad aggiornare la sua tecnologia con l’aiuto di Voiceitt, una startup israeliana che sviluppa un algoritmo di riconoscimento vocale in grado di rilevare i disturbi del linguaggio. Nei prossimi mesi sarà possibile interagire con Alexa, utilizzando l’applicazione di Voiceitt.
Apple offre oggi la funzionalità Hold to Talk che permette agli utenti di controllare per quanto tempo Siri deve rimanere in ascolto. L’azienda di Cupertino ha ora avviato lo sviluppo di una tecnologia che rileva automaticamente le balbuzie, grazie all’addestramento effettuato con una banca dati composta da 28.000 clip audio ricavate dai podcast.
Una simile iniziativa, denominata Project Euphonia, è stata avviata anche da Google. L’obiettivo è migliorare il riconoscimento vocale di Google Assistant tramite clip audio registrate da volontari. Si tratta tuttavia di un compito piuttosto difficile per un’intelligenza artificiale. Ma prima o poi gli assistenti digitali saranno accessibili a tutti.