Google vuole sentirci chiaro : ha attivato una nuova opzione di riconoscimento personalizzato per il suo servizio di comandi vocali Android Voice Search, che da ora dovrebbe essere in grado di migliorarsi con l’utilizzo e modellarsi sulla pronuncia e la tonalità di voce del singolo utente.
Disponibile per il momento solo per l’inglese e negli Stati Uniti, la soluzione trovata mostra un altro modo in cui Mountain View può sfruttare il cloud computing: gli utenti Android che sottoscriveranno l’ultima versione di Voice Search daranno il permesso di collegare la propria voce al loro account .
A questo punto il servizio inizierà a conservare sui server di Google le richieste vocali effettuate e da esse inizierà e studiare la voce dell’utente con le sue tonalità e la sua pronuncia, estrapolando da essa un modello di discorso ritagliato sull’utente e che gli permette di migliorare con l’esperienza la comprensione delle richieste effettuate . Il tutto, dice Google, con una linea di apprendimento “abbastanza veloce” e costante.
“Si tratta di un modello statistico – spiega Google – in cui vengono comparati gli input di ricerca con i modelli statistici del linguaggio in cui si cerca di individuare la correlazione più stretta. Il tutto è dunque migliorabile permettendo al sistema di sapere cosa si era detto in precedenza”.
La funzione di riconoscimento personalizzato, se il gioco non si ritiene valer la candela delle nuove considerazioni sulla privacy che nascono, può essere anche disabilitata in ogni momento attraverso Google Dashbord nella sessione “Lingua”.
La novità, inoltre, fa pensare all’interesse per questa nuova forma di interazione uomo-macchina da parte di Google: sullo stesso fronte ha recentemente inglobato (guardando all’altro lato della conversazione, comunicazione macchina-uomo) Phonetic Arts che fornisce un software di modulazione vocale per far parlare i computer.
Claudio Tamburrino