Apple e altri colossi del mondo tech, tra cui Microsoft, Google, Meta e Amazon, hanno deciso di fare squadra per cercare di migliorare le tecnologie di riconoscimento vocale per le persone affette da disabilità. Il progetto si chiama Speech Accessibility Project ed è stato lanciato dall’Università dell’Illinois (UIUC).
Speech Accessibility Project per migliorare il riconoscimento vocale per i disabili
L’obiettivo esatto è quello di studiare e ottimizzare il modo in cui gli algoritmi di intelligenza artificiale possono essere sfruttati per il riconoscimento vocale per gli utenti con malattie che influenzano il linguaggio, come la SLA, la sindrome di Down e il Parkinson. Questo sta quindi a significare che Siri, Cortana, Assistente Google, Alexa e tutti gli altri assistenti potranno capire meglio quello che viene loro detto e lo stesso discorso vale per servizi di dettatura e traduzione.
Accessibility Project andrà a raccogliere campioni di vari discorsi da individui che rappresentano una diversità di modelli di linguaggio. L’UIUC recluterà volontari pagati per contribuire, aiutando a creare un set di dati che rimarrà privato e non identificabile, il quale potrà essere sfruttato per addestrare modelli di apprendimento automatico. Inizialmente il gruppo si concentrerà sull’inglese americano.
Riportiamo di seguito, in forma tradotta, quanto dichiarato in merito al progetto da Mark Hasegawa-Johnson, professore dell’UIUC.
Le interfacce vocale dovrebbero essere disponibili per tutti, e questo include le persone con disabilità. Questo compito è stato difficile perché richiede molte infrastrutture, idealmente del tipo che può essere supportato dalle principali aziende tecnologiche, quindi abbiamo creato un team interdisciplinare unico con esperienza in linguistica, linguaggio, intelligenza artificiale, sicurezza e privacy.
Da notare che di un’associazione americana, come Davis Phinney Foundation (per le persone affette da morbo di Parkinson’s) e Team Gleason (ALS), ha già espresso il proprio supporto per il progetto.