In occasione della Global Accessibility Awareness Day, Apple ha annunciato nuovi funzioni di accessibilità per iOS e iPadOS. Grazie alla dotazione hardware dei dispositivi e all’intelligenza artificiale, gli utenti con disabilità fisiche potranno eseguire diverse operazioni con facilità. Altre novità sono in arrivo per CarPlay e visionOS.
Navigazione con tracciamento degli occhi
La funzionalità più avanzata è denominata Eye Tracking. Per la prima volta è possibile controllare iPhone e iPad con gli occhi, senza accessori o hardware esterno. Usando la fotocamera frontale e l’intelligenza artificiale (nessun dato viene inviato al cloud), gli utenti possono navigare attraverso gli elementi di un’app e usare i Dwell Control per eseguire scrolling, swiping, clic e altre gesture.
Music Haptics permette invece agli utenti con problemi di udito o non udenti di “ascoltare” i brani musicali di Apple Music attraverso il tatto. Il Taptic Engine dell’iPhone riproduce il suono tramite vibrazioni. Vocal Shortcuts consente di eseguire vari operazioni, come l’avvio di un’app, assegnando espressioni vocali (ad esempio un semplice “ah”) che verranno interpretate da Siri.
Vehicle Motion Cues è la funzionalità sviluppata per le persone che soffrono di mal d’auto. Per ridurre la chinetosi vengono mostrati sullo schermo alcuni puntini animati che seguono il movimento del veicolo (ad esempio si spostano a destra, quando l’automobile gira a sinistra).
Apple aggiungerà inoltre tre funzionalità a CarPlay: Voice Control (controllo vocale), Color Filters (scelta dei colori per l’interfaccia) e Sound Recognition (notifiche sullo schermo per sirene e clacson). Tra le funzionalità che arriveranno su visionOS c’è quella che consentirà di visualizzare i sottotitoli in tempo reale durante le conversazioni audio con FaceTime.