Il machine learning al servizio dell’accessibilità con una nuova feature messa a punto da Google e destinata al browser Chrome. Si tratta di quella che interpreta il contenuto delle immagini in modo da renderle fruibili da chi ha problemi alla vista e anche se i contenuti non sono accompagnati da testi alternativi che li descrivono.
Chrome: il machine learning per l’accessibilità
La tecnologia è la stessa che da tempo permette di cercare le immagini su Google digitando le keyword relative a ciò che rappresentano. Agisce in modo molto simile a Lens, capace di analizzare cosa è raffigurato all’interno di una fotografia o quanto inquadrato dalla fotocamera dello smartphone per poi di conseguenza mostrare informazioni. Le immagini vengono caricate sui server di bigG per l’elaborazione. Nel caso in cui non fosse possibile interpretarle verrebbe semplicemente restituito il feedback “Nessuna descrizione disponibile”. Queste le parole di Laura Allen, Senior Program Manager del team di Chrome al lavoro sull’accessibilità.
Sfortunatamente in questo momento ci sono milioni e milioni di immagini senza etichetta sul Web. Navigando con uno screen reader o con un display Braille, incontrandone una, si sente semplicemente “immagine” o “grafica non etichettata” o, in alcuni casi, una stringa molto lunga di numeri che rappresenta il nome del file, del tutto irrilevante.
La funzionalità al momento è disponibile solo per gli utenti che navigano attraverso uno screen reader oppure mediante un display Braille. Per abilitarla è necessario accedere alle “Impostazioni” del browser, scorrere fino a incontrare “Avanzate” e infine abilitare l’opzione “Ottieni le descrizioni delle immagini da Google” all’interno della sezione “Accessibilità”. Il supporto è per ora garantito solo per la lingua inglese.