Meta rilascerà le funzionalità IA per i Ray-Ban Smart Glasses entro il mese di aprile. Attualmente l’accesso al supporto multimodale dell’assistente Meta AI è disponibile solo a pochi utenti statunitensi in versione preliminare. Due giornalisti del New York Times hanno effettuato un test sul campo.
Tecnologia interessante, ma migliorabile
Per attivare l’assistente e chiedere informazioni su ciò che viene inquadrato dalla fotocamera da 12 megapixel è necessario pronunciare le parole “Hey, Meta” seguite dal prompt, ad esempio “Look and tell me what kind of dog this is” (Guarda e dimmi che razza di cane è questo). L’utente ascolterà la risposta attraverso gli altoparlanti degli occhiali.
Due giornalisti del New York Times hanno testato le funzionalità IA per un mese in diversi luoghi, tra cui zoo, musei e negozi di alimentari. Il software di Meta trascrive le domande dell’utente e le risposte dell’assistente. I risultati sono stati ottimi in alcuni casi e deludenti in altri. Un portavoce dell’azienda di Menlo Park ha dichiarato che la tecnologia è nuova, ma migliorerà nel tempo.
L’intelligenza artificiale ha riconosciuto correttamente la razza dei cani dei due giornalisti, ma non tutti gli animali dello zoo di Oakland, probabilmente perché erano lontani e nascosti dalle gabbie. L’assistente ha invece fornito la risposta corretta quando il giornalista ha chiesto se un prodotto era senza glutine. Al museo non ha riconosciuto tutti i quadri, ma la funzionalità è stata successivamente migliorata con un aggiornamento software.
Infine, Meta AI può essere utilizzato per la traduzione in cinque lingue: italiano, inglese, tedesco, francese e spagnolo. Alcuni errati riconoscimenti dipendono dalla qualità della fotocamera. Il vero “limite” è rappresentato dal fatto che l’utente deve parlare con un assistente virtuale in pubblico.