Meta AI permette di controllare i nuovi smart glasses Ray-Ban ed eseguire varie operazioni con i comandi vocali (solo in versione preliminare per gli utenti statunitensi). L’azienda di Menlo Park ha annunciato ora il supporto multimodale. Gli occhiali possono riconoscere gli oggetti inquadrati dalla fotocamera.
Riconoscimento oggetti e traduzione di testo
Meta AI è il nome dell’assistente virtuale che l’azienda di Manlo Park integrerà in tutti i prodotti e servizi. All’inizio del mese sono state annunciate nuove funzionalità IA per WhatsApp, Messenger, Facebook e Instagram. Era già disponibile per gli occhiali smart, ma aveva capacità limitate. Ora può essere sfruttato per eseguire attività più complesse, grazie al supporto multimodale.
Mark Zuckerberg ha mostrato alcuni esempi su Instagram. È possibile chiedere a Meta AI di scegliere un pantalone da abbinare alla camicia inquadrata dalla fotocamera da 12 megapixel dei Ray-Ban. L’assistente descrive quindi la camicia e fornisce un suggerimento. In questo caso, il comando vocale deve iniziare con “Hey Meta, look and…“.
Negli altri esempi viene chiesto all’assistente di aggiungere una didascalia all’immagine, riconoscere un frutto e tradurre un testo dallo spagnolo all’inglese. Un altro video dimostrativo è stato pubblicato su Threads dal CTO Andrew Bosworth.
Le conoscenze di Meta AI si fermano a dicembre 2022. L’azienda californiana ha comunicato che è stato avviato un test per l’accesso alle informazioni in tempo reale (ad esempio, i risultati sportivi, il valore delle azioni e le condizioni del traffico). Questa funzionalità è “alimentata in parte” da Bing. Gli utenti statunitensi devono installare l’ultima versione dell’app Meta View e seguire queste istruzioni.