Gli occhiali smart Ray-Ban Meta si arricchiscono di tre nuove funzioni. Gli utenti del programma di accesso anticipato potranno conversare dal vivo con l’assistente AI e sfruttare le traduzioni in tempo reale. Per tutti, invece, arriva il supporto a Shazam per riconoscere le canzoni.
Zuckerberg aveva mostrato in anteprima l’AI e le traduzioni live durante l’evento Meta Connect di quest’anno. Ora quelle funzionalità sono diventate realtà.
Occhiali Ray-Ban Meta: AI e traduzioni dal vivo
D’ora in avanti, si potrà parlare in modo naturale con l’assistente AI di Meta. Ad esempio, mentre si fa la spesa al supermercato, l’assistente capisce al volo l’ambiente circostante e interagisce di conseguenza. Ad esempio, se gli si fa vedere della carne o delle verdure, l’AI consiglierà subito qualche ricetta gustosa con quegli ingredienti. L’autonomia poi è niente male, circa 30 minuti per sessione.
Con le traduzioni live, si potrà chiacchierare tranquillamente con gente che parla spagnolo, francese o inglese, anche se non si mastica una parola di quelle lingue! Basterà scaricare prima le lingue che servono sull’app. Poi specificare la propria lingua e quella della persona con cui si parla. E via, gli occhiali traducono tutto in tempo reale! Si può scegliere se ascoltare la traduzione direttamente dagli occhiali oppure leggere le trascrizioni sullo smartphone collegato.
Riconoscimento musicale con Shazam, che canzone è questa?
Quante volte capita di sentire una canzone e di non sapere come si chiama? Con il supporto a Shazam integrato negli occhiali Ray-Ban Meta, basterà chiedere all’assistente di Meta di dire il titolo del brano. Chi è curioso di vederlo in azione, può un’occhiata al video postato da Zuckerberg su Instagram.
Le nuove funzioni annunciate sul blog sono già disponibili per gli occhiali aggiornati alla versione software v11, abbinate all’app Meta View v196. Chi non fa parte del programma di accesso anticipato ma vuole provare l’AI e le traduzioni live, può compilare il modulo sul sito di Meta, ma purtroppo per l’Italia non è disponibile.
La sfida degli occhiali smart con l’intelligenza artificiale
L’aggiunta di queste funzionalità arriva in un momento in cui i colossi tech vedono gli assistenti AI come l’app chiave per il successo degli occhiali smart. Google ha appena presentato Android XR, un sistema operativo progettato per i visori di realtà mista e gli occhiali smart.
Da parte sua, Andrew Bosworth, CTO di Meta, ha scritto sul blog che “il 2024 è stato l’anno della consacrazione degli occhiali con AI“. Secondo lui, gli occhiali smart sono la forma ideale per realizzare “un dispositivo veramente nativo per l’intelligenza artificiale“, la prima categoria di hardware “completamente definita dall’AI fin dall’inizio“.
Che sia davvero l’inizio di una nuova era per gli occhiali intelligenti? Lo scopriremo solo vivendo, come cantava Battisti.