Google sta introducendo una serie di novità nella sua app di ricerca visiva Lens, tra cui la possibilità di analizzare video in tempo reale e rispondere a domande sull’ambiente circostante. Questa funzione, attualmente disponibile per gli utenti Android e iOS di lingua inglese, sfrutta il modello di intelligenza artificiale Gemini per interpretare i video e fornire risposte pertinenti alle domande degli utenti.
Nuove funzionalità per una ricerca più completa con Google Lens
Oltre all’analisi video, Lens ora consente di effettuare ricerche combinando immagini e testo in un’unica soluzione. Gli utenti possono scattare una foto e porre una domanda a voce, ottenendo risultati più completi e accurati. Inoltre, quando Lens riconosce un prodotto, fornisce informazioni dettagliate come prezzo, offerte, marchio, recensioni e disponibilità, rendendo l’esperienza di shopping più efficiente.
La corsa all’integrazione dell’intelligenza artificiale
L’introduzione dell’analisi video in tempo reale da parte di Google arriva in un momento in cui anche altre aziende, come Meta e OpenAI, stanno lavorando su funzionalità simili. Meta prevede di integrare queste capacità nei suoi occhiali AR Ray-Ban Meta, mentre OpenAI sta sviluppando la modalità vocale avanzata di ChatGPT per analizzare i video in tempo reale. Tuttavia, Big G sembra aver battuto sul tempo entrambe le aziende, anche se la funzione video di Lens è asincrona e non consente una chat proprio in tempo reale.
Opportunità pubblicitarie e prospettive future
Con circa 4 miliardi di ricerche mensili legate allo shopping effettuate con Lens, Google ha colto l’opportunità di inserire annunci pubblicitari pertinenti nella pagina dei risultati per i prodotti identificati dall’app. Questa mossa sottolinea l’importanza della pubblicità (come se non lo sapessimo già) per il gigante tecnologico e apre la strada a nuove possibilità di monetizzazione.