Google ha presentato PlaNet system, una nuova funzionalità della sua intelligenza artificiale che promette di capire dove è stata scattata una foto anche se non è stata geotaggata dall’utente.
Mountain View, d’altra parte, sta lavorando per espandere le potenzialità e le capacità della sua Intelligenza Artificiale e della sua archiviazione del sapere umano: con l’arrivo di John Giannandrea a capo della divisione search dopo i 15 anni di Amit Singhal, per esempio, si è iniziato a parlare seriamente dell’integrazione del motore di ricerca di Knowledge Graph , la soluzione che Google ha approntato per esplorare le relazioni semantiche tra i risultati di ricerca.
Da ultimo, dunque, ha introdotto una funzionalità che permette di riconoscere dove è stata scattata dal panorama fotografato: se è facile collegare a Roma una foto con il Colosseo sullo sfondo, più complicato è farlo senza riferimento visivi altrettanto noti.
Per sopperire a tale difficoltà, e non potendo ricorrere alla capacità innata degli esseri umani di trarre conclusioni dall’architettura, dal paesaggio o dalla lingua dei cartelli fotografati, l’intelligenza artificiale di Google attingerà all’immenso archivio di immagini di Mountain View: provvederà così a trovare per ogni immagine il corrispettivo più somigliante tra le immagini già geotaggate per ricondurre ad ogni immagine il luogo d’origine.
A sviluppare la soluzione basata su una rete neurale, ovvero organizzata sul modello dell’intelligenza umana, è stato il team guidato da Tobias Weyand e James Philbin che hanno riferito che PlaNet system “ha un vantaggio rispetto agli umani perché può vedere molti più posti di qualsiasi persona e può distinguere più dettagli anche dell’occhio esperto di un viaggiatore”.
I ricercatori hanno diviso il mondo in una griglia costituita da 26mila aree di diverse misure e a cui hanno fatto corrispondere un gran numero di immagini geotaggate nella posizione corrispondente. Il team di Google ha potuto in questo modo utilizzare complessivamente 126 milioni di immagini disseminate in Rete e localizzate con i rispettivi tag Exif.
Al momento i ricercatori, che hanno verificato l’affidabilità della loro tecnologia su circa 2,3 milioni di immagini geotaggate prese da Flickr, riferiscono che PlaNet sia in grado di “localizzare il 3,6 per cento delle immagini con un’accuratezza che arriva alla strada su cui sono state scattate ed il 10,1 per cento a livello della città”. Un risultato che certamente già batte gli esseri umani.
Claudio Tamburrino