Justin ÒBeirne, noto cartografo statunitense con alle spalle numerosi contributi e critiche tanto ad Apple che a Google, ha messo in comparazione le mappe dei due giganti del tech in un recente lavoro chiamato “Google Maps’s Moat”. Il risultato, abbastanza scontato è di uno a zero per Google. Apple nel tempo ha perso infatti alcuni vantaggi competitivi acquisiti, cedendo al competitor l’opportunità di contare su una cartografia molto più dettagliata che si traduce per l’utente in indicazioni più precise ed immediate da leggere. La differenza qualitativa si riscontrerebbe non tanto nelle grandi città, quanto piuttosto nelle aree extra urbane .
Una delle mancanze rilevate durante l’analisi è il trattamento dell’impronta degli edifici (comprese le case, i capannoni commerciali e vi dicendo), che appare particolarmente scadente se non completamente assente nelle mappe di Apple. Il cartografo ha notato che Google riesce a proporre le sagome degli edifici anche nelle zone rurali che rientrano in quell’1 per cento di porzioni di territorio statunitense non contemplate in Google Street View (oppure dove il servizio di cattura immagini è passato più di 9 anni fa e dove quindi la conformazione delle vie potrebbe essere nel frattempo cambiata).
Il grado di dettaglio è accettabile persino in presenza di piccoli congiunti abitativi (le piccole frazioni da poco più di una decina di famiglie sarebbero correttamente censiti). Anche le porzioni di aree verdi sembrano ricevere un trattamento molto grossolano nel caso di Apple Maps a differenza di Google che le rappresenta correttamente.
Zoomando dall’alto in modalità satellite, Google Maps permette di vedere correttamente i tetti degli edifici , con una risoluzione e dettagli di buona qualità. Anzi di ottima qualità se si compara con la rappresentazione di 10 anni fa. Nell’elaborare il 3d degli edifici, Google ha investito concreti sforzi e tecnologia a partire dal 2012 con la corretta renderizzazione di un migliaio di edifici che nel giro di qualche mese sono saliti a 25 milioni.
Ma il progresso tecnologico non si ferma qui. Google Maps è riuscita in parte a risolvere anche la fornitura di una serie di informazioni trasposte su mappa e fondamentali per l’utente come ad esempio l’identificazione dei cosiddetti corridoi commerciali , ovvero quelle strade che per concentrazione di attività commerciali, rappresentano dei fulcri per il tempo libero e per lo shopping. Google recupera le informazioni attraverso un algoritmo in grado di intercettare ristoranti, bar e negozi evidenziando le giuste porzioni . E lo ha iniziato a fare da luglio del 2016 con l’introduzione di una strategia per mostrare gli Aoi (area of interest) perfezionata di recente anche sotto l’aspetto dell’impatto visivo. Per allocare correttamente queste informazioni sarebbero ben 80 miliardi i dati elaborati a cui si aggiunge una sopraffine tecnica di computer vision in grado di attribuire la toponomastica in maniera automatizzata. Anche in questo caso il machine learning è fondamentale tanto per la gestione dei nomi che per quanto riguarda il recupero di modelli 3d partendo dalle immagini. Si tratta di quello che Google chiama progetto Ground Truth avviato dal 2006. E per Apple tutto ciò è ben lontano.
D’altronde per creare ottime mappe non sono sufficienti ottime capacità di disegno, servono sempre anche più dati da elaborare. E Google in questo non ha di certo di che imparare, potendo contare tanto su dati di terze parti che proprietari dai quali far derivare nuove feature. Una delle prossime potrebbe essere rappresentata dalla possibilità di individuare a colpo sicuro i civici di ogni abitazione così da agevolare le attività di recapito.
Mirko Zago
fonte immagine