Esseri umani classificati come scimmie e campi di concentramento come strutture sportive: il sistema di etichettatura automatico recentemente implementato da Flickr sta sollevando non poche perplessità presso la community degli utenti.
A mettere in luce alcune imbarazzanti imprecisioni è un articolo del Guardian : se si mostrano affidabili nel categorizzare gli elementi tecnici relativi alle immagini, i tag automatici applicati dagli algoritmi di Flickr ai contenuti caricati dagli utenti falliscono sui soggetti e gli oggetti ritratti.
Classificare uomini e donne come animali può rivelarsi un peccato di eccessiva approssimazione: meno giustificabile è la confusione con le scimmie. Ancora più imbarazzante, poi, ravvisare nel cancello del campo di concentramento di Dachau una “struttura per arrampicarsi” o qualche elemento che lo possa ricondurre alla categoria “sport”.
Da affiancare all’intelligenza collettiva umana della folksonomy , il riconoscimento automatico delle immagini è una sfida nella quale i colossi della tecnologia si stanno misurando con sempre maggiore interesse: i risultati, prevedibilmente, si vedranno sul lungo termine. Flickr avverte infatti che gli automatismi degli algoritmi saranno fallibili finché l’intervento dell’uomo non li addestri ad imparare: “è possibile rimuovere i tag non corretti dalle foto, e farlo non solo è un modo per correggere l’errore, ma aiuta ad impartire al sistema le istruzioni per agire in maniera più accurata in futuro”.
Gaia Bottà