I sistemi di riconoscimento automatico delle immagini basati sul deep learning, implementati dai colossi della Rete per operare una prima classifiazione dei contenuti che ospitano, hanno evidentemente ancora molto da imparare.
Google Photos, y’all fucked up. My friend’s not a gorilla. pic.twitter.com/SMkMCsNVX4
– diri noir avec banan (@jackyalcine) 29 Giugno 2015
A dimostrarlo, l’etichetta applicata su una serie di immagini caricate su Google Foto da un programmatore statunitense: forse complice il controluce, a rendere meno definiti i tratti dei volti dei due soggetti afroamericani, o delle loro espressioni giocose, il servizio messo a disposizione da Google nel corso della recente conferenza I/O ha classificato le due persone ritratte nelle foto come gorilla.
L’errore, di cui di recente si è scoperta imbarazzata vittima anche Flickr , è stato tempestivamente preso in esame da Google: il Chief Social Architect Yonatan Zunger si è confrontato con il programmatore vittima dello stigma, ha messo al lavoro i tecnici per rimuovere l’etichetta e ha ammesso il problema, corredando il fitto dialogo da sentite scuse.
Gli algoritmi di Google, ha spiegato Zunger, hanno difficoltà nel riconoscere i volti nel momento in cui si trovino ad analizzare immagini che presentino combinazioni particolari di contrasto, luce e colore della pelle : in precedenza, per motivi simili, il sistema di riconoscimento di immagini aveva scambiato esseri umani per cani. “C’è evidentemente ancora molto lavoro da fare nell’ambito della classificazione automatica delle immagini – ha confermato un portavoce della Grande G – e stiamo cercando di capire come evitare che questo tipo di errori si ripetano in futuro”.
A Mountain View, infatti, le operazioni di ricerca nell’ambito del riconoscimento delle immagini fervono : i sistemi di intelligenza artificiale, è cosa nota , hanno bisogno di macinare informazioni su informazioni per affinarsi, e i dati caricati dagli utenti sui servizi della Grande G sono campo di prova per l’addestramento.
Gaia Bottà