Prima di leggere questo articolo potete fare un semplice esperimento: cliccare qui, attivare la webcam, scattare rapidamente un selfie e lasciarsi giudicare da un processo di Intelligenza Artificiale. “Giudicare”, esatto: analizzare, classificare, catalogare. Il risultato che se ne ottiene (ci vogliono appena pochi secondi) è l’immagine di sé stessi proiettati sullo specchio dell’Intelligenza Artificiale. Oppure, a ben vedere, è esattamente il contrario: è l’Intelligenza Artificiale che si rispecchia nei nostri selfie. Con tutti i suoi difetti, le sue asimmetrie, le sue fragilità.
Training Humans
In questo esempio il servizio ha semplicemente confrontato un selfie estemporaneo con milioni di immagini in archivio già usate in passato come piattaforma di “training” per il machine learning. “ImageNet Roulette“, semplicemente, inserisce l’immagine in un database partendo dai tratti somatici rilevati e crea la correlazione più “probabile” con una delle 2833 categorie esistenti. All’interno di questa tassonomia il sottoscritto in due differenti tentativi è stato catalogato come “White supremacist” (vedi immagine successiva) e come “Swami” (maestro Hindu) in uno scatto ulteriore con un sorriso abbozzato.
Difetti? Bias? O semplicemente un abbaglio di intelligenza laddove di intelligente c’è ancor poco? O ancora: terra di confine, ove sfuma la capacità dell’algoritmo di catalogare con la capacità umana dell’interpretare? E quali possono essere le conseguenze di questa fragilità in un mondo che sempre di più affida all’automazione ed ai big data alcuni processi semplificativi? Quale ricaduta può avere sulla mia vita il fatto che un paniere di training per l’IA porti a giudicare i miei selfie – e quindi me stesso – come un suprematista bianco? (ouch!)
Viviamo nell’epoca di FaceApp e AI Portraits, nel regno dei selfie e dei social network, ove ognuno di noi è esposto al pubblico attraverso il proprio viso, i propri avatar ed i propri account: solo comprendendo a fondo i meccanismi dell’IA saremo in grado di capire le conseguenza di questo rapporto asimmetrico
L’esposizione
Training Humans è un esperimento che fino al 24 febbraio 2020 sarà in mostra presso la Fondazione Prada a Milano ed i cui risultati sono così spiegati:
Quando la classificazione di esseri umani attraverso l’intelligenza artificiale diventa più invasiva e complessa, i pregiudizi e le implicazioni politiche presenti al loro interno appaiono più evidenti. Nella computer vision e nei sistemi di IA i criteri di misurazione si trasformano facilmente, ma in modo nascosto, in strumenti di giudizio morale. […] Esaminando le immagini di questa raccolta e i criteri con cui le fotografie personali sono state classificate, ci si confronta con due interrogativi essenziali: quali sono i confini tra scienza, storia, politica, pregiudizio e ideologia nell’intelligenza artificiale? Chi ha il potere di costruire questi sistemi e di trarne benefici?
Si tratta chiaramente di una provocazione, una forzatura che punta a mettere in luce gli spigoli dell’IA quando chiamata in causa per giudicare ed etichettare. La parte interessante è tutta in queste spigolature, errori che in parte sono frutto di mera incapacità interpretativa ed in altri casi sono figli di bias di natura umana pienamente ereditati negli algoritmi attraverso i processi di catalogazione human-driven. Ma una base dati come quella di ImageNet è stata usata da più fonti ed a più riprese, il che porta il peccato originale ad occupare una parte ereditaria nel DNA degli algoritmi di riconoscimento facciale.
L’esperimento “Training Humans” è firmato da Kate Crowford e Trevor Paglen e la sua sostanza artistica è nel ribaltamento di paradigma nel giudizio della dinamica che pone in relazione gli umani e l’IA: “training humans” insegna alle persone quanta distorsione ci sia nella nostra convinzione del potere dell’IA, così che sia l’uomo a cercare di catalogare l’IA e non viceversa.