Se vogliamo che l’Intelligenza Artificiale sia migliore dell’uomo, o quantomeno raggiunga migliori risultati, dobbiamo fare in modo che i dati raccolti, le modalità di apprendimento e le capacità di elaborazione non siano influenzate dai “bug” della mente umana. I bias cognitivi che si insinuano nelle attività sociali, infatti, rischiano di entrare come virus all’interno del materiale elaborato dall’Intelligenza Artificiale, mimetizzandosi tra i dati ed inquinando il risultato finale. Se si intende raggiungere un più sofisticato livello di machine learning, insomma, non si può prescindere dal verificare che i dati in entrata e gli algoritmi impiegati siano depurati dal caos dell’esperienza umana.
La ricetta proposta da IBM non è strettamente tecnologica, ma per certi versi burocratica: l’uomo esplichi le modalità con cui ha portato avanti lo sviluppo del proprio servizio di Intelligenza Artificiale così che ognuno possa giudicare se adottarlo o meno. L’idea è dunque complementare alle mille proposte già avanzate per raggiungere medesimo obiettivo: ognuno esplichi la propria policy, così che (in assenza di ricette generalmente riconosciute) possa essere l’utente/cliente a giudicare.
Serve una Dichiarazione di Conformità
La proposta proveniente da IBM (gruppo da molti anni in prima fila nello sviluppo di tecnologie di Intelligenza Artificiale) è quella di una Dichiarazione di Conformità (pdf) rilasciata in modo autonomo e volontario da parte del provider del servizio. Tale documentazione deve poter esplicare le modalità con cui si è agito per rendere il proprio sistema impermeabile ai bias cognitivi – ed altre ingerenze – che potrebbero influenzare il risultato dell’elaborazione.
Il rischio è infatti quello di arrivare ad un punto nel quale l’uomo tenderà a fidarsi dell’Intelligenza Artificiale in virtù della sua “logica” distaccata e la sua migliore capacità di elaborazione, ma così facendo l’IA andrebbe a rafforzare eventuali bias permeati tramite dati o algoritmi mal formulati. Un sistema che si avvita su sé stesso, insomma, con l’uomo a fare da zavorra allo sviluppo dell’IA ed alla bontà delle sue “decisioni”.
La SDoC (Supplier’s Declaration of Conformity) introdurrebbe una sorta di selezione naturale: gli algoritmi che esplicitano i modi con cui hanno agito attraverso una specifica dichiarazione, infatti, operano un’azione di trasparenza che li valorizza. Sapere che su un servizio di Intelligenza Artificiale si è agito per calmierare le possibilità di inquinamento del risultato, del resto dovrebbe essere cosa ampiamente apprezzata da parte di chi andrà ad investirvi ingenti capitali per il bene delle proprie attività. L’assenza della Dichiarazione di Conformità potrebbe dunque diventare un minus per i servizi che non intenderanno apporre la giusta attenzione a questi aspetti: la giusta proattività ed una formale autocertificazione potrebbero invece segnare un prima e un dopo nella politica di sviluppo dell’IA sul mercato.
IBM intende costruire l’affidabilità della propria Intelligenza Artificiale sulla base di 4 principi:
- Equità
- Robustezza
- Esplicabilità
- Tracciabilità
Un servizio di IA, per potersi guadagnare la fiducia di un utente o di un committente, deve pertanto dimostrarsi equo nelle valutazioni, sicuro rispetto a minacce esterne, trasparente nelle procedure e tracciabile nei metodi adottati. Una Dichiarazione di Conformità ha il dovere di esplicare ognuno di questi passaggi, nei dettagli, affinché possa essere certo il modo in cui l’IA è stata posta in essere dalla mano dell’uomo.
Se si è fatto tutto quanto possibile per garantire la bontà del sistema, non si avranno problemi a dichiarare quanto posto in essere poiché ciò rappresenterebbe soltanto un valore aggiunto all’offerta. La SDoC, quindi, diventerebbe un bollino di qualità ed un certificato di trasparenza al quale qualsiasi utente potrebbe fare appello per capire come stia “ragionando” (e perché) il sistema a cui ci si affida.