IF2018: distribuiamo l'IA con un bugiardino

IF2018: distribuiamo l'IA con un bugiardino

L'IA, per potersi integrare in un sistema del quale l'uomo fa parte, necessita di autoesplicarsi: come un medicinale con i bugiardini.
IF2018: distribuiamo l'IA con un bugiardino
L'IA, per potersi integrare in un sistema del quale l'uomo fa parte, necessita di autoesplicarsi: come un medicinale con i bugiardini.

Una nuova, colossale industria sta per cambiare completamente la nostra vita, sulla base di una dinamica già stabilita. “Fra tre anni i chip arriveranno al massimo della loro potenza computazionale“, spiega Stefano Quintarelli, “e a quel punto i computer non costeranno quasi più niente, e così saremmo immersi in un computer diffuso ambientalmente: dalle lampadine a tanti altri oggetti che non somigliano affatto a computer“. Questo evento sarà la porta di ingresso della Intelligenza Artificiale nelle nostre vite, e nel panel dell’Internet Festival 2018 dedicato ad IA e nuovi diritti si è discusso di quale impatto e conseguente regolamentazione si deve parlare.

L’immaterialità ci ha sempre messi a disagio. Figurarsi l’intelligenza artificiale, cioè macchine che imparano. A fare cosa? A imitarci, e così servirci, aiutarci, in alcune funzioni sostituirci. L’avvocato Guido Scorza, intervistato da Alessandro Longo, si è piuttosto divertito a provocare la platea – con molti studenti – a spingere ai confini della fantascienza ciò che l’IA potrebbe rappresentare in termini di dilemmi etici e applicazione della giustizia, ma tornando pragmaticamente all’oggi ha fatto una sacrosanta sottolineatura: l’interesse pubblico dovrà confrontarsi con l’utilizzo privato dei dati, anche per l’IA, sapendo che la regolamentazione è tanto necessaria quando una mediazione con lo scenario per cui le grandi piattaforme insieme ai loro utenti possono andare da soli.

E qui interviene la sensibilità tutta europea, ad esempio, dell’articolo 22 del GDPR sul processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione:

L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.

Avete presente quei chatbot che sembrano esseri umani? E Google Duplex? In Europa non sarà possibile propinarli senza informare prima l’utente, a protezione del suo diritto integrale di essere umano, compresa la sua emotività. Una cultura del nuovo diritto collegato all’IA è prima di tutto una cultura della protezione del dato, della “cura del dato”, come spiegato molto bene dalla professoressa Monica Palmirani; non la sua nazionalizzazione – quella è roba che fanno Taiwan o la Cina – ma il giusto equilibrio tra open e chiusura totale.

Ma se l’informazione diventa centrale, anche per difendere diritti vecchi e nuovi, come deve accompagnarsi con metadati che consentano un tracciamento di metodi e fonti che consentano una ricostruzione a posteriori del processo di formazione dell’informazione stessa? Quintarelli, rendendo estremamente efficace il principio di esplicabilità recentemente usato anche da IBM, osa una metafora efficacissima: il bugiardino di un farmaco. Una grande industria, un protocollo che decide cosa si può mettere sul mercato, l’informativa all’utente che spiega i possibili effetti collaterali: “Ogni sistema è imperfetto, e l’IA è probabilistica. Se stabiliremo il diritto di una spiegazione del perché l’IA produce una certa decisione sulle persone, dovremo anche spiegare che la perfezione assoluta non esiste, e a volte non esisterà neppure una spiegazione. Ecco perché non ci vogliono atti di fede, e sulle scelte decisive per la vita dell’uomo, semplicemente, la totale automazione non va applicata, mentre sarà molto utile per molte altre cose“.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
13 ott 2018
Link copiato negli appunti