Una nuova, colossale industria sta per cambiare completamente la nostra vita, sulla base di una dinamica già stabilita. “Fra tre anni i chip arriveranno al massimo della loro potenza computazionale“, spiega Stefano Quintarelli, “e a quel punto i computer non costeranno quasi più niente, e così saremmo immersi in un computer diffuso ambientalmente: dalle lampadine a tanti altri oggetti che non somigliano affatto a computer“. Questo evento sarà la porta di ingresso della Intelligenza Artificiale nelle nostre vite, e nel panel dell’Internet Festival 2018 dedicato ad IA e nuovi diritti si è discusso di quale impatto e conseguente regolamentazione si deve parlare.
L’immaterialità ci ha sempre messi a disagio. Figurarsi l’intelligenza artificiale, cioè macchine che imparano. A fare cosa? A imitarci, e così servirci, aiutarci, in alcune funzioni sostituirci. L’avvocato Guido Scorza, intervistato da Alessandro Longo, si è piuttosto divertito a provocare la platea – con molti studenti – a spingere ai confini della fantascienza ciò che l’IA potrebbe rappresentare in termini di dilemmi etici e applicazione della giustizia, ma tornando pragmaticamente all’oggi ha fatto una sacrosanta sottolineatura: l’interesse pubblico dovrà confrontarsi con l’utilizzo privato dei dati, anche per l’IA, sapendo che la regolamentazione è tanto necessaria quando una mediazione con lo scenario per cui le grandi piattaforme insieme ai loro utenti possono andare da soli.
E qui interviene la sensibilità tutta europea, ad esempio, dell’articolo 22 del GDPR sul processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione:
L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.
Avete presente quei chatbot che sembrano esseri umani? E Google Duplex? In Europa non sarà possibile propinarli senza informare prima l’utente, a protezione del suo diritto integrale di essere umano, compresa la sua emotività. Una cultura del nuovo diritto collegato all’IA è prima di tutto una cultura della protezione del dato, della “cura del dato”, come spiegato molto bene dalla professoressa Monica Palmirani; non la sua nazionalizzazione – quella è roba che fanno Taiwan o la Cina – ma il giusto equilibrio tra open e chiusura totale.
Ma se l’informazione diventa centrale, anche per difendere diritti vecchi e nuovi, come deve accompagnarsi con metadati che consentano un tracciamento di metodi e fonti che consentano una ricostruzione a posteriori del processo di formazione dell’informazione stessa? Quintarelli, rendendo estremamente efficace il principio di esplicabilità recentemente usato anche da IBM, osa una metafora efficacissima: il bugiardino di un farmaco. Una grande industria, un protocollo che decide cosa si può mettere sul mercato, l’informativa all’utente che spiega i possibili effetti collaterali: “Ogni sistema è imperfetto, e l’IA è probabilistica. Se stabiliremo il diritto di una spiegazione del perché l’IA produce una certa decisione sulle persone, dovremo anche spiegare che la perfezione assoluta non esiste, e a volte non esisterà neppure una spiegazione. Ecco perché non ci vogliono atti di fede, e sulle scelte decisive per la vita dell’uomo, semplicemente, la totale automazione non va applicata, mentre sarà molto utile per molte altre cose“.