Nel mondo già di per sé complesso delle scienze giuridiche, si aggira per l’Europa – che accetta la sfida – un colossale problema di regolazione legislativa: quella che si dovrebbe (dovrebbe?) applicare alla Intelligenza artificiale. Più correttamente, per evitare definizioni tanto altisonanti quanto scorrette, applicare a quelle tecnologie di tipo statistico che possono autonomamente, grazie a metodi di apprendimento derivanti dall’analisi di grandi quantità di dati, generare contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti in cui operano e la vita degli esseri umani stessi.
Una colossale sfida legale
La Commissione Europea ci ha steso una lunga proposta di regolamento, frutto di almeno tre anni di confronto, che si candida ad essere la terza via, tipicamente continentale, cioè più attenta alle conseguenze sui diritti dei cittadini, tra la deregulation americana e l’autoritarismo cinese. Noi europei non ci sogniamo di realizzare social score collettivi e preferiamo non ascoltare troppo le sirene di chi, fregandosi le mani, profetizza la perdita di fette di mercato delle aziende europee, così naif da preoccuparsi di non finire in una puntata di Black Mirror.
In Europa riteniamo importante, messi di fronte all’impressionante sviluppo di queste tecnologie, non prescindere mai dalla sfida antropocentrica (con tutti i suoi limiti) di promuovere una garanzia giuridica della dignità umana rispetto alla IA. Da qui, alcuni apparentemente semplici paletti: l’Intelligenza Artificiale dovrà essere non-escludente, trasparente, non rischiosa in materia di diritti fondamentali (sono vietate, nella proposta, tutte quelle applicazioni che sfruttino la vulnerabilità di specifici gruppi umani, ad esempio).
Di questo si è parlato nella prima parte di #Digital Law, una sorta di rubrica annuale fissa, ormai, dell’Internet Festival, in una tavola rotonda che rimandiamo subito ai lettori più appassionati del tema. Un paio d’ore ad alta densità di competenza.
Per chi volesse prima una sintesi, farsi un’idea, si può dire così: dal mero punto di vista giuridico, noi avremmo già a disposizione quasi tutto quello che ci serve per responsabilizzare, civilisticamente, i produttori di applicazioni di AI. Non perdete tempo con i soliti esempi dell’automobile, del frigorifero o chissà cosa che prendono decisioni dannose per l’essere umano e ti chiedi chi pagherà: lo sappiamo chi pagherà. Esiste una secolare struttura giuridica già capace di individuare la responsabilità “per fatto” di una cosa, di un prodotto. Il problema vero, semmai, è che il prodotto impara e agisce in modo non prevedibile e per questa ragione dovremmo stabilire by design la sua moralità. Come? Ad esempio con certificazioni delle caratteristiche standard emesse da Enti che mantengano il segreto industriale e siano pronte a fornire queste informazioni solo in un procedimento legislativo.
Insomma, tutto a posto? Per niente. Perché i livelli del problema sono altri.
La questione vera è riuscire a produrre una governance che induca chi realizza Intelligenza Artificiale a una “sincerità digitale”: il diritto di sapere se la decisione che si subisce è prodotta da un programma o da un essere umano; il diritto di sapere, se si tratta di un algoritmo, quali sono i criteri che hanno determinato quella decisione; il diritto di comprenderlo facilmente una volta che ce lo facciano sapere; il diritto di non essere “agito” da applicazioni incompatibili con le nostre Carte, con le direttive europee già esistenti; il diritto di avere dalla parte di cittadino un sistema che consenta di valutare la dieta dell’AI, i suoi dati, perché un algoritmo tecnicamente perfetto può comunque produrre output tremendamente discriminatori, dannosi, a seconda di cosa si usa per alimentarli.
Una tavola rotonda dove ogni relatore ha colto un punto notevole di questa regolamentazione: il Garante Pasquale Stanzione ha ricordato quel rapporto perturbante tra essere umano e macchina, per cui l’uomo è imbarazzato e attratto dalla perfezione delle sue macchine, ma una tecnica non più protesica bensì mimetica apre a una deriva antiumanista, a quel rovesciamento di potere non più dell’uomo sulle cose ma delle cose sull’uomo.
Ugo Ruffolo, dall’alto della sua trentennale esperienza di Ordinario di Diritto Civile e Diritto della Comunicazione nell’Università di Bologna, tra i massimi studiosi di diritto dell’intelligenza artificiale, ha avvertito dell’importanza di enti certificatori della “moralità by design” di queste applicazioni. Monica Palmirani, presidente della Società Italiana di Informatica Giuridica, direttore del programma di dottorato internazionale “Law, Science and Technology”, ha introdotto il tema – che varrebbe un panel da solo – dei “dati sintetici” per compensare i dataset del reale che, da soli e in quanto tali, quando anche corrispondano a tutti i dati esistenti su un certo argomento non potrebbero che riprodurre le iniquità della società, guidandola paradossalmente a riprodurre questi errori storicamente stratificati invece che a superarli. Andrea Simoncini, da esperto delle fonti del diritto, ha ricordato la fortissima attrazione pratica della decisione tecnologica su quella umana, per questo abbiamo bisogno di norme e principi: perché senza questa governance tenderemo inevitabilmente a lasciar fare alle tecnologie fino al punto di disimparare il nostro stesso atto indipendente. Infine, il tecnologo Massimo Chiriatti, brillante contestatore del modello eccessivamente antropocentrico, ma al contempo sostenitore dell’approccio multidisciplinare, è curioso di conoscere i futuri Darwin, che inizino a studiare le evoluzioni delle macchine, i futuri Lorenz per comprenderne il comportamento, i futuri Popper per capire se avremo una società digitale aperta.