È durata poco più di una settimana l’esistenza dell’Advanced Technology External Advisory Council, il Consiglio istituito da Google e composto da membri esterni all’azienda per affiancare il gruppo nello sviluppo di soluzioni IA sulla base di linee guida dettate dall’etica. In altre parole, un’iniziativa messa in campo con l’obiettivo di evitare che l’impiego degli algoritmi possa condurre a scenari da scongiurare.
Google scioglie il Consiglio ATEAC
Oggi, a pochi giorni di distanza dalla formazione, il Consiglio ATEAC non esiste più. La conferma arriva con un aggiornamento al post che solo la scorsa settimana ne aveva annunciato la creazione. Lo riportiamo in forma tradotta di seguito.
È emerso che nella situazione attuale ATEAC non può svolgere il proprio compito come vorremmo. Così sciogliamo il Consiglio e torniamo al lavoro. Continueremo a farlo in modo responsabile, approcciando le importanti problematiche sollevate dall’IA e cercando nuove strade per valutare opinioni esterne a proposito di questi temi.
Le motivazioni che hanno spinto al dietrofront sono molteplici. Da una parte le pressioni esercitate dai dipendenti di bigG, che hanno alzato la voce arrivando a promuovere una petizione online contro l’inclusione nel team di Kay Coles James, Presidente della Heritage Foundation, per via di alcune sue discutibili uscite in merito alle persone transessuali e per la posizione dell’istituzione sul tema legato ai cambiamenti climatici. Dall’altra la presenza di Dyan Gibbens, CEO e fondatrice di Trumbull Unmanned, società specializzata nell’impiego dei droni per l’acquisizione e l’analisi di immagini aeree, ha risollevato le polemiche legate al Project Maven (ora interrotto) che nel 2018 ha visto Google collaborare con il Pentagono.
C’è poi Alessandro Acquisti che, nonostante l’annuncio della scorsa settimana, è intervenuto attraverso il proprio account Twitter per mettere nero su bianco di aver declinato l’invito a far parte del Consiglio ATEAC.
I'd like to share that I've declined the invitation to the ATEAC council. While I'm devoted to research grappling with key ethical issues of fairness, rights & inclusion in AI, I don't believe this is the right forum for me to engage in this important work. I thank (1/2)
— alessandro acquisti (@ssnstudy) March 30, 2019
Insomma, non la migliore delle iniziative per coniugare etica e intelligenza artificiale. Il gruppo di Mountain View ammette di non aver valutato il progetto nel migliore dei modi, lo accantona e guarda avanti, esplicitando l’intenzione di continuare a seguire i principi stabiliti lo scorso anno per evitare che algoritmi, reti neurali e machine learning possano essere impiegati con finalità malevole o comunque non in linea con la filosofia della società, quel Don’t Be Evil che in molti, da qualche tempo, hanno iniziato a mettere in discussione.