Il numero uno di Google, da poche settimane anche alla guida della parent company Alphabet, firma oggi un proprio intervento sulle pagine del Financial Times in cui spiega perché c’è bisogno di una regolamentazione strutturata in modo da poter controllare e indirizzare lo sviluppo delle soluzioni basate sull’intelligenza artificiale. Nel descrivere la sua visione e quella del gruppo Sundar Pichai parte da lontano, dalle sue origini indiane, da come la tecnologia ha cambiato la sua vita fin da bambino.
La posizione di Google-Alphabet sull’IA
Lasciando da parte i preamboli, non è la prima volta che il gruppo di Mountain View manifesta una volontà di questo tipo. Lo ha fatto all’inizio dello scorso anno con la costituzione del Consiglio ATEAC (sciolto poco dopo) e tirandosi fuori dalla gara per l’assegnazione del bando JEDI indetta dal Pentagono per ragioni legate alle implicazioni etiche nell’uso degli algoritmi. In estrema sintesi: la tecnologia è di per sé neutra, ma il suo utilizzo può avere ripercussioni negative e questo è un pericolo da scongiurare, anche passando dal mezzo legislativo.
La storia è piena di esempi in cui gli impieghi virtuosi della tecnologia non sono garantiti. I motori a combustione interna hanno permesso alle persone di viaggiare lontano, ma anche causato incidenti. Internet ha consentito alle persone di comunicare, ma anche semplificato la diffusione della misinformazione. Queste lezioni ci hanno insegnato che dobbiamo tenere gli occhi ben aperti su cosa potrebbe andare storto.
Pichai fa riferimento diretto a sistemi come quelli legati ai deepfake e al riconoscimento facciale, temi che trattiamo regolarmente anche su queste pagine.
Ci sono preoccupazioni fondate a proposito delle potenziali conseguenze negative dell’intelligenza artificiale, dai deepfake agli utilizzi malevoli del riconoscimento facciale.
Realtà private e autorità devono collaborare
Il numero uno di Google e Alphabet auspica una più profonda collaborazione di tutti gli attori in gioco, a partire dalle autorità delegate a definire nuove regole applicabili non solo a livello nazionale o continentale, ma globale. L’azienda non si tira fuori dall’equazione, definendosi pronta ad assumere le proprie responsabilità.
Società come la nostra non possono limitarsi a realizzare nuove tecnologie promettenti lasciando che siano poi le forze del mercato a decidere come impiegarle. Spetta anche a noi assicurarci che la tecnologia non abbia finalità malevole e possa essere fruita da tutti.
La visione del CEO è piuttosto chiara.
Nella mia mente non ho dubbi sul fatto che l’intelligenza artificiale debba essere regolamentata. È troppo importante perché non accada. La sola domanda è relativa a come approcciare la questione.
IA e privacy: si parta dal GDPR
L’intervento cita poi il GDPR europeo come una solida base, un punto di partenza per la realizzazione di un impianto normativo che possa meglio tutelare la privacy delle persone a livello globale. Il numero uno di bigG non afferma di avere la soluzione a portata di mano, né che sarà un processo semplice, ma tenendo conto del ruolo giocato oggi dal gruppo nelle dinamiche che regolano l’accesso alle informazioni e nella ricerca sull’IA la dichiarazione d’intenti non può che essere tenuta in considerazione per comprendere la posizione assunta e le prospettive di uno dei più importanti player di questo settore, nel mondo online e di conseguenza in quello reale.