Mentre l’intelligenza artificiale sta rapidamente guadagnando terreno in ogni aspetto della nostra vita, si delinea un uso preoccupante: applicazioni militari e belliche. Questa prospettiva ha messo in allarme circa 200 dipendenti di Google DeepMind, la divisione AI del colosso tech. I lavoratori hanno firmato una lettera aperta che esorta Big G a interrompere le collaborazioni con organizzazioni ed enti militari, come riporta la rivista Time.
La loro preoccupazione non riguarda specificamente la geopolitica di un particolare conflitto, ma è di carattere più generale. Temono, infatti, che l’AI sviluppata da Google venga impropriamente utilizzata per scopi distruttivi e bellici, deviando la sua finalità originaria.
Il Progetto Nimbus e le tensioni interne
La lettera fa riferimento al rapporto del Time sul contratto di difesa di Google con l’esercito israeliano, noto come Progetto Nimbus. I dipendenti sottolineano che l’esercito israeliano utilizza l’AI per la sorveglianza di massa e per selezionare gli obiettivi nella sua campagna di bombardamenti a Gaza. Inoltre, le aziende israeliane produttrici di armi sono obbligate dal governo ad acquistare servizi cloud da Google e Amazon. Queste rivelazioni hanno evidenziato le tensioni all’interno di Google tra la sua divisione AI e la sua attività cloud, che vende servizi AI alle organizzazioni militari.
Proteste e impegni disattesi
L’uso dell’AI in guerra si è diffuso così rapidamente, da spingere alcuni tecnici a farsi avanti. Quando Google ha acquisito DeepMind nel 2014 aveva preso un impegno specifico: la tecnologia AI del laboratorio non sarebbe mai stata utilizzata per scopi militari o di sorveglianza.
“Qualsiasi coinvolgimento con la produzione di armi e militari ha un impatto sulla nostra posizione di leader nell’AI etica e responsabile e va contro la nostra dichiarazione di missione e i principi dichiarati in materia di AI“, si legge nella lettera che è circolata all’interno di Google DeepMind.
Dipendenti di Google DeepMind chiedono verifiche e l’istituzione di un nuovo organo di governance
Nella lettera aperta, i dipendenti di DeepMind sollecitano i vertici di Google ad approfondire le accuse secondo cui i servizi cloud dell’azienda verrebbero impiegati da realtà militari e produttori di armi. Inoltre, chiedono di bloccare in modo specifico l’accesso ai sistemi di intelligenza artificiale sviluppati da DeepMind da parte di qualsiasi organizzazione militare. Infine, propongono l’istituzione di un organismo interno di supervisione etica, con il compito di impedire in futuro l’utilizzo dell’avanzata AI di Google per scopi bellici, da parte di clienti del settore militare.
Tuttavia, nonostante le preoccupazioni dei dipendenti e le richieste di azione, finora non c’è stata “nessuna risposta significativa” da parte di Google, secondo quanto riportato da Time.