L’umanità rischia di capitolare di fronte al pericolo prossimo venturo degli androidi con propensioni militari? Niente affatto, perché la futura razza robotica avrà un senso etico da far invidia ad un santo. O quasi, perché tale eticità sintetica è l’obiettivo dei sostanziosi finanziamenti provenienti dal Pentagono e dalla Marina Militare statunitense, che vogliono impiegare droni eticamente consapevoli sul campo di battaglia .
Da qui al 2010 il nuovo programma della difesa USA costerà 4 miliardi di dollari. L’obiettivo dichiarato è lo sviluppo di unità combattenti autonome, che siano in grado di fare un lavoro pulito per quel che concerne i “nemici” ma tengano anche in debito conto le leggi di guerra e la convenzione di Ginevra .
I droni combattenti dovranno essere in grado di distinguere i civili dai militari, programmati per fare di tutto pur di non prendersela con chi non c’entra. Privi di emozioni, i soldati robotici saranno immuni alla rabbia, allo stress da campo di battaglia che colpisce così tanti reduci e, quel che più conta, non dovranno preoccuparsi di salvare la propria vita a discapito di quella degli altri, perché la consapevolezza di avere una vita in sostanza non fa parte della loro dotazione standard.
Secondo quanto riferisce il Daily Telegragh , il Pentagono ha contattato esperti inglesi per la creazione di un software in grado di innestare il rispetto della convenzione di Ginevra all’interno della testa di latta dei droni d’assalto in via di sviluppo. Ronald Arkin, informatico della Georgia Tech , sostiene che i robot, per quanto “non perfettamente etici sul campo di battaglia”, sono in grado di “comportarsi più eticamente dei soldati umani”.
D’altronde un automa ha il vantaggio di non avere il fardello di dover sapere quel che è giusto e quel che è sbagliato in ogni situazione, basta che sia in grado di discernere all’interno di un numero di variabili finite e prestabilite già allo start-up dell’intelligenza artificiale . Colin Allen, professore con una cattedra in filosofia della scienza presso la Indiana University, dice che il Pentagono sta cercando la risposta alla questione se sia possibile o meno fare in modo “che armi automatizzate siano in grado di conformarsi alle leggi di guerra. Possiamo o no usare la teoria dell’etica per progettare queste macchine?”.
È ora, continua il dottor Allen, “che si cominci a prendere in considerazione questo genere di problematiche” sull’implementazione di rudimenti di etica nei robot guerrieri, “invece di limitarsi ad attendere finché non sarà troppo tardi”. Volenti o nolenti, la robotica e le routine di IA hanno già abbondantemente sforato nella sfera di pertinenza dell’etica , dice Allen: già “abbiamo in circolazione computer che prendono decisioni” in grado di influenzare la vita delle persone, e lo fanno “in maniera eticamente neutra” continua il professore.
Il “robocop” del Pentagono avrà codificate nel cervello di bit le famose tre direttive+1 classificata ? Sarebbe un disastro, avverte Noel Sharkey della Sheffield University . “Mi fa venire un brivido freddo lungo la spina dorsale” dice l’informatico famoso per il suo coinvolgimento nello show televisivo Robot Wars, “ho lavorato nel campo dell’intelligenza artificiale per decenni e l’idea che un robot debba prendere decisioni sulla terminazione di vite umane è semplicemente terrificante”.
Alfonso Maruccia