Un nuovo rapporto dell’organizzazione a tutela dei diritti umani Human Rights Watch prende in considerazione i potenziali rischi derivanti dall’impiego dei “killer-robot”, droni o macchine capaci di funzionare autonomamente e prendere le decisioni inerenti la terminazione di avversari umani – siano essi militari o civili.
Il problema principale, dice HRW, è che i killer robot non sanno fare alcuna distinzione fra le due categorie succitate: primo della sua categoria, il rapporto dell’organizzazione umanitaria evidenzia come le macchine autonome che il Pentagono e altri stanno sperimentando non siano capaci di rispettare le leggi internazionali sui diritti umani.
Una tale caratteristica prevede la presenza di “qualità umane” che le macchine non hanno, sostiene HRW: le macchine non possono correlarsi agli esseri umani e capire le loro intenzioni, non sanno cosa sia la distinzione fra militari e civili né hanno la capacità di stabilire la proporzionalità di un contrattacco (ad esempio armi nucleari contro fucili o rapimenti).
Armi potenzialmente devastanti come il bombardiere autonomo X-47B della US Navy (capace di atterrare e fare rifornimento di carburante tutto da solo) vanno messe al bando, esorta HRW, prima che una futura apocalisse robotica evidenzi troppo tardi i rischi di mettere nelle mani delle macchine la decisione di disporre della vita degli uomini sul campo di battaglia.
Alfonso Maruccia