Qualche mese dopo la pubblicazione del documento sui principi della ricerca sull’intelligenza artificiale (IA), dal Future of Life Institute (FLI) arriva una nuova lettera focalizzata sui rischi derivanti dall’uso – e abuso – della IA connesso agli armamenti. Le armi autonome, o robot-killer, non vanno assolutamente sviluppate, esortano i supporter della campagna.
La lettera è stata firmata da più di un migliaio di esperti, ricercatori, scienziati e membri ben noti della comunità tecnologica internazionale, inclusi ovviamente chi da tempo ha preso a esprimere la propria preoccupazione per l’uso di IA come Elon Musk , Stephen Hawking, Steve Wozniak, Noam Chomsky e molti, molti altri.
Il FLI dà per scontato lo sviluppo, in tempi relativamente brevi, di armi automatiche in grado non solo di sparare ma soprattutto di decidere quando farlo, un progresso reso possibile dagli avanzamenti nella ricerca sull’intelligenza artificiale e che avrà conseguenze probabilmente molto più significative dello sviluppo delle armi nucleari.
Quello che l’umanità non dovrebbe assolutamente fare , esortano i ricercatori, è di avviare una “corsa agli armamenti autonomi” nella quale i governi più ricchi e quelli più bellicosi si impegnino a far progredire lo sviluppo dei robot killer; l’uso di una simile tecnologia è molto più accessibile delle succitati armi atomiche, dicono dal FLI, e presto le stesse capacità di distruzione dei paesi più sviluppati entrerebbero nelle disponibilità di terroristi e criminali.
I ricercatori al lavoro sulla IA non hanno alcun interesse a sviluppare armi intelligenti alla stessa maniera in cui chimici e biologi non vogliono creare armi chimiche o biologiche, spiega ancora la lettera, quindi lo sviluppo dell’intelligenza artificiale – posto che questo sia mai realmente possibile – deve concentrarsi sul modo con cui beneficiare l’intera umanità piuttosto che ucciderla.
Alfonso Maruccia