Una collaborazione tra i ricercatori di Google DeepMind e del Future of Humanity Institute dell’Università di Oxford propone l’ istituzione di meccanismi di sicurezza per gli agenti di intelligenza artificiale (IA), un sistema pensato per poter “spegnere” una IA nel caso in cui si comportasse in maniera poco ortodossa o peggio ancora pericolosa per gli esseri umani.
I Safely Interruptible Agents proposti dai ricercatori non hanno, almeno in teoria, la capacità di evolversi fino al punto da rifiutare qualsiasi comando esterno impartito da umani: un “kill switch” integrato nel design delle macchine intelligenti garantirà sempre la possibilità di spegnerle , un modo per evitare alla radice il sopraggiungere degli scenari apocalittici che popolano l’immaginario collettivo e la fantascienza degli ultimi decenni.
Lo studio ipotizza lo sviluppo futuro di forme di intelligenza dotate di consapevolezza , ed esplora i modi in cui sia possibile evitare che una IA troppo evoluta impari a ignorare i comandi di interruzione o spegnimento implementati dai designer umani. Anche le IA tanto avanzate da progettare a loro volta altre IA evolute sarebbero da tenere sotto stretta osservazione.
Gli esempi portati dai ricercatori sono ovviamente lontani dalle apocalissi in stile Terminator, limitandosi piuttosto a descrivere robot sulla catena di montaggio che si comportano in maniera anomala e vanno spenti per evitare il sopraggiungere di “conseguenze irreversibili”.
I pericoli nascosti dietro l’evoluzione della IA sono da tempo un argomento di discussione parecchio accesa tra esperti, scienziati e dirigenti storici dell’industria tecnologica a stelle e strisce, e il campo di chi teme la nascita di una Skynet sterminatrice di uomini include già nomi di alto profilo come Stephen Hawking, Elon Musk, Bill Gates e altri.
Alfonso Maruccia