I ricercatori della Cambridge University propongono l’istituzione di un Centro Studi sul Rischio Esistenziale (CSER), con l’obiettivo specifico di analizzare accuratamente i potenziali rischi alla sopravvivenza della specie umana. Iniziativa voluta da un filosofo, uno scienziato e un ingegnere del software, il CSER dovrebbe avere il compito di valutare quale impatto potrebbero avere sull’esistenza dell’uomo fattori di rischio come il biotech e le nanotecnologie, cambiamenti climatici estremi, guerre termonucleari e la nascita dell’intelligenza artificiale.
Un problema di cui si comincia a parlare con sempre maggior attenzione , quello della possibile estinzione della razza umana, e che nel caso delle macchine intelligenti ha già prodotto allarmi “ufficiali” diramati dalle organizzazioni come Human Rights Watch .
I promotori di CSER mettono in guardia dalla creazione futura di una “intelligenza generale artificiale” (AGI), capace di programmare e costruire macchine tutta da sola e che potrebbe entrare in conflitto con le esigenze di sopravvivenza della specie che per prima quelle macchine ha costruito. Tra l’uomo e la AGI potrebbe instaurarsi una sorta di competizione per lo sfruttamento delle risorse, dice il filosofo (e co-fondatore di CSER) Huw Price, nella stessa maniera in cui i gorilla e gli umani si contendono il territorio in questo momento.
I gorilla sono in estinzione non perché l’uomo sia apertamente ostile, spiega Price, ma perché il suo modo di controllare l’ambiente esterno va a esclusivo vantaggio della sua specie e non si cura minimamente delle esigenze delle altre. In questo secolo o in quello successivo, dice Price, quando la AGI arriverà al punto da sfuggire ai limiti della biologia per avviare un proprio ciclo evolutivo autonomo, l’uomo si troverà davanti a un momento da “vaso di Pandora” la cui sottovalutazione potrebbe portare a effetti disastrosi per l’intera specie umana.
Alfonso Maruccia