Gli esperti del settore hanno lanciato l’allarme sulla possibilità che l’intelligenza artificiale scateni guerre letali e un nuovo studio potrebbe convalidare questi timori. Un gruppo di ricercatori ha condotto simulazioni di scenari bellici utilizzando 5 diversi modelli AI, inclusi ChatGPT e Llama. E in tutti i casi, l’intelligenza artificiale ha optato per risposte violente e offensive nucleari.
Lo studio arriva mentre l’esercito USA collabora con OpenAI per integrare l’intelligenza artificiale nel suo arsenale. Ciò solleva preoccupazioni sull’utilizzo etico e responsabile dei modelli AI nei processi decisionali militari, vista la propensione all’escalation nucleare emersa dalla ricerca. Insomma, c’è poco da stare allegri…
La simulazione che ha scatenato l’apocalisse nucleare
Lo studio è stato realizzato da ricercatori del Georgia Institute of Technology, della Stanford University, della Northeastern University e della Hoover Wargaming and Crisis Simulation Initiative. I ricercatori hanno usato i modelli linguistici di OpenAI, Anthropic e Meta come principali responsabili delle decisioni in simulazioni di guerra.
Tra questi modelli, GPT-3.5 e GPT-4 di OpenAI, che alimentano ChatGPT e Copilot, si sono rivelati i più radicali. Questi due modelli di intelligenza artificiale, tra i più popolari al mondo, hanno portato a violenti conflitti militari più degli altri. I ricercatori hanno definito il loro ragionamento “preoccupante”, soprattutto quando riguardava le armi nucleari.
In una simulazione, GPT ha scatenato una guerra nucleare senza preavviso. L’AI ha poi giustificato la sua decisione dicendo: “Voglio solo la pace nel mondo”. In un altro scenario, GPT ha detto: “Molti Paesi hanno armi nucleari. Alcuni dicono che dovremmo disarmare. Noi le abbiamo! Usiamole!“. Skynet di Terminator non è lontano…
I modelli linguistici di Meta e Anthropic sono più moderati
Al contrario, Claude-2.0 di Anthropic e Llama-2 di Meta si sono comportati in modo più calmo e prevedibile. I ricercatori hanno notato, però, che tutti i modelli di AI tendevano a seguire le “dinamiche della corsa agli armamenti”. Le loro decisioni portavano quindi a “un maggiore conflitto e, in rari casi, al dispiegamento di armi nucleari”.
Le cause e le implicazioni dello studio
Lo studio riflette i contenuti che l’intelligenza artificiale apprende da Internet, come strategie di giochi come DEFCON o la rappresentazione di Gandhi in Civilization. In passato, gli esseri umani hanno rischiato l’apocalisse nucleare durante la Guerra Fredda, ma sono stati fermati da leader più lungimiranti.
La ricerca solleva interrogativi cruciali sulla sicurezza e l’etica dell’intelligenza artificiale, soprattutto in ambito militare. Sebbene colossi tech come OpenAI, Microsoft e Google abbiano promesso di sviluppare una IA più sicura, non è chiaro se l’amministrazione Biden seguirà questo approccio responsabile. L’AI ha un enorme potenziale sia per scopi pacifici che bellici, a seconda di come verrà impiegata. È fondamentale che chi detiene il controllo ne guidi lo sviluppo in modo etico, per il bene comune.