DeepMind: se due AI si scontrano, cosa succede?

DeepMind: se due AI si scontrano, cosa succede?

I ricercatori Google hanno fatto sfidare macchine dotate di intelligenza artificiale a videogame che simulano dilemmi sociali. Il risultato apre spiragli di luce sulla futura capacità di adattamento dei robot
I ricercatori Google hanno fatto sfidare macchine dotate di intelligenza artificiale a videogame che simulano dilemmi sociali. Il risultato apre spiragli di luce sulla futura capacità di adattamento dei robot

Cosa mai potrebbe accadere se due macchine dotate di intelligenza artificiale venissero messe una contro l’altra? Stringerebbero una collaborazione o finirebbero per litigare? È ciò che si sono chiesti gli ingegneri di DeepMind (dal 2014 sotto l’ala di Google) i cui risultati sono stati presentati in uno studio di recente pubblicazione. Per l’occasione le macchine sono state poste di fronte a “dilemmi sociali”, ovvero situazioni in cui un individuo può trarre vantaggio dal fatto di restare da solo, ma il vantaggio è destinato a sparire nel momento in cui più individui dovessero competere. The Verge cita l’esempio del dilemma del prigioniero : due individui si contendono un premio scegliendo tra diverse opzioni, se per entrambi la scelta ricade sulla stessa opzione il premio viene perso.

I ricercatori hanno usato dei videogame come pretesto per stimolare le macchine e farle scontrare . Il contesto è semplice: In Gathering il giocatore ha la possibilità di colpire con un raggio laser l’altro concorrente sospendendolo momentaneamente dal gioco. Durante la sua assenza il giocatore può raccogliere più agevolmente degli oggetti, acquisendo punti.

In Wolfpack invece due giocatori devono catturarne un terzo. I punti ottenuti dalla cattura sono rivendicati non solo dal giocatore che ha completato la missione, ma anche da chi vi si trova vicino.

A secondo del contesto, l’intelligenza artificiale ha agito in maniera differente , a volte collaborando e a volte preferendo lo scontro. Nel primo gioco ad esempio l’introduzione di un giocatore più forte ha alterato il comportamento facendo propendere l’intelligenza artificiale ad adottare un atteggiamento più aggressivo. All’inizio del gioco invece, vista l’abbondanza degli oggetti da raccogliere si è registrata una maggior collaborazione: concentrarsi sull’aggressione dell’avversario infatti equivale a spendere più potenza di calcolo e perdere opportunità di raccolta di oggetti. In Wolfpack invece è stato evidenziato che per collaborare (scelta più opportuna) è richiesta molta potenza di calcolo. Solo l’intelligenza artificiale più sofisticata ha quindi propeso per la collaborazione con migliori risultati.

I ricercatori hanno espresso soddisfazione per i risultati, che potranno infatti essere utilizzati “per capire meglio i complessi sistemi multi-agente come l’economia, i sistemi di traffico e la salute ecologica del pianeta: tutte cose che dipendono dalla nostra continua cooperazione”.

È interessante notare che ormai tutti i più recenti esperimenti che hanno a che fare con l’intelligenza artificiale prevedono di riflesso applicazioni con il mondo reale (si pensi all’ultima vittoria a poker contro campioni in carne ed ossa). Le macchine hanno imparato a reagire a stimoli inconsueti e aleatori tipici della vita quotidiana . Non si tratta più di predire le mosse dell’altro, ma saper reagire di conseguenza in modo consono. In lontananza si intravedono già questioni inerenti alle alterazioni di comportamento causati da possibili cattive compagnie (come i troll online). Ebbene sì, anche i robot dovranno fare i conti con la “coscienza” e rispettare l’etica pur non avendo la consapevolezza di cosa siano (almeno per ora).

Mirko Zago

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
13 feb 2017
Link copiato negli appunti