Alfonso Maruccia

2013: umani contro killer robot

L'ONU promuove una moratoria contro i robot e i droni volanti capaci di uccidere senza controllo esterno (umano), mentre una campagna online promuove la messa al bando dei pericolosi gingilli. Che sono già tra noi

Roma - La guerra dei droni si trasforma nella guerra ai droni per opera di due iniziative distinte e complementari: da una parte c'è l'ONU che squalifica i robot killer o LARS (lethal autonomous robotics), dall'altra la campagna Stop Killer Robots promossa da esperti di robotica e intelligenza artificiale preoccupati per la piega che questo genere di tecnologia sta prendendo in ambito militare.

La richiesta di mettere al bando i LARS arriva dalla Commissione sui Diritti Umani delle Nazioni Unite, che in un rapporto in via di pubblicazione proibisce senza mezzi termini la possibilità di concedere alle macchine di prendere "decisioni sulla vita e la morte nei conflitti armati".

"Terminare" o risparmiare vite durante una guerra "richiede compassione e intuito", spiega l'autore del rapporto ONU Christof Heyns, qualità possedute dagli umani "fallibili" ma al di là delle possibilità per i robot e gli UAV. Heyns accusa apertamente i principali promotori dell'uso dei robot killer chiamando in causa USA, Regno Unito, Israele, Corea del Sud e Giappone.
A ridosso del rapporto ONU sui killer robot si muove anche Human Rights Watch, ONG che nel recente passato ha denunciato il rischio insito nella tecnologia e che ora torna alla carica con una campagna anti-LARS tesa a promuovere la messa al bando delle macchine assassine.

Tra i supporter dell'iniziativa c'è anche il dottor Noel Sharkey, esperto di intelligenza artificiale della Sheffield University che più e più volte ha espresso preoccupazione sui droni che fanno la guerra. È un problema di oggi, non di domani, avverte Sharkey.

Alfonso Maruccia
Notizie collegate
  • TecnologiaEra del Robot, umanità in pericoloGli esperti avvertono: le macchine create per fare il lavoro sporco degli esseri umani saranno presto la più concreta minaccia alla sicurezza globale. I prezzi diminuiscono e i terroristi non aspettano altro
  • TecnologiaL'apocalisse robotica sarà eticamente consapevoleLe armate di droni invincibili avanzano, ma il Pentagono intende ora innestar loro un senso etico. Prima che sia troppo tardi. Va bene per un robot uccidere, ma solo se si fanno fuori i cattivi
  • AttualitàLa guerra dei robotUn esperto richiama la comunità internazionale: urge il dibattito sui killer-robot. Per evitare che le macchine prendano il sopravvento sull'uomo
  • Digital LifeLa disumanità dei robotHuman Rights Watch mette in guardia dai rischi dei droni capaci di agire autonomamente, e spinge affinché li si metta al bando. La guerra è una questione di uomini, non di macchine
  • TecnologiaUSA, la guerra dei droniGli UAV impegnati nelle operazioni militari dell'intelligence uccidono, e più di quanto sia ufficialmente noto. Il budget per gli UAV-killer diminuisce ma il Pentagono pensa alle unità hi-tech per le guerre di domani.
29 Commenti alla Notizia 2013: umani contro killer robot
Ordina
  • Che Io sappia tuuti i droni sono sempre guidati da operatori umani da remoto, quindi dove starebbe la differenza fra questi aggeggi ed un missile teleguidato tipo tomawak o simili, anzi peggio visto che tali missili in genere si autoguidano per buona parte del tragitto?
    Mi sa che questi hanno visto troppi film di Terminator
  • TERMINATOR begin! Fantasma
  • - Scritto da: anverone99
    > TERMINATOR begin! Fantasma

    Ci stamperemo le armi per combatterli !
    krane
    22544
  • - Scritto da: Enjoy with Us
    > Che Io sappia tuuti i droni sono sempre guidati
    > da operatori umani da remoto, quindi dove
    > starebbe la differenza fra questi aggeggi ed un
    > missile teleguidato tipo tomawak o simili, anzi

    tomahawk (augh!)

    > peggio visto che tali missili in genere si
    > autoguidano per buona parte del
    > tragitto?

    I missili seguono un percorso e colpiscono un bersaglio prefissato. Altrimenti pure una mina che esplode automaticamente quando passa un veicolo rientrerebbe nel discorso... in modo ancora più pertinente.

    Qui si parla di droni tipo Predator o Reaper, che oggi sono teleguidati ma presto potrebbero essere dotati di capacità di giudizio autonomo sull'identificazione di amici e nemici, e della possibilità di aprire il fuoco senza intervento umano.

    > Mi sa che questi hanno visto troppi film di
    > Terminator

    e vabbé, ci salverà GionConnors...
    Funz
    12943
  • - Scritto da: Funz
    > - Scritto da: Enjoy with Us
    > > Che Io sappia tuuti i droni sono sempre
    > guidati
    > > da operatori umani da remoto, quindi dove
    > > starebbe la differenza fra questi aggeggi ed
    > un
    > > missile teleguidato tipo tomawak o simili,
    > anzi
    >
    > tomahawk (augh!)
    >
    > > peggio visto che tali missili in genere si
    > > autoguidano per buona parte del
    > > tragitto?
    >
    > I missili seguono un percorso e colpiscono un
    > bersaglio prefissato. Altrimenti pure una mina
    > che esplode automaticamente quando passa un
    > veicolo rientrerebbe nel discorso... in modo
    > ancora più
    > pertinente.
    >
    > Qui si parla di droni tipo Predator o Reaper, che
    > oggi sono teleguidati ma presto potrebbero essere
    > dotati di capacità di giudizio autonomo
    > sull'identificazione di amici e nemici, e della
    > possibilità di aprire il fuoco senza intervento
    > umano.
    >
    > > Mi sa che questi hanno visto troppi film di
    > > Terminator
    >
    > e vabbé, ci salverà GionConnors...

    E le stampanti 3D per stampare le armi con cui ci difenderemo. Ma i modelli piu' vecchi e stupidi, che se son troppo intelligenti poi si uniscono a skynet anche loro.
    krane
    22544
  • la guerra è terribile e va ripudiata, ma se ci "sei dentro" non esistono regole, lo scopo è annientare l'avversario (sul piano fisico, economico, territoriale ecc.) e lo scopo va raggiunto con tutti i mezzi possibili. Non ci sono sistemi leciti e altri non leciti, c'è chi vince e chi perde.

    Non è un bel raqionamento, me ne rendo conto, ma stiamo parlando di guerra e non - come è stato giustamente fatto notare - di una partita di calcio...
    non+autenticato
  • - Scritto da: Andrea Pagani
    > la guerra è terribile e va ripudiata,..... c'è chi
    > vince e chi
    > perde.
    E sopratutto non si è mai visto che l'arbitro appartenesse al campo perdente!
    non+autenticato
  • Non ci sono regole??
    E le convenzioni di Ginevra dove le metti?
    Può sembrare strano, ma la guerra è regolamentata!
    non+autenticato
  • - Scritto da: genuvr
    > Non ci sono regole??
    > E le convenzioni di Ginevra dove le metti?

    Qui:

    Clicca per vedere le dimensioni originali


    > Può sembrare strano, ma la guerra è regolamentata!

    E chi non si attiene alle regole, via subito, nello spogliatoio a cambiarsi. E che gli serva di lezione.
  • - Scritto da: genuvr
    > Può sembrare strano, ma la guerra è regolamentata!

    Giusto! E chi non rispetta le regole lo bombardiamo!!! Sto bastardo!!! Gli faccio una guerra che gli fa passare la foglia di combattereArrabbiato
  • - Scritto da: Andrea Pagani
    > la guerra è terribile e va ripudiata, ma se ci
    > "sei dentro" non esistono regole, lo scopo è
    > annientare l'avversario (sul piano fisico,
    > economico, territoriale ecc.) e lo scopo va
    > raggiunto con tutti i mezzi possibili. Non ci
    > sono sistemi leciti e altri non leciti, c'è chi
    > vince e chi
    > perde.

    Si può far notare il piccolo dettaglio che nel mezzo ad una guerra si ritrovano, loro malgrado, anche tanti civili inermi? Già troppo spesso accadono errori di giudizio da parte di esseri umani (vi ricordate quell'elicottero americano che fece una strage di civili - inclusi gli occupanti di un furgone sopraggiunto per soccorrere i feriti - perché dall'elicottero avevano scambiato il teleobiettivo di un fotografo per un lanciamissili?), aggiungere anche gli errori di valutazione delle macchine mi sembra una cosa da evitare.

    Per quanto le macchine facciano grandi progressi nell'esaminare la realtà, ho l'impressione che la percentuale di errore nell'esaminare dati che provengono da fonti analogiche sia ancora troppo alta... quanti errori fanno i programmi di OCR, ad esempio?

    Poi si parla di scenari di guerra, ma a scenari più generici ci si passa velocemente...
    Insomma, secondo me è bene che una macchina non sia autorizzata a decidere da sola se uccidere o meno degli esseri umani, indipendentemente dallo scenario in cui venga utilizzata.
    non+autenticato
  • - Scritto da: Ciccio

    > > la guerra è terribile e va ripudiata, ma se ci
    > > "sei dentro" non esistono regole, lo scopo è
    > > annientare l'avversario (sul piano fisico,
    > > economico, territoriale ecc.) e lo scopo va
    > > raggiunto con tutti i mezzi possibili. Non ci
    > > sono sistemi leciti e altri non leciti, c'è chi
    > > vince e chi
    > > perde.
    >
    > Si può far notare il piccolo dettaglio che nel
    > mezzo ad una guerra si ritrovano, loro malgrado,
    > anche tanti civili inermi?

    La guerra, è per definizione, una combattimento fra due popoli e quindi anche fra civili inermi. Da sempre, non da oggi.
  • > La guerra, è per definizione, una combattimento
    > fra due popoli e quindi anche fra civili inermi.
    > Da sempre, non da
    > oggi.

    Da sempre è stato un essere umano a decidere se battere la clava/tirare il sasso/colpire di spada/tirare il grilletto oppure non farlo. Non tutti quelli che vanno in guerra lo fanno con lo scopo di divertirsi a sparare sulle persone innocenti, e si spera che i droni siano programmati per cercare di distinguere personaggi ostili e non. Ma non è una distinzione facile. Quanti sono i caduti per "fuoco amico" per errori umani? Non pochi.

    Comunque sia, al giorno d'oggi, penso che di "classiche" guerre dichiarate ce ne siano poche... penso siano più gli scenari di "missioni di pace", "guerre civili" e conflitti armati che coinvolgono gruppi paramilitari mossi da interessi personali di qualche contrabbandiere o golpista. Chi ed in quali casi dovrebbe sentirsi autorizzato a torturare, stuprare, uccidere bambini, usare armi chimiche impunemente? Sono cose che SUCCEDONO UGUALMENTE (anche da parte di stati "democratici" come gli USA) pur essendo vietate, figurati se dicessero "Visto che è una "zona calda", fate tutto quello che vi pare, niente e nessuno verrà mai a chiedervi cosa avete fatto e perché...".

    Poi ovviamente ciascuno ha le sue idee, per carità... ma personalmente ritengo che il sapere che anche in guerra ci siano dei limiti che non dovrebbero essere superati sia giusto. Poi ovviamente, se le guerre proprio non esistessero saremmo tutti più felici (a parte i fabbricanti d'armi), ma purtroppo non si può avere tutto.
    non+autenticato
  • - Scritto da: Ciccio

    > > La guerra, è per definizione, una combattimento
    > > fra due popoli e quindi anche fra civili inermi.
    > > Da sempre, non da
    > > oggi.
    >
    > Da sempre è stato un essere umano a decidere se
    > battere la clava/tirare il sasso/colpire di
    > spada/tirare il grilletto oppure non farlo.

    Non proprio: è stato un capo dell'esercito a decidere, ed è stato un sottoposto a eseguire.
    I tempi cambiano, ora i capi dell'esercito danno gli ordini via tastiera e mouse. Chi ci sia dall'altra parte a eseguirli, cambia davvero poco.

    > Non
    > tutti quelli che vanno in guerra lo fanno con lo
    > scopo di divertirsi a sparare sulle persone
    > innocenti, e si spera che i droni siano
    > programmati per cercare di distinguere personaggi
    > ostili e non.

    Non ci riescono nemmeno uomini addestrati quando si muovono in ambienti tipici da guerriglia, come l'Iraq o l'Afghanistan, e ci devono riuscire gli UAV e i LARS (come odio la parola drone!). Bella questa.
  • - Scritto da: Leguleio
    > - Scritto da: Ciccio
    >
    > > > La guerra, è per definizione, una
    > combattimento
    > > > fra due popoli e quindi anche fra
    > civili
    > inermi.
    > > > Da sempre, non da
    > > > oggi.
    > >
    > > Da sempre è stato un essere umano a decidere
    > se
    > > battere la clava/tirare il sasso/colpire di
    > > spada/tirare il grilletto oppure non farlo.
    >
    > Non proprio: è stato un capo dell'esercito a
    > decidere, ed è stato un sottoposto a
    > eseguire.
    > I tempi cambiano, ora i capi dell'esercito danno
    > gli ordini via tastiera e mouse. Chi ci sia
    > dall'altra parte a eseguirli, cambia davvero
    > poco.

    Appunto, se il sottoposto fa qualcosa di sbagliato/vietato/inutilmente crudele per proria scelta, senza che nessuno gli abbia dato un ordine preciso al riguardo, la colpa è sua, e POTREBBE venire giudicato per questo. Se un drone fa qualcosa di sbagliato per propria scelta, senza che nessuno gli abbia dato un ordine preciso al riguardo, di chi è la colpa?

    > > Non
    > > tutti quelli che vanno in guerra lo fanno
    > con
    > lo
    > > scopo di divertirsi a sparare sulle persone
    > > innocenti, e si spera che i droni siano
    > > programmati per cercare di distinguere
    > personaggi
    > > ostili e non.
    >
    > Non ci riescono nemmeno uomini addestrati quando
    > si muovono in ambienti tipici da guerriglia, come
    > l'Iraq o l'Afghanistan, e ci devono riuscire gli
    > UAV e i LARS (come odio la parola drone!). Bella
    > questa.

    Appunto, una cosa è se il drone invia feedback (audio/video/dati) a qualcuno, e questo qualcuno, armato di monitor, tastiera e mouse, conferma il comando di attacco, è una cosa (e quel qualcuno, dietro alla sua tastiera, DOVREBBE in qualche modo assumersene la responsabilità)... se il drone fa tutto da solo, la cosa è un po' diversa. Responsabilità dello sviluppatore che ha disegnato l'A.I. del drone? Del tecnico che non ha installato la patch v1.32c? Del meccanico che non ha pulito la telecamera del drone prima del decollo?
    non+autenticato
  • - Scritto da: Ciccio


    > > > > La guerra, è per definizione, una
    > > combattimento
    > > > > fra due popoli e quindi anche fra
    > > civili
    > > inermi.
    > > > > Da sempre, non da
    > > > > oggi.
    > > >
    > > > Da sempre è stato un essere umano a
    > decidere
    > > se
    > > > battere la clava/tirare il sasso/colpire di
    > > > spada/tirare il grilletto oppure non
    > farlo.
    >
    > >
    > > Non proprio: è stato un capo dell'esercito a
    > > decidere, ed è stato un sottoposto a
    > > eseguire.
    > > I tempi cambiano, ora i capi dell'esercito danno
    > > gli ordini via tastiera e mouse. Chi ci sia
    > > dall'altra parte a eseguirli, cambia davvero
    > > poco.
    >
    > Appunto, se il sottoposto fa qualcosa di
    > sbagliato/vietato/inutilmente crudele per proria
    > scelta, senza che nessuno gli abbia dato un
    > ordine preciso al riguardo, la colpa è sua, e
    > POTREBBE venire giudicato per questo.

    Qui però stai spostando il discorso dalle popolazioni inermi alla responsabilità penale del singolo soldato. Sono due cose un po' diverse. Nel senso che il soldato può commettere crimini di guerra sia contro altri soldati, sia contro civili. O anche contro i suoi stessi commilitoni.


    > Se un drone
    > fa qualcosa di sbagliato per propria scelta,
    > senza che nessuno gli abbia dato un ordine
    > preciso al riguardo, di chi è la
    > colpa?

    Di chi lo ha programmato.
    Ma toglierei alla faccenda tutta quest'aura di processo di Norimberga, perché non è uno scenario plausibile, almeno per ora. Gli errori in guerra accadono, talvolta vengono ammessi alla stampa, il più delle volte rimangono negli archivi per decenni. Ma non si va di fronte a una corte marziale per un errore. Ci vuole molto di più, un'azione deliberata e gratuita di crudeltà verso i nemici, come ad Abu Ghraib. E non mi sembra che UAV e LARS abbiano questo compiti.


    > Appunto, una cosa è se il drone invia feedback
    > (audio/video/dati) a qualcuno, e questo qualcuno,
    > armato di monitor, tastiera e mouse, conferma il
    > comando di attacco, è una cosa (e quel qualcuno,
    > dietro alla sua tastiera, DOVREBBE in qualche
    > modo assumersene la responsabilità)... se il
    > drone fa tutto da solo, la cosa è un po' diversa.
    > Responsabilità dello sviluppatore che ha
    > disegnato l'A.I. del drone? Del tecnico che non
    > ha installato la patch v1.32c? Del meccanico che
    > non ha pulito la telecamera del drone prima del
    > decollo?

    Di tutti e tre, probabilmente.
    Ma si tratta di inchieste interne, nulla di rilevanza dei tribunali di guerra, trattandosi di errori o di errate valutazioni delle forze in campo.
  • Quindi, se ho ben capito leggendo la frase "proibisce senza mezzi termini la possibilità di concedere alle macchine di prendere "decisioni sulla vita e la morte nei conflitti armati"", nessuno Stato potrà usare tecnologie UAV e LARS per uccidere, così come dal 1925 nessuno può più usare armi chimiche, per il protocollo di Ginevra sono severamente vietate.
  • mi sa tanto di skynet - dal film terminator 2
    non+autenticato
  • - Scritto da: Leguleio
    > Quindi, se ho ben capito leggendo la frase
    > "proibisce senza mezzi termini la possibilità di
    > concedere alle macchine di prendere "decisioni
    > sulla vita e la morte nei conflitti armati"",
    > nessuno Stato potrà usare tecnologie UAV e LARS
    > per uccidere, così come dal 1925 nessuno può più
    > usare armi chimiche, per il protocollo di Ginevra
    > sono severamente
    > vietate.

    Le regolamentazioni delle guerre mi hanno sempre fatto sorridere. Cosa fanno poi mettono degli arbitri sui campi di battaglia? A bocca aperta
    Quando scoppia una guerra tra due paesi o modiali e perchè si rompono gli equlibri economici e di potere e saltano tutte le regole di convivenza pacifica tra i vari stati. Pensare che una guerra è una partita di calcio che deve essere giocata secondo regole prestabilite è un pò da ingenui.
    Poi alla fine di una guerra di solito un eventuale tribunale per i crimini di guerra viene fatto dai vincintori.....
  • - Scritto da: thebecker

    > - Scritto da: Leguleio
    > > Quindi, se ho ben capito leggendo la frase
    > > "proibisce senza mezzi termini la possibilità di
    > > concedere alle macchine di prendere "decisioni
    > > sulla vita e la morte nei conflitti armati"",
    > > nessuno Stato potrà usare tecnologie UAV e LARS
    > > per uccidere, così come dal 1925 nessuno può più
    > > usare armi chimiche, per il protocollo di
    > Ginevra
    > > sono severamente
    > > vietate.
    >
    > Le regolamentazioni delle guerre mi hanno sempre
    > fatto sorridere. Cosa fanno poi mettono degli
    > arbitri sui campi di battaglia?
    >A bocca aperta

    Mettono in mezzo il presidente dell'Onu con la bacchetta in mano: "Birichino, tu hai violato questa convenzione!" "Birbone, tu non ti sei attenuto alle regole di quest'altra convenzione!".
  • - Scritto da: Leguleio
    > - Scritto da: thebecker
    >
    > > - Scritto da: Leguleio
    > > > Quindi, se ho ben capito leggendo la
    > frase
    > > > "proibisce senza mezzi termini la
    > possibilità
    > di
    > > > concedere alle macchine di prendere
    > "decisioni
    > > > sulla vita e la morte nei conflitti
    > armati"",
    > > > nessuno Stato potrà usare tecnologie
    > UAV e
    > LARS
    > > > per uccidere, così come dal 1925
    > nessuno può
    > più
    > > > usare armi chimiche, per il protocollo
    > di
    > > Ginevra
    > > > sono severamente
    > > > vietate.
    > >
    > > Le regolamentazioni delle guerre mi hanno
    > sempre
    > > fatto sorridere. Cosa fanno poi mettono degli
    > > arbitri sui campi di battaglia?
    > >A bocca aperta
    >
    > Mettono in mezzo il presidente dell'Onu con la
    > bacchetta in mano: "Birichino, tu hai violato
    > questa convenzione!" "Birbone, tu non ti sei
    > attenuto alle regole di quest'altra
    > convenzione!".
    Giusto o sbagliato che sia (non è che sia sempre stato applicato) qualcuno è stato impiccato o incarcerato per reati di questo tipo in quanto il principio che si vuole affermare (illegalità convenzionale dell'utilizzo di mezzi ritenuti "disumani") determina il presupposto giuridico per operazioni di polizia e di riti giudiziari di tipo internazionale che consentono di applicare azioni di forza e repressione.

    Che poi questo sia in genere applicato dai "vincitori" (inevitabilmente) e quindi molto spesso con "pesi e misure" differenti è altro discorso... o perlomeno in realtà non è che sarebbe davvero un altro discorso (in linea di principio) è che è piuttosto difficile risolvere la questione in termini pratici.... (più che teorici)
    non+autenticato
  • - Scritto da: Leguleio
    > Quindi, se ho ben capito leggendo la frase
    > "proibisce senza mezzi termini la possibilità di
    > concedere alle macchine di prendere "decisioni
    > sulla vita e la morte nei conflitti armati"",
    > nessuno Stato potrà usare tecnologie UAV e LARS
    > per uccidere, così come dal 1925 nessuno può più
    > usare armi chimiche, per il protocollo di Ginevra
    > sono severamente
    > vietate.
    Si parla di "decidere" in termini generali anche un fucile è una "tecnologia per uccidere" il problema sta se decide in modo "autonomo" o applica decisioni prese da qualcuno.
    Al momento nessuno strumento "unmanned" prende decisioni automatiche di questo tipo (anche perchè non esiste una tale tecnologia) il che ovviamente non esclude che la studino ma a differenza di quanto dice Sharkey è un problema del futuro (forse).
    Anzi io credo che non sia neppure un problema del futuro la cosidetta "intelligenza artificiale" (intesa come capacità autonome di applicare schemi originali di ragionamento a situazioni prima incognite) si è sin qui dimostrata "stupidità naturale" di chi ne prevede da 70 anni la evoluzione.
    non+autenticato
  • - Scritto da: tucumcari
    > - Scritto da: Leguleio
    > > Quindi, se ho ben capito leggendo la frase
    > > "proibisce senza mezzi termini la possibilità di
    > > concedere alle macchine di prendere "decisioni
    > > sulla vita e la morte nei conflitti armati"",
    > > nessuno Stato potrà usare tecnologie UAV e LARS
    > > per uccidere, così come dal 1925 nessuno può più
    > > usare armi chimiche, per il protocollo di
    > Ginevra
    > > sono severamente
    > > vietate.
    > Si parla di "decidere" in termini generali anche
    > un fucile è una "tecnologia per uccidere" il
    > problema sta se decide in modo "autonomo" o
    > applica decisioni prese da
    > qualcuno.
    > Al momento nessuno strumento "unmanned" prende
    > decisioni automatiche di questo tipo (anche
    > perchè non esiste una tale tecnologia) il che
    > ovviamente non esclude che la studino ma a
    > differenza di quanto dice Sharkey è un problema
    > del futuro
    > (forse).
    > Anzi io credo che non sia neppure un problema del
    > futuro la cosidetta "intelligenza artificiale"
    > (intesa come capacità autonome di applicare
    > schemi originali di ragionamento a situazioni
    > prima incognite
    ) si è sin qui dimostrata
    > "stupidità naturale" di chi ne prevede da 70 anni
    > la evoluzione.

    Beh, in realta' a chi sviluppasse una cosa del genere interessano i falsi positivi ed i falsi negativi.
    Quanti innocenti muoiono e quanti nemici sopravvivono.
    Hai presente, chesso', come se la sono passati i civili durante la II guerra mondiale con i bombardamenti aerei ?
    O hai mai sentito parlare di Fuoco amico, Vittime accidentali, Perdite accettabili?
    non+autenticato
  • - Scritto da: Io sono riuscito a capirlo
    > - Scritto da: tucumcari
    > > - Scritto da: Leguleio
    > > > Quindi, se ho ben capito leggendo la frase
    > > > "proibisce senza mezzi termini la possibilità
    > di
    > > > concedere alle macchine di prendere "decisioni
    > > > sulla vita e la morte nei conflitti armati"",
    > > > nessuno Stato potrà usare tecnologie UAV e
    > LARS
    > > > per uccidere, così come dal 1925 nessuno può
    > più
    > > > usare armi chimiche, per il protocollo di
    > > Ginevra
    > > > sono severamente
    > > > vietate.
    > > Si parla di "decidere" in termini generali anche
    > > un fucile è una "tecnologia per uccidere" il
    > > problema sta se decide in modo "autonomo" o
    > > applica decisioni prese da
    > > qualcuno.
    > > Al momento nessuno strumento "unmanned" prende
    > > decisioni automatiche di questo tipo (anche
    > > perchè non esiste una tale tecnologia) il che
    > > ovviamente non esclude che la studino ma a
    > > differenza di quanto dice Sharkey è un problema
    > > del futuro
    > > (forse).
    > > Anzi io credo che non sia neppure un problema
    > del
    > > futuro la cosidetta "intelligenza artificiale"
    > > (intesa come capacità autonome di applicare
    > > schemi originali di ragionamento a situazioni
    > > prima incognite
    ) si è sin qui dimostrata
    > > "stupidità naturale" di chi ne prevede da 70
    > anni
    > > la evoluzione.
    >
    > Beh, in realta' a chi sviluppasse una cosa del
    > genere interessano i falsi positivi ed i falsi
    > negativi.
    > Quanti innocenti muoiono e quanti nemici
    > sopravvivono.
    > Hai presente, chesso', come se la sono passati i
    > civili durante la II guerra mondiale con i
    > bombardamenti aerei
    > ?
    Certo era obiettivo dei bombardamenti!
    Pensi davvero che gli alleati non sapessero quando bombardavano una fabbrica nella Ruhr che dentro ci lavoravano operai civili?

    E Norimberga era forse un campo militare?
    E Londra? (dall'altra parte) e Hiroshima?
    I "falsi positivi" e le "vittime collaterali" o "accettabili" esistono solo nei comunicati stampa!
    Nella pratica esistono solo obiettivi più o meno raggiunti (al 90% al 10% al 100% e così via) da un punto di vista militare.
    Il resto sono semplicissime e banalissime PANZANE!
    Occhiolino
    non+autenticato