Alfonso Maruccia

Intelligenza artificiale, gli ottimisti e i preoccupati

Nuove voci intervengono nel dibattito sull'intelligenza artificiale, e soprattutto sul pericolo alla sopravvivenza della specie umana che le macchine senzienti potrebbero rappresentare. Bill Gates ha paura, qualcun altro no

Intelligenza artificiale, gli ottimisti e i preoccupatiRoma - Intelligenza artificiale, pericolo di estinzione per la razza umana o la più grande opportunità tecnologica di sempre? Il dibattito, già acceso da tempo, registra ora anche l'intervento di Eric Horvitz, responsabile della divisione ricerca di Microsoft.

Horvitz fa parte del campo degli "ottimisti", di quelli cioè che non credono che l'uomo possa perdere il controllo sulla IA - posto che una IA davvero intelligente venga mai creata sul serio. Lo sviluppo di algoritmi e macchine "intelligenti" porteranno enormi benefici a tutti, spiega Horvitz, anche se a maggiori complessità della IA corrisponderà la comparsa di dilemmi di ordine etico.

Chi invece condivide il pessimismo di Elon Musk e Stephen Hawking sulla IA è Bill Gates, che in una sessione di domande e risposte su Reddit si dice preoccupato non per quello che l'intelligenza artificiale può fare ora o potrà fare tra poco tempo, ma per quello che le macchine senzienti saranno in grado di fare da qui a qualche decade.
L'intelligenza artificiale si rivolterà contro il suo creatore? Forse no, ipotizzano ricercatori americani e australiani, se chi si occupa di formare gli esperti di IA dei prossimi anni prenderà a ispirarsi ai classici della letteratura fantascientifica dove la trattazione delle questioni etiche connesse alle macchine senzienti è già pratica comune da decenni.

Alfonso Maruccia
Notizie collegate
  • AttualitàIA, controlliamola prima che sia tardiUna lettera aperta, firmata dal gotha dell'industria che investe sul software intelligente, esorta la community a rispettare principi di salvaguardia fondamentale prima di gettare le basi per un futuro in stile Terminator
  • TecnologiaLampi di Cassandra/ Uccido, dunque sonodi M. Calamari - Non solo droni volanti progettati per la guerra, non solo Terminator armati di tutto punto. Esistono anche Skynet e Invernomuto, intelligenze artificiali che potrebbero covare minacce per l'uomo
  • TecnologiaCassandra Crossing/ Terminati!di M. Calamari - Chi ha apprezzato il film di James Cameron "Terminator" non pensava di rivederlo nella realtà. Sopratutto, non così presto
42 Commenti alla Notizia Intelligenza artificiale, gli ottimisti e i preoccupati
Ordina
  • Personalmente più che l'avvento di Skynet (vedi Terminator) mi preoccupa l'effetto rincoglionimento che la tecnologia sta già creando da decenni.

    Venditori che partono senza conoscere la posizione del cliente, manager che chiedono i dati durante le riunioni, amici che organizzano la serata senza decidere dove e quando... solo 20 anni fa persone simili sarebbero state punite dalle circostanze, oggi proliferano perché si mette sempre una pezza, vivendo sempre più nella confusione e nell'incertezza.

    L'avvento di varie AI favorirebbe ancora di più gli idioti, non mi ricordo più il titolo di un racconto di fantascienza attualissimo dove una organizzazione segreta cercava di prevenire i continui danni creati da una popolazione ignorante e superficiale.
    non+autenticato
  • l'IA non è umana. Non è neanche animale. L'IA non è viva.

    Tutte le paure sollevate dalla proiezione di attitudini animali o peggio ancora umane sull'IA sono stupide (es: sopraffazione, predomino, paura, conservazione, sentimenti vari, supporto all'ego, ...).

    La psicologia di base animale o umana si basa sulla specifica natura di essere evoluto per selezione naturale (vuole sopravvivere e riprodursi), su un progetto comune a base di acqua e carbonio (deve mangiare altri essere di acqua e carbonio per sopravvivere) e altre specificità.

    L'unico essere sè-cosciente è persino un essere gregario, quindi con psicologia di base (e tutto ciò che ne deriva: personalità e cultura) legato alla necessità della sopravvivenza di altre diverse istanze.

    L'IA non è nulla di tutto questo. L'unica cosa in comune che a priori si può dire abbia con gli esseri viventi è la sua necessità di energia in un ambiente con energia libera limitata. Il risparmio e la ricerca di energia è l'unica cosa in comune con noi, ma con vincoli del tutto meno limitativi. Lui in più avrà altri sui limiti, dipendenze, qualcuno ci starà già pensando.

    Che vuole una IA? Quale scala di priorità (noi li chiamiamo "valori") forma la sua volontà? La parola ai filosofi, neppure agli psicologi (che delle argomentazioni di cui sopra non sospettano neppure l'esistenza).

    E' pericolosa una IA? Quant'è vero Iddio. (ovvero: chi lo sa?)

    Lo è quanto potrebbe esserlo un cervello di Boltzman: http://it.wikipedia.org/wiki/Cervello_di_Boltzmann
    non+autenticato
  • - Scritto da: Gibbo
    > l'IA non è umana. Non è neanche animale. L'IA non
    > è
    > viva.
    >
    > Tutte le paure sollevate dalla proiezione di
    > attitudini animali o peggio ancora umane sull'IA
    > sono stupide (es: sopraffazione, predomino,
    > paura, conservazione, sentimenti vari, supporto
    > all'ego,
    > ...).
    >
    > La psicologia di base animale o umana si basa
    > sulla specifica natura di essere evoluto per
    > selezione naturale (vuole sopravvivere e
    > riprodursi), su un progetto comune a base di
    > acqua e carbonio (deve mangiare altri essere di
    > acqua e carbonio per sopravvivere) e altre
    > specificità.

    Se nel programmazione della IA sono inclusi l'istinto di autoconservazione e quello di riproduzione, allora tutto il tuo discorso cade.
    Che ce l'abbiamo inseriti noi o la IA precedente, a quel punto che differenza c'è con un organismo al carbonio?
    Funz
    12979
  • La pericolosità dell'IA dipende da quello che decidiamo di fargli fare.
    Se decidiamo che la IA deve guidare i droni per bombardare, diventa pericolosa.
    Se la IA ci dà dei consigli su come fare la pasta al sugo, sarà innocua.
    non+autenticato
  • In realtà non credo che potremo decidere.
    Per poter essere definita intelligente deve essere in grado modificare il proprio comportamento base alle conoscenze e all' esperienza vissuta, fecendo anche ipotesi speculative al variare delle condizioni, per ragiungere l' obiettivo che si è prefissato.
    Di conseguenza una AI deve essere in grado di modificare in proprio il codice dei programmi che la fanno funzionare, a quel punto non puoi più parlare di controllo o immaginare quali saranno le sue priorità e i mezzi che utilizzerà per raggiungere, gli obiettivi che si è posta.
    non+autenticato
  • Ok per il modificare il proprio comportamento. Ma comunque le periferiche alle quali colleghi la IA le decidi tu. Un conto è che la colleghi ad una caffettiera, un conto un sistema di avviamento per razzi con testate nucleari.
    non+autenticato
  • Quindi tu svilupperesti una vera AI per collegarla ad una caffettiera che magari non funzionerà perchè l' AI decide che non ti vuole fare il caffè?
    non+autenticato
  • - Scritto da: San Steve
    > In realtà non credo che potremo decidere.
    > Per poter essere definita intelligente deve
    > essere in grado modificare il proprio
    > comportamento base alle conoscenze e all'
    > esperienza vissuta, fecendo anche ipotesi
    > speculative al variare delle condizioni, per
    > ragiungere l' obiettivo che si è
    > prefissato.
    > Di conseguenza una AI deve essere in grado di
    > modificare in proprio il codice dei programmi che
    > la fanno funzionare, a quel punto non puoi più
    > parlare di controllo o immaginare quali saranno
    > le sue priorità e i mezzi che utilizzerà per
    > raggiungere, gli obiettivi che si è
    > posta.

    :|

    Ehm... Nota che esistono da tempo i programmi automodificanti:

    http://it.wikipedia.org/wiki/Codice_automodificant...
  • So che esistono, ma a parte riprodursi (virus) e apprendere non fanno altro.
    Siamo ancora nella fase equiparabile biologiamente all' evoluzione di virus, batteri o al massimo flagellati unicellulari.
    Io ho specificato ipotesi speculative e raggiungimento di obiettivi, ho sbagliato non aggiungendo la capacità di variare l'obiettivo in base al risultato dell' ipotesi speculativa.
    A quel punto come fai a controllarlo??
    non+autenticato
  • - Scritto da: San Steve
    > So che esistono, ma a parte riprodursi (virus) e
    > apprendere non fanno altro.
    > Siamo ancora nella fase equiparabile
    > biologiamente all' evoluzione di virus, batteri o
    > al massimo flagellati unicellulari.

    Infatti, solo che potrebbero non servire milioni di anni per attendere che si evolvano, potrebbe bastare la scoperta di qualche tecnica nuova.

    > Io ho specificato ipotesi speculative e
    > raggiungimento di obiettivi, ho sbagliato non
    > aggiungendo la capacità di variare l'obiettivo in
    > base al risultato dell' ipotesi speculativa.
    > A quel punto come fai a controllarlo??

    Esatto !
    non+autenticato
  • Il concetto di pericolosità credo sia relativo.
    Anche una comune e banale calcolatrice potrebbe essere pericolosa, se qualcuno la programma per sbagliare appositamente i calcoli. E credo che a quel punto sarebbero cavoli amari per gli umani, che hanno dimenticato di fare i conti da soli e, cosa ben peggiore, si fidano ciecamente del risultato che vedono sul display o su di un qualsivoglia computer. Nemmeno se ne accorgono dell'errore, tanto è il livello di fiducia che gli umani affidano ai computer. Eppure... se ci si mette qualche malintenzionato... potrebbe combinare davvero casini. Senza scomodare Terminator, basta semplicemente depistare l'esattezza della capacità di calcolo per far scoppiare una terza guerra mondiale nel mondo delle banche e di tutto il resto...

    - Scritto da: vituzzo
    > La pericolosità dell'IA dipende da quello che
    > decidiamo di fargli
    > fare.
    > Se decidiamo che la IA deve guidare i droni per
    > bombardare, diventa
    > pericolosa.
    > Se la IA ci dà dei consigli su come fare la pasta
    > al sugo, sarà
    > innocua.
    non+autenticato
  • Sono molto più preoccupato dalla "stupidità naturale" di cui si vedono in loco e in ogni dove grandi e mirabolanti esempi... per ora quelli di "intelligenza artificiale"... diciamo .... non pervenuti!
    A bocca aperta
    non+autenticato
  • ma uomo o macchina alla fine ti devi alimentare ... A bocca aperta
    non+autenticato
  • a meno che non si tratti delle macchine a molla di Anna e Hans Voralberg (Syberia), ma anche in questo caso avrebbero bisogno dell'olio per lubrificare i meccanismi... il semplice fatto di esistere comporta delle necessità.
    "Causalità.. non c’è verso di sfuggirle, le saremo in eterno assoggettati.." (Merovingio, Matrix)
    non+autenticato
  • - Scritto da: prova123
    > a meno che non si tratti delle macchine a molla
    > di Anna e Hans Voralberg (Syberia)
    Si e per caricare la molla bisogna fare un pellegrinaggio al monte Sinai sperando che la mano di Dio non sia in altre faccende impiegata...
    L'olio è un problema semplice da risolvere ci riusciamo persino noi!
    Rotola dal ridereRotola dal ridereRotola dal ridere
    non+autenticato
  • e soprattutto che dopo la carica della molla non gli scappi un applauso!A bocca apertaA bocca apertaA bocca aperta
    non+autenticato
CONTINUA A LEGGERE I COMMENTI
Successiva
(pagina 1/2 - 10 discussioni)