Alfonso Maruccia

Watson, la macchina in testa

Dopo un primo round positivo, la seconda tornata di quesiti nel quiz che vede fronteggiarsi umani e supercomputer si conclude con la vittoria schiacciante di quest'ultimo

Roma - Nella prima serata di "The IBM Challenge", la speciale trasmissione del quiz televisivo Jeopardy! organizzata per testare le capacità di computazione linguistica raggiunte dal supercomputer Watson, la macchina era finita in parità con uno dei due campioni umani suoi avversari. La seconda serata della sfida è andata molto meglio per Watson, che ha letteralmente distrutto Ken Jennings e Brad Rutter rispondendo correttamente alla stragrande maggioranza degli indizi forniti dal presentatore.

Il secondo round di "The IBM Challenge" è stato caratterizzato da una difficoltà maggiore degli indizi descritti ai concorrenti, fatto che a quanto pare ha favorito Watson, vincitore in quasi tutti i quesiti.

La forza bruta della potenza di calcolo del supercomputer di Big Blue è stata evidente anche nella velocità con cui la macchina ha attivato il buzzer per la prenotazione della risposta. Gli "umani" Jennings e Rutter hanno invece fatto meglio nella percentuale di risposte esatte, sbagliando due volte in meno del supercomputer con un quesito privo di penalità perché fallito da tutti e tre i concorrenti.
Diversamente dal primo round, alla fine della serata Watson ha distanziato i suoi avversari con 35.734 dollari di montepremi contro i 4.800 di Jennings e i 10.400 di Rutter. Nel corso di Final Jeopardy! - il quesito finale con puntata libera in cui tutti e tre concorrenti hanno 30 secondi per rispondere - Watson ha dimostrato una delle sue rare bizzarrie algoritmiche rispondendo "Toronto" a una domanda che riguardava espressamente città statunitensi.

Difetti di programmazione a parte, la meraviglia tecnologica di Big Blue dimostra al momento di saper fare (quasi) meglio degli esseri umani nel rispondere a formulazioni linguistiche complesse e non resta che stabilire il vincitore ultimo dopo la terza puntata di The IBM Challenge.

Alfonso Maruccia
Notizie collegate
  • TecnologiaWatson, il supercomputer da prima serataIBM ha quasi ultimato i lavori sull'AI che dovrà battere l'uomo a Jeopardy. Per comprendere le domande, elaborare le risposte e decidere cosa fare si basa sul calcolo delle probabilità
  • AttualitàWatson contro umani, primo round in paritàIl supercomputer "intelligente" di IBM ottiene un risultato più che encomiabile nella prima gara contro i più grandi campioni del quiz show Jeopardy. Non mancano le defaillance, ma IBM già pensa alle possibili applicazioni commerciali
11 Commenti alla Notizia Watson, la macchina in testa
Ordina
  • Credo che tutte le applicazioni di intelligenza artificiale (temine che uso nell'accezione "comune") mettano in atto (su scala piu larga e con maggiore valocita') processi logici o matematici che degli uomini sono stati in grado di pensare e di programmare. Finche' le cose funzionaranno cosi' credo non succedera' mai niente di sbalorditivo.
    Esistono algoritmi che sono in grado di generare codice (per es. per il test di CPU, o se vogliamo in forma molto naif nel caso delle reti neurali) e quindi sono in grado di generare nuovi processi logici, questo gia' sembra piu interessante, acnhe se la complessita' inizia ad essere fuori dalla portata della mente umana (riusciamo a fare delle cose che funzionano, ma non sappiamo come modificarle per farle funzionare meglio).
    Secono il mio parere la "vera" intelligenza artificiale dovrebbe essere fatta di codice in grado di automodificarsi e di "sapere" quali modifiche fare per migliorarsi o per ottenere un certo risultato.
    non+autenticato
  • Naturalmente nessuno ha definito Deep Blue come una I.A. (non dico strong A.I., nè general A.I., ma nemmeno un frammento di I.A.) al tempo della sua vittoria contro Kasparov. Mera efficienza nell'analisi statistica (attività che notoriamente non richiede alcun impegno intellettivo).

    Oggi un computer sembra essere in grado di comprendere domande non proprio semplicissime, nonchè, trovare le risposte più appropriate mediante efficienti algoritmi. Ma anche questa non è I.A.

    Un'auto dotata di sistemi sviluppati da Google si guida da sola nel traffico cittadino, senza causare incidenti (conosco parecchi primati che non sono in grado di farlo). Ma anche questa non è I.A.

    Un giorno dovremo confrontarci con sistemi in grado di fare praticamente tutto meglio di noi, ma i pregiudizi saranno duri a morire, faremo fatica a definirli "intelligenze".
  • Beh, sai com'è, l'autocoscienza...
  • L'autocoscienza non è una caratteristica privilegiata degli esseri umani, ed in ogni caso, è una caratteristica che abbiamo deciso di avere arbitrariamente, e che dovrebbe indicare la nostra superiore fattura.

    Semplicemente "L'autocoscienza" NON è molto più che una feature del cervello umano, potremmo implementarla anche sulle macchine quando saranno sufficientemente potenti.
  • Io sono dell'avviso che non è solo una questione di "potenza" delle macchine ma anche di software.

    Nel senso che "non ci siamo ancora", ovvero: stiamo simulando l'intelligenza ma non l'abbiamo ancora copiata.

    Un po' come quando si progetta male un database che sembra di primo acchito soddisfare le esigenze ma che in realtà pone dei limiti.

    Un po' come quando quello che occorrerebbe è magari un metodo ricorsivo ma il programmatore di turno (non proprio skillato) non conosce questa possibilità ed allora creerà soltanto un metodo (obrobrioso) che magari andrà bene solo fino ad un certo punto...

    Quando riusciremo a copiare veramente l'intelligenza l'autocoscienza verrà da se IMHO.
    non+autenticato
  • - Scritto da: zuzzurro
    > Io sono dell'avviso che non è solo una questione
    > di "potenza" delle macchine ma anche di
    > software.
    >
    > Nel senso che "non ci siamo ancora", ovvero:
    > stiamo simulando l'intelligenza ma non l'abbiamo
    > ancora
    > copiata.

    Il punto è che l'intelligenza artificiale non deve necessariamente essere identica a quella biologica. Non lo è il suo "vettore" (l'hardware), ed i primi esperimenti condotti finora dimostrano che nemmeno l'output lo è (una macchina è instancabile nell'attività mentale, noi no, ha una memoria precisa, noi no, è estremamente veloce, mentre gli impulsi elettrici del cervello sono molto lenti etc). D'altraparte se l'intelligenza artificiale fosse identica a quella biologica quale valore aggiunto potrebbe apportare alla nostra civiltà? La maggior parte degli individui ritiene che la I.A. non potrà definirsi tale fino a quando un computer non dimostrerà emozioni umane. Io dissento perchè dalla I.A. mi aspetto prima di tutto capacità puramente intellettive, non turbate dalle interferenze biologiche che il cervello umano, in quanto tutt'uno con un corpo dotato di determinate caratteristiche e necessità, deve necessariamente possedere.

    Il tutto per dire che la I.A. di tipo "forte" è in via di definizione, sostanzialmente ancora sconosciuta nella sua natura e nei suoi esiti, che si sveleranno mano a mano che progrediranno le tecnologie sia lato software che hardware.
  • contenuto non disponibile
  • Sono sicuramente più vicino ad una visione simile del problema, aggiungo però che una macchina sarebbe ovviamente autocosciente come può esserlo una macchina, e non come un delfino, per dire, e non ci possiamo aspettare da "creature" a base silicio, comportamenti che ci aspettiamo da esseri viventi a base carbonio.
  • Non sono d'accordo con te e non vorrei finire sul filosofico.
    Io mi aspetto invece creature a base di silicio autocoscienti in meno di 200 anni. E sto esagerando dicendo 200 anni, potrebbero essere molti, molti di meno. All'epoca di DeepBlue nessuno avrebbe mai ipotizzato una macchina come Watson.

    Ti consiglio di leggere qualche saggio di Marvin Minsky sull'argomento.
    non+autenticato
  • Guarda che sei tu a metterla sul filosofico, stai considerando "l'autocoscienza" come se fosse chissà che cosa, mentre non è una dote chissà quanto più importante del pollice opponibile.

    Io affermo solo il banale concetto che un organismo a base carbonio è differente da uno a base silicio, perchè di questo stiamo parlando.

    Oppure dammi una definizione di autocoscienza, altrimenti non andiamo da nessuna parte.

    E nota bene, non una serie di caratteristiche, ma una definizione.


    - Scritto da: zuzzurro
    > Non sono d'accordo con te e non vorrei finire sul
    > filosofico.
    > Io mi aspetto invece creature a base di silicio
    > autocoscienti in meno di 200 anni. E sto
    > esagerando dicendo 200 anni, potrebbero essere
    > molti, molti di meno. All'epoca di DeepBlue
    > nessuno avrebbe mai ipotizzato una macchina come
    > Watson.
    >
    > Ti consiglio di leggere qualche saggio di Marvin
    > Minsky
    > sull'argomento.
  • - Scritto da: Luke1
    > Naturalmente nessuno ha definito Deep Blue come
    > una I.A. (non dico strong A.I., nè general A.I.,
    > ma nemmeno un frammento di I.A.) al tempo della
    > sua vittoria contro Kasparov. Mera efficienza
    > nell'analisi statistica (attività che
    > notoriamente non richiede alcun impegno
    > intellettivo).
    Non e' vero. Un motore di scacchi puo' fare analisi statistica per le aperture. Pero' nel mediogioco "pensa" davvero analizzando tutte le possibili mosse (fino ad una certa profondita') e scegliendo quella migliore.


    >
    > Oggi un computer sembra essere in grado di
    > comprendere domande non proprio semplicissime,
    > nonchè, trovare le risposte più appropriate
    > mediante efficienti algoritmi. Ma anche questa
    > non è
    > I.A.
    >
    > Un'auto dotata di sistemi sviluppati da Google si
    > guida da sola nel traffico cittadino, senza
    > causare incidenti (conosco parecchi primati che
    > non sono in grado di farlo). Ma anche questa non
    > è
    > I.A.
    >
    > Un giorno dovremo confrontarci con sistemi in
    > grado di fare praticamente tutto meglio di noi,
    > ma i pregiudizi saranno duri a morire, faremo
    > fatica a definirli
    > "intelligenze".
    non+autenticato