Mauro Vecchio

Intelligenza artificiale? Roba da bambini

Uno tra i sistemi più avanzati al mondo avrebbe una mente simile a quella di un bambino di 4 anni. Un ateneo statunitense ha misurato il QI di ConceptNet 4, sviluppato al prestigioso MIT

Roma - Alla University of Illinois di Chicago (UIC), un gruppo di ricercatori specializzati nei meccanismi di apprendimento tra uomo e macchina hanno deciso di testare l'effettivo quoziente d'intelligenza (QI) di uno tra i sistemi artificiali più avanzati al mondo. Presentati nel corso dell'ultima edizione della Artificial Intelligence Conference di Bellevue (Washington), i risultati ottenuti dall'ateneo statunitense hanno sorpreso la comunità scientifica: una delle menti non-umane più brillanti sarebbe equivalente a quella di un bambino di appena 4 anni.

Al centro dell'esperimento condotto dai ricercatori di Chicago è così finito ConceptNet 4, sistema d'intelligenza artificiale sviluppato al prestigioso Massachussetts Institute of Technology (MIT). La macchina è stata sottoposta ad una serie di test d'intelligenza generalmente misurati per l'età prescolare, in modo da calcolare il QI sulla Wechsler Preschool and Primary Scale of Intelligence (WPPSI).

Tra gli autori dello studio alla UIC, il professor Robert Sloan ha scoperto che ConceptNet 4 riesce ad ottenere ottimi risultati nei test relativi al vocabolario o nel riconoscimento di parole e immagini simili. La performance del sistema artificiale è stata però disastrosa nell'ambito della generica comprensione, in sostanza nelle risposte alle domande che iniziano con perchè.
In altre parole, i meccanismi di apprendimento di ConceptNet 4 risultano pari a quelli di un bambino di 4 anni, perché non sono capaci di elaborare gli elementi provenienti dall'esterno per prendere decisioni consapevoli o rispondere a domande precise. Lo stesso professor Sloan ha spiegato che l'attuale stato dell'arte nell'intelligenza artificiale non riesce ancora ad afferrare i principi basilari del senso comune o pratico nelle situazioni di tutti i giorni.

Mauro Vecchio
Notizie collegate
  • TecnologiaIBM mette a Watson il camice biancoIl "cervello virtuale" di Big Blue in aiuto del settore medico. Per cercare una cura contro il cancro. E stanare le frodi alle assicurazioni mediche. In attesa che l'AI venga traghettata dai super-computer ai server tradizionali
  • TecnologiaAngelina, parto videoludico per l'intelligenza artificialeArriva il primo frutto commestibile del progetto Angelina, l'IA che programma videogiochi: il primo titolo è un puzzle-platform, ha tematiche natalizie e un livello di difficoltà incostante
  • TecnologiaMIT, i chip sinapticiGli esperti del prestigioso istituto di ricerca statunitense presentano un nuovo design di microchip, un dispositivo pensato per simulare i fondamentali collegamenti neuronali a cui si devono le capacità del cervello umano
25 Commenti alla Notizia Intelligenza artificiale? Roba da bambini
Ordina
  • senza offesa, ma questo articolo è piuttosto fuorviante. dà l'impressione che tutta la ricerca riguardo l'intelligenza artificiale si limiti a giocattolini del livello di conceptnet.
    tanto per restare in tema di MIT date un'occhiata a cosa fa genesis:
    http://groups.csail.mit.edu/genesis/
    se poi volete trovare ricerche ancor più sostanziose (otre che inquietanti, in alcuni casi), provate con siti governativi ad orientamento militare (DARPA, per restare in america).
    fermo restando che il livello della ricerca (in ogni campo) che viene reso noto al grande (si fa per dire) pubblico è quello di 5-10 anni fa.
    non+autenticato
  • Io l'ho sempre detto che prima di studiare
    l'intelligenza artificiale l'uomo dovrebbe
    studiare la stupidità naturale.

    E comunque un bambino di 4 anni sa salire
    (ancorché a gattoni!) dei semplici scalini...

    http://www.youtube.com/watch?v=ASoCJTYgYB0
    -----------------------------------------------------------
    Modificato dall' autore il 17 luglio 2013 19.51
    -----------------------------------------------------------
  • La mia nipotina di 3 anni è lei che fa le domande con i perché... E a tante ha già trovato la risposta... Non so che genere di bambini hanno gli americani...
    non+autenticato
  • Perché alla tua nipotina di 3 è già stata data una risposta, in un modo o nell'altro.
    Anche all'IA se metti nel codice una statement "IF (domanda == 'perchè gli uccelli volano?') print('perché hanno le ali');" è facile anche per l'IA.
    non+autenticato
  • - Scritto da: Antony
    > Perché alla tua nipotina di 3 è già stata data
    > una risposta, in un modo o
    > nell'altro.
    > Anche all'IA se metti nel codice una statement
    > "IF (domanda == 'perchè gli uccelli volano?')
    > print('perché hanno le ali');" è facile anche per
    > l'IA.

    E se vede una gallina va in blocco?
    non+autenticato
  • occhio che si parla di media

    è ovvio che ci sono bambini molto più intelligenti della media ed è un fatto che, con l'andare delle generazioni, l'intelligenza media sia aumentata ( che poi viene distrutta dai media nel corso dell'adolescenza, è un altro discorso )
    non+autenticato
  • Quindi quando svilupperanno ConceptNet 18 questo avrà l'intelligenza di un ragazzo di 18 anni? beh, se ci mettono 14 anni per farlo mi sembra un traguardo notevole... Mi chiedo come faranno a risolvere i problemi più comuni, come il non prendere la macchina di Papà per andare a rimorchiare, bere, drogarsi, cattive frequentazioni e siti porno.
    non+autenticato
  • - Scritto da: Giorgio Maria Santini
    > Quindi quando svilupperanno ConceptNet 18 questo
    > avrà l'intelligenza di un ragazzo di 18 anni?
    > beh, se ci mettono 14 anni per farlo mi sembra un
    > traguardo notevole...

    Da ConceptNet 4 a ConceptNet 18, 14 anni?
    Quindi se ci mettono 50 anni avremo un'IA con l'alzheimer A bocca aperta
  • - Scritto da: Giorgio Maria Santini
    > Quindi quando svilupperanno ConceptNet 18 questo
    > avrà l'intelligenza di un ragazzo di 18 anni?
    > beh, se ci mettono 14 anni per farlo mi sembra un
    > traguardo notevole... Mi chiedo come faranno a
    > risolvere i problemi più comuni, come il non
    > prendere la macchina di Papà per andare a
    > rimorchiare, bere, drogarsi, cattive
    > frequentazioni e siti
    > porno.


    Basterà evitare di dotare la AI di ormoni.
    non+autenticato
  • Il processo di apprendimento umano si basa sull'immersione totale nel contesto di cui si devono apprendere i principi. Una macchina avrà grosse difficoltà a replicare il suddetto processo di apprendimento, fino a quando non verrà dotato di meccanismi di interazione input/output che gli permettano di "vivere" il contesto in modo analogo a quello permesso agli umani. Stringendo, senza sensori e attuatori (sensi e mobilità) analoghi a quelli umani, credo che sussistano grosse difficoltà nel far progredire le AI per come le immaginiamo noi. Diverso sarebbe il discorso di sviuppare AI efficienti in contesti diversi dal nostro come il web o realtà virtuali. Da questo punto di vista credo che l'obiettivo sia più semplice.
    non+autenticato
  • non ce lo vedo il problema, a meno di non voler creare un'AI addestrata a la maniera umana

    l'intelligenza è intelligenza, indipendentemente dal contesto in cui si è sviluppata e/o dagli strumenti di i/o usati ( a patto che forniscano il minimo di informazioni necessarie allo sviluppo dell'intelligenza stessa )

    la teoria che hai espresso è la stessa su cui si è basato il lavoro di Brooks al MIT, ovvero una mente umana può nascere solo in un corpo umano

    però quel livello d'intelligenza non è detto che possa albergare solo in una mente umana!!

    l'errore che è stato fatto, fino ad oggi, è di guardare ai componenti dell'intelligenza separatamente, senza creare un framework teorico che abbracci la totalità del problema

    così sono nati algoritmi, sistemi fuzzy, esperti, reti neurali per l'elaborazione delle immagini oppure del suono oppure per le decisioni finanziarie, ecc....

    ma nessun sistema ha mai affrontato il problema nella sua totalità

    un'IA può apprendere pure su internet, tanto ci sono miliardi di documenti, contenenti fatti, eventi, connessioni logiche, semantiche, ecc...
    non+autenticato
  • Ciao, scusami sembra che oggi di perseguito, risondendo ai tuoi post ma è solo un caso.

    - Scritto da: collione
    > l'errore che è stato fatto, fino ad oggi, è di
    > guardare ai componenti dell'intelligenza
    > separatamente, senza creare un framework teorico
    > che abbracci la totalità del
    > problema
    > ma nessun sistema ha mai affrontato il problema
    > nella sua
    > totalità

    Esatto. concordo!
    Anche io credo che l'approccio sia sbagliato.
    Finchè non si "comprende" che ciò che ha portato alla nostra intelligenza sono gli istinti dubito che si avranno risultati apprezzabili.
    Si potrebbe iniziare con l'istinto più forte e primordiale: la sopravvivenza.
    Se si vuole creare un'intelligenza artificiale il primo passo è dargli come unico primo e imprescindibile obbiettivo quello di sopravvivere... di vincere.
    Poi con l'affinamento delle tecniche di programmazione si può pensare ad una sua evoluzione. Ma l'indipendenza logico (il concetto alla base dell'IA) deve essere quella di non perdere.

    Dicono "pari ad un bambino di 4 anni" io ne dubito.
    Repoto più intelligente un bot che mi batte ad uno strategico e cuno che mi sa dire perchè "volano gli uccelli"

    Eppure anche i fervidi srittore di fantascienza hanno ipotizzato che le macchine sviluppino una loro IA indipendente al pericolo di essere "smantellate".
    Evidente crearlo (si parla pur sempre del MIT) è più difficile che intuirlo (e probabilmente la distanza è di molti gradi)
    non+autenticato
  • Ritengo che l'istinto principale dell'uomo non sia la sopravvivenza dell'individuo ma la sopravvivenza (o meglio: l'evoluzione) della specie. L'istinto di sopravvivenza dell'individuo è solo una conseguenza di quello specifico anche se a volte prende il sopravvento in soggetti predisposti. La suddetta spinta specifica si può concretizzare in particolari comportamenti evidenti, ma più spesso è un processo a lungo termine che non sempre lascia emergere la reale direzione. D'altronde, una specie senza questo tipo di "protezione", non avrebbe la possibilità di sopravvivere a lungo e verrebbe selezionata rapidamente. Se isolato, l'uomo pone la propria salvezza di fronte a tutto, ma inserito in un contesto di gruppo coeso, subentrano equilibri che lo portano a valorizzare maggiormente comportamenti che preservino il gruppo. L'esempio principale è la famiglia (tra l'altro, incarnato principe della prosecuzione della specie), ma lo stesso atteggiamento si può ritrovare in gruppi particolarmente affiatati o contesti di tensione emotiva (come in battaglia).
    Rientrando nell'argomento di discussione...
    Tolto che, credo sia auspicabile tenere lontano dalle macchine il più possibile qualsiasi istinto di sopravvivenza (di cui noi saremmo i primi a fare le spese), come può una AI sviluppare una intelligenza simile alla nostra quando mancano presupposti come quelli descritti e in particolare mancano le relazioni di gruppo con individui della stessa specie?
    Ritengo che la chiave dello sviluppo dell'intelligenza (sempre intesa come la conosciamo noi) risieda nell'evoluzione. E' attraverso un'evoluzione "spontanea" (in un contesto di molte generazioni secondo gli stessi criteri umani), che può crescere una intelligenza adatta a vivere quel contesto. E' la selezione naturale (che principalmente seleziona i caratteri più idonei attraverso la selezione degli individui) la via da perseguire, a mio avviso.
    Le difficoltà che stiamo riscontrando, derivano dal fatto di voler saltare le tappe. Stiamo cercando di ottenere il risultato di miglioni di anni di evoluzione, producendone direttamente la conclusione. Non è impossibile, ma lo ritengo molto complicato.
    Scusate se mi sono dilungato un po' ma è un argomento che mi ha sempre appassionato.
    non+autenticato
  • - Scritto da: nex
    > Ritengo che l'istinto principale dell'uomo non
    > sia la sopravvivenza dell'individuo ma la
    > sopravvivenza (o meglio: l'evoluzione) della
    > specie. L'istinto di sopravvivenza dell'individuo
    > è solo una conseguenza

    Ciao
    Premetto che non ho usato il termine "principale" ma "forte e primordiale" ed era una scelta di termini voluta.
    Detto questo io non concordo con il tuo pensiero ma _solo ed esclusivamente_ perchè, secondo me, confondi causa ed effetto.
    L'uomo (inteso antropologicamente) ha l'istinto di sopravire, l'evoluzione (sopravvivendo i più idonei c'è evoluzione) e la sopravvivenza della specie (collaborare permette la sopravvivenza individuale più facilmente) sono gli effetti di questo.

    Se ristabiliamo la giusta (imo) corrispondenza causa ed effetto il tuo discorso, oltre che ben espresso è condivisibile

    :D
    non+autenticato
  • Mi sono espresso male. Non intendevo porre l'accento su un rapporto causa-effetto tra gli istinti dell'uomo. In effetti la sopravvivenza della specie non credo sia affatto un istinto dell'uomo. E' probabilmente la conseguenza della totalità delle spinte istintive umane. La teoria dell'evoluzione però tende a confondere l'effetto di un insieme di condizioni, facendoli spesso apparire come uno scopo. La sopravvivenza della specie non è invece un fine, ma un effetto (su questo mi sono espresso in modo poco chiaro). Il fatto però che la sopravvivenza della specie sia una condizione necessaria all'esistenza dell'individuo, porta facilmente a essere tratti in inganno sulla prospettiva con cui osservare il fenomeno. Stringendo, non siamo affatto spinti verso la sopravvivenza della specie in quanto vogliamo che la specie sopravviva, nè la specie ha una sua volontà di gruppo che influenza gli individui, ma semplicemente, se non sussistessero le condizioni discusse, non esisteremmo affatto (e non potremmo porci quesiti di questo genere).

    Temo di essere finito completamente off-topic: mi trasferisco su un forum di filosofia. [kidding]
    non+autenticato
  • - Scritto da: Phronesis

    > Finchè non si "comprende" che ciò che ha portato
    > alla nostra intelligenza sono gli istinti dubito
    > che si avranno risultati
    > apprezzabili.

    ecco, questo è un fatto importante

    un'IA deve avere come elemento fondamentale la spinta ad agire, a muoversi, a produrre un output ( o come altro lo si vuole dire )

    e cosa dovrebbe spingerla? negli animali è l'istinto, quindi ci vuole una forma d'istinto pure nelle macchine

    > Si potrebbe iniziare con l'istinto più forte e
    > primordiale: la
    > sopravvivenza.

    Kevin Warwick fece esperimenti in questa direzione e creò dei robottini dal comportamento molto interessante

    > Dicono "pari ad un bambino di 4 anni" io ne
    > dubito.
    > Repoto più intelligente un bot che mi batte ad
    > uno strategico e cuno che mi sa dire perchè
    > "volano gli
    > uccelli"

    vabbè, ovviamente cercano di paragonare mele con arance, usando un metro di paragone prettamente umano

    stendiamo un velo pietoso

    >
    > Eppure anche i fervidi srittore di fantascienza
    > hanno ipotizzato che le macchine sviluppino una
    > loro IA indipendente al pericolo di essere
    > "smantellate".

    esatto, perchè altrimenti non c'è proprio attività "cerebrale", "manca la corrente" e dunque niente vita
    non+autenticato
  • https://www.youtube.com/watch?v=wACltn9QpCc

    Come puo' progredire un IA senza un analogo della plasticita' neurale?
    non+autenticato
CONTINUA A LEGGERE I COMMENTI
Successiva
(pagina 1/2 - 8 discussioni)