Giuseppe Cubasia

Stand by for action

di Giuseppe Cubasia - Abbiamo sognato tecnologie che ora convivono con noi. Ma non ci fidiamo dell'intelligenza artificiale e temiamo forme pensanti diverse dalla nostra. Una rinuncia?

Stand by for actionRoma - Tutti pronti per l'azione, Stingray. Era questo il mondo fantastico che fin da piccolissimo sognavo. Un sogno che man mano che passavano gli anni diventava sempre di più la realtà di tutti i giorni. In TV, passata l'era dei sottomarini atomici e delle trasmissioni satellitari, arrivarono le stazioni e le basi spaziali. Chi non ricorda, dagli stessi autori di Stingray, UFO, oppure Spazio 1999? Sopratutto in quest'ultima serie televisiva era interessantissimo vedere il loro comunicatore, ovvero la prima versione di videotelefono esistente: dotato di uno schermo di 2 pollici.

Quelle che erano fantasie nella mente di un autore si sono puntualmente avverate nel corso degli anni: più tardi, nel 1982, tutti eravamo affascinati dal fantastico software di gestione immagini usato in Blade Runner dal detective Deckard per identificare, tramite un microscopico dettaglio, l'immagine del suo prossimo bersaglio. Oggi quel software è alla portata di tutti.

Ed infine è proprio di questi giorni la notizia di un robot che "sfila in passerella".
Essendosi fino ad ora sempre avverate dai tempi di Giulio Verne le previsioni degli scrittori di quella che una volta era detta fantascienza, quale comportamento si prevede che la razza umana adotti nei confronti dell'A.I.? Il discorso è piuttosto controverso, ma si può riassumere in tre modelli di comportamento, tutti sviluppati da scrittori famosi e tutti che si sono puntualmente riscontrati durante i commenti agli ultimi miei due articoli.

Ma prima una premessa. Lo sviluppo dell'A.I. penso sia inevitabile e prima o poi ci arriveremo. Lo penso per diversi motivi, il primo è che la tecnologia si sta sempre di più evolvendo e quindi ce lo permetterà, il secondo è che robot che possano sostituire l'uomo in lavori gravosi o poco gratificanti hanno un mercato potenzialmente infinito, il terzo motivo è che realizzare una macchina "pensante" è il sogno di qualsiasi scienziato/realizzatore.

Detto questo, l'Uomo è pronto per accettare esseri "pensanti" non formati da carne e sangue? La risposta del Forum di P.I. è NO!

No, perché non mi fido di loro, no perché non affiderei mai la mia vita ad essi, no perché mi limiterebbero rendendomi inutile, no perché toglierebbero lavoro a tutti, no perché avrebbero il sopravvento su di noi (vedi scenari alla Matrix o Terminator). Tutte obiezioni che Asimov aveva già previsto nei suoi libri sui robot.

Non spetta certo a me essere il difensore di qualcosa che neanche esiste nel cervello di chi la dovrebbe inventare, ma faccio solo notare che già da tempo la nostra vita è affidata e dipende da mezzi meccanici il cui funzionamento e logica è assolutamente a noi sconosciuta.

Ci fidiamo del fatto che il navigatore ci guidi di notte al distributore più vicino, i piloti si fidano del fatto che di notte il radio faro li guidi all'aeroporto, noi ci fidiamo del fatto che il nostro messaggio arrivi a destinazione, che il nostro bonifico sia registrato, che l'ATM ci dia i soldi richiesti e non ci tronchi le mani quando li ritiriamo. Eppure facciamo fatica, temiamo forme pensanti diverse dalla nostra.

Era questo il destino dei Replicanti di Blade Runner, essere disprezzati da tutti, cacciati, braccati, uccisi come bestie, perché esseri umani più perfetti degli umani, superiori ad essi per certi versi, di una superiorità che non deriva solo dal fatto di essere stati perfezionati fisicamente, quanto dall'aver raggiunto un grado di consapevolezza e di saggezza superiori.

Ma anche quando ci si fidi delle tre leggi della robotica ed obiettivamente ci si rende conto che l'A.I. ci è utile, perfino indispensabile, facciamo fatica ad accettarla.

Nell'Uomo Bicentenario Asimov tratta questo secondo comportamento. Una razza umana maggiormente evoluta sia socialmente sia tecnologicamente che però non accetta nessuna altra forma di vita se non la sua. L'Umanità non è pronta ad accettare un uomo immortale, dice alla fine del film il presidente che respinge così la domanda di Andrew.

Esiste solo uno scenario in cui l'A.I., ma non solo essa, qualsiasi forma di vita e di pensiero comunque lo si professi e di qualsiasi cosa sia composto, è non solo accettato, ma anzi visto con interesse e curiosità ed è nell'universo di Star Trek.

Cosa siete voi?
Noi siamo esploratori, risponde Kirk.

Che cosa sai tu?
Io so di non sapere, disse Socrate, e per questo (in pace) cerco l'Uomo.

Kirk, Socrate, l'A.I. sono tutte forme diverse d'esplorazione il cui unico scopo è l'esplorazione stessa, la scoperta di nuovi scenari, di nuove informazioni, di una maggiore consapevolezza di sé ed infine di essere un essere umano migliore: traguardo di per sé assolutamente da non disprezzare.

Mi domando come mai possa essere possibile far comprendere o solo spiegare che un'A.I. ci permetterebbe finalmente di concentrarci ad esplorare e a realizzarci come essere umani al meglio delle nostre aspirazioni e potenzialità, se neanche noi che lavoriamo tutti i giorni con la tecnologia dell'informazione riusciamo ad immaginare ed ad accettare un simile scenario futuro.

Tempo purtroppo che non potremo farlo (almeno non ora), e che quindi quando arriveremo ad avere un DATA tra noi, il primo impulso sarà quello di distruggerlo. Ma non ci riusciremo, perché sarà stato cosi furbo da lasciarci al nostro miserevole destino.

Giuseppe Cubasia
Cubasia blog

I precedenti interventi di G.C. sono disponibili a questo indirizzo
45 Commenti alla Notizia Stand by for action
Ordina
  • Piu' che l'AI io sono preoccupato dei transuomini ... che sono gia' realta', anche se ancora la potenza di calcolo disponibile non basta ad elaborare i segnali del cervello, e una volta attaccati alla macchina non ci si puo' piu' muovere ... brrrr ...Occhiolino

    edit: sono rinco ... nel titolo avevo scritto "perche' parli al passato?"
    -----------------------------------------------------------
    Modificato dall' autore il 24 marzo 2009 03.43
    -----------------------------------------------------------
  • "Essendosi fino ad ora sempre avverate dai tempi di Giulio Verne le previsioni degli scrittori di quella che una volta era detta fantascienza"

    Il raggio miniaturizzante non è ancora stato inventato e non lo sarà mai semplicemente perché è fisicamente impossibile.
    Non è quindi sempre vero che la fantascienza si trasforma in scienza.
    E potrebbe pure succedere che domani si scopra che l'intelligenza a livello di cervello umano è intrinsecamente incompatibile con l'elaborazione automatica, ponendo la pietra tombale sull'IAA bocca aperta

    Solo una provocazione
  • Accolgo volentieri la tua provocazione: secondo me, nella nostra presunzione umana di esseri superiori, immaginiamo la nostra forma di pensiero come l'unica possibile, e che quindi le macchine dovranno per forza avere una forma mentis simile a quella dell'homo sapiens, solo più raffinata.
    Una mente artificiale dovrebbe essere migliore di noi, in ogni campo, altrimenti non potrebbe essere paragonabile alla nostra: dovrebbe essere migliore nel progettare edifici, nell'effettuare scelte strategiche in guerra, nella gestione finanziaria, nella composizione di musica, nel pilotare un qualsiasi veicolo... in una parola, in tutto.
    Ma, solo a titolo di esempio, è già da almeno una decina di anni che le macchine sono decisamente superiori agli umani in un'attività considerata strettamente correlata all'intelligenza: il gioco degli scacchi.
    Ci sono cose nelle quali il cervello umano è e resterà a lungo ineguagliabile, ma altre nelle quali in breve tempo verrà sorpassato (se non lo è già al momento).
    Io credo che nel momento in cui le menti artificiali saranno abbastanza evolute da acquisire coscienza di sé, non saranno superiori o inferiori a noi, ma solamente "diverse". Diverse in un modo che non possiamo nemmeno immaginare. Ma quello sarà solo il primo passo... e l'evoluzione inizierà da lì.
    non+autenticato
  • - Scritto da: Drummer
    > Accolgo volentieri la tua provocazione: secondo
    > me, nella nostra presunzione umana di esseri
    > superiori, immaginiamo la nostra forma di
    > pensiero come l'unica possibile, e che quindi le
    > macchine dovranno per forza avere una forma
    > mentis simile a quella dell'homo sapiens, solo
    > più
    > raffinata.

    Chiarisco che ho parlato di "intelligenza a livello di cervello umano", ovvero un'intelligenza artificiale in grado di competere con quella umana.
    Quali che siano poi le forme astratte di pensiero dietro questa intelligenza, è ininfluente

    > Una mente artificiale dovrebbe essere migliore di
    > noi, in ogni campo, altrimenti non potrebbe
    > essere paragonabile alla nostra:

    Potrebbe anche essere semplicemente pari o leggermente più stupida

    > Ma, solo a titolo di esempio, è già da almeno una
    > decina di anni che le macchine sono decisamente
    > superiori agli umani in un'attività considerata
    > strettamente correlata all'intelligenza: il gioco
    > degli
    > scacchi.

    Questo non è propriamente vero.
    I programmi di scacchi battono gli umani solo grazie alla mostruosa preparazione teorica e alla possibilità di esplorare in breve tempo tutte le possibili ramificazioni di una mossa.
    Deep Blue, per esempio, conosceva tutte le partite di Kasparov e contro un altro G.M.I. del suo livello si sarebbe trovato in difficoltà
    I programmi di scacchi saranno veramente intelligenti solo quando batteranno gli umani con gli stessi strumenti, ovvero la semplice conoscenza delle regole.
    Avere intelligenza infatti significa avere la capacità di risolvere problemi inediti.
    Tutto il resto è esperienza.
    Si, i computer ci possono battere in esperienza (non a caso si parla di "sistemi esperti") semplicemente perché le loro banche dati sono immensamente più grandi della nostra capacità di memorizzare, persino della persona dotata della memoria eudetica più estesa, ma quanto a intelligenza?

    > Io credo che nel momento in cui le menti
    > artificiali saranno abbastanza evolute da
    > acquisire coscienza di sé, non saranno superiori
    > o inferiori a noi, ma solamente "diverse".

    non è detto che l'intelligenza presupponga l'autocoscienza.
    Ci sono molti animali intelligenti, ma il circolo degli autocoscienti è decisamente ristretto.
  • Curioso che questo articolo arrivi proprio nel fine settimana in cui Galactica, The Reimagined Series si conclude con una panoramica sui robot moderni e una riflessione su un ciclo di creazione della IA da spezzare
  • noto con piacere che la profondita' dei tuoi post e pari a quella delle apparizioni del Paolini televisivo Rotola dal ridere

    siete mica la stessa persona, speroA bocca aperta

    Clicca per vedere le dimensioni originali
    KC
    91
  • Si va da tempo discutendo sul "quando" (e non molto sul "se") arriveremo alla così detta "singolarità tecnologica", ovvero a costruire un supercomputer più intelligente di qualsiasi essere umano, e quindi in grado di progettare a sua volta un prototipo di se stesso ancora più intelligente, e via di questo passo, in una escalation esponenziale di intelligenza artificiale.

    http://en.wikipedia.org/wiki/Technological_singula...

    Alcuni pensano che la "singolarità" sia lontana, altri molto vicina. Secondo me non è così lontana, probabilmente è posta all'interno dell'aspettativa di vita della presente generazione.

    Sui pericoli di una superintelligenza non mi sembra il caso di discutere perchè mi sembra evidente già oggi che il mondo che abbiamo creato è troppo complicato per noi: si guardi la recente crisi economica, il riscaldamento globale, la crisi energetica, e le nostre richieste sempre più elevate in termini di sicurezza, controlli e risoluzione di problemi globali di natura molto complessa.

    Penso che simili obiettivi richiederanno l'ausilio di mezzi tecnologici sempre più sofisticati, quindi immagino che i supercomputer diventeranno in grado di apprendere e fare scelte logiche sempre più in autonomia, fino al punto nel quale l'uomo sarà un semplice supervisore, e non più il pilota del processo decisionale.

    Ci sono ovviamente persone spaventate da questa prospettiva, ma se siete fra queste, fatevene una ragione: alla fine rinunceremo alla sacra prerogativa di decidere per noi stessi per cederla a queste nostre creazioni, così come stiamo rinunciando alla privacy per la sicurezza, e lo faremo perchè i vantaggi saranno evidenti. Non vedete quali inauditi disastri combiniamo spesso e volentieri? Quante sciagure si sarebbero potute evitare se una mente più attenta avesse valutato ogni dettaglio? Siamo umani, quindi fallibili, una I.A. in futuro sarà "meno umana" di noi, e noi la riterremo indispensabile.

    In un lontano futuro saremo accuditi da queste I.A. come un padrone si prende cura dei suoi animaletti domestici. Saremo grassi e felici, perchè siamo esseri umani ed in fondo quello che vogliamo e stare bene e non avere problemi. Le I.A. progrediranno fino al punto di progettare quello che oggi non ci sogniamo nemmeno.

    La singolarità tecnologica è l'ultimo step dell'evoluzione darwiniana.
    non+autenticato
  • - Scritto da: Luke
    > Le
    > I.A. progrediranno fino al punto di progettare
    > quello che oggi non ci sogniamo
    > nemmeno.

    Un uso corretto dell'ortografia?

    > La singolarità tecnologica è l'ultimo step
    > dell'evoluzione
    > darwiniana.

    Al contrario, liberati da determinati compiti avremo più tempo e modo per evolvere intellettualmente.
    L'evoluzione non è un processo che si interrompe perché un computer prende le decisioni
  • - Scritto da: Momento di inerzia
    > Al contrario, liberati da determinati compiti
    > avremo più tempo e modo per...

    ... dedicarci a consumare pornografia e scopare secondo quanto appreso nella pornografia. Sta già avvenendo. Il destino non si può cambiare. Il pianeta Terra diventerà un bordello spaziale.
    non+autenticato
CONTINUA A LEGGERE I COMMENTI
1 | 2 | 3 | 4 | Successiva
(pagina 1/4 - 16 discussioni)