Marco Calamari

Cassandra Crossing/ L'alba di Skynet

di M. Calamari - Dall'uomo che parla il linguaggio della macchina alla macchina che interpreta l'uomo, dagli algoritmi alle reti neurali. La frontiera della ricerca, militare e del mercato, è l'AI. Con quali rischi?

Cassandra Crossing/ L'alba di SkynetRoma - "Aridaje, il solito titolo allarmistico condito di vetusta citazione cinematografica", diranno i romani compresi nei 24 lettori. Sulle citazioni nulla da dire, Cassandra ce l'ha di vizio, ma le va dato atto che non se ne è mai vergognata, anzi. No, non è un titolo allarmistico. La ricerca sulle intelligenze artificiali (AI - Artificial Intelligence) ha recentemente compiuto un passo avanti, tanto importante quanto prevedibile, ma tuttavia abbastanza insidioso da essere sfuggito a molti.
E qui serve una robusta dose di pillole di informatica, per cui i sapienti mi scuseranno per le semplificazioni, e se vogliono salteranno alle ultime righe dell'articolo, mentre i meno sapienti mi sopporteranno.

Orbene, fin dai tempi di Charles Babbage e della sua mai terminata macchina alle differenze era ben chiaro che gli elaboratori automatici (il termine "computer" era di là da venire) avrebbero contenuto un insieme di istruzioni, create dal "programmatore", che l'elaboratore avrebbe seguito fedelmente e ciecamente, "Perinde ac cadaver", come direbbe un gesuita.
Ah, come manca il mondo Steampunk a Cassandra!
Ma torniamo a noi.

Nulla o quasi cambia fino agli anni '40, con Zuse ed il suo Z3, primo computer binario a relè (quindi elettromeccanico).
Negli anni '50 sono arrivati i computer con valvole termoioniche come Eniac, mille volte più veloci.
Ma anche l'Eniac veniva programmato "meccanicamente" cablando direttamente dei collegamenti elettrici: il software ancora non esisteva.
Questione di pochi anni e vengono inventati i linguaggi di programmazione, che separano definitivamente l'hardware dal software, e dopo poco si passa dall'assembler (l'uomo parla il linguaggio della macchina) ai linguaggi ad alto livello come FORTRAN, COBOL, Lisp... l'elenco è infinito ma da ora in poi sarà il Computer a dover capire il linguaggio dell'Uomo, e non il contrario.

La pillola di storia finisce qui, con uno schiavo che intende il linguaggio del suo padrone e lo segue fedelmente meglio di un Terranova, bug e guasti permettendo, ovviamente.

Dimentichiamoci ora dei computer e veniamo al software.
I linguaggi in cui sono scritti i programmi usuali sono "Imperativi", cioè, detto in soldoni, sono istruzioni precise che definiscono un algoritmo, una sequenza predeterminata, magari estremamente complessa e dipendente da fattori esterni al programma, ma totalmente predicibile e ripetibile.

Per risolvere certi problemi, tipicamente legati al business, in cui si conosce come scrivere le regole ma non come organizzarle in un algoritmo, sono nati i cosiddetti "sistemi esperti": dando un input ad un sistema esperto, riempito di un certo set di regole, questo seguirà un cammino in linea di massima non predicibile tra le sue regole e fornirà un risultato.
Un sistema esperto può comunque eseguire sempre un "backtracking" e spiegare come ed in che sequenza ha applicato le regole per ottenere il risultato, risultato che comunque è sempre ripetibile.

Per ancora altre classi di problemi, quando si conosce solo il problema, un insieme di domande con le relative risposte, ma non si conoscono le regole che permetterebbero di usare un sistema esperto, si sono inventate le reti neurali.
Si sceglie, in base a considerazioni esoteriche, un certo tipo di rete neurale e poi la si "allena", sottoponendogli domande con le relative risposte, che la rete neurale immagazzina al suo interno in un insieme di dati privo di significati intellegibili. A questo punto, se le si presenta una domanda "abbastanza simile" a quelle con cui si è allenata, la rete fornirà "molto probabilmente" la risposta giusta.
Di nuovo, a parità di allenamento e domanda, la risposta è ripetibile, ma il fatto che la rete neurale risponda correttamente ad una domanda molto simile alla precedente non è garantita. Se per esempio le si è mostrato un set di foto con la definizione "terrorista" o "non terrorista" in abili normali, la rete neurale assocerà probabilmente la kefiah al fatto di essere un terrorista (d'altra parte non lo fanno anche molte persone?) e se le si mostrasse una foto di Bin Laden con un cappello di paglia ed una pipa direbbe che non è un terrorista.

In parallelo a tutto ciò si lavora sull'"Intelligenza Artificiale". Nessuno sa di cosa si stia esattamente parlando, tranne che il defunto (o meglio assassinato) Alan Turing, che ha proposto un test rimasto il riferimento per capire se una intelligenza artificiale è abbastanza intelligente.
Questa infinita premessa è terminata e torniamo all'attualità.

Anche se gli ultrasessantenni sentono parlare di intelligenza artificiale da 40 anni, e hanno per questo elaborato un certo scetticismo sulla materia, tipo quello sulla fusione nucleare, in effetti un lento progresso nel campo dell'AI c'è stato, anche se muovendosi contemporaneamente su linee diverse di ricerca.

E nel frattempo letteratura e cinema ci hanno propinato tutti gli esempi possibili di cosa potrebbero essere e come potrebbero essere usate, anzi comportarsi, le intelligenze artificiali.
Da Invernomuto di "Neuromante" a Master Control Program di "Tron", dal supercomputer senza nome di La Risposta alle ragazze sexy e sanguinarie in cerca di se stesse di "Ex-machina", dai bambolotti timidi e sdolcinati di "A.I." fino all'entità sterminatrice dalla razza umana di "Terminator", Skynet.
Già, Skynet, che è diventato un po' l'archetipo per prendere per i fondelli le Cassandre di turno.

Beh, il fatto che non ci sia tanto da scherzare sul pericolo che una vera intelligenza artificiale possa rappresentare comincia ad essere preso sul serio.
Perché pericolo? Perché chi guida i processi di sviluppo delle nuove tecnologie sono, come è normale che sia, i militari, la grande industria ed, in ultima analisi, i capitali.
Quanto sopra non è una polemica politica od una prosa buonista, è semplicemente la migliore descrizione sintetica e disincantata che la povera Cassandra riesce a fare.

D'altra parte, ora che l'AI sta sostituendo la genomica come la prossima grande rivoluzione tecnologica e di business, cominciano ad apparire le prime conferme. Dal progetto ventilato dalla Marina degli Stati Uniti di automatizzare i sommergibili lanciamissili nucleari (ma il "Dottor Stranamore" è vietato ai militari?) al continuo utilizzo della robotica per automatizzare armi, il cammino per creare AI "malevole", non per sbaglio ma "by design", è diventato un campo di ricerca accademico.
Anche il fatto che una AI possa ribellarsi, o meglio sfuggire di mano ai suoi creatori, come nei pulp di terza categoria degli anni '50, sta oggettivamente insinuandosi nel mondo reale, visto che ci sono ricercatori che, non sapendo come costruire AI, stanno seriamente lavorando per far costruire AI migliori dalla AI odierne.
La ricerca è davvero attiva in settori una volta impensabili. E questo che conseguenze potrebbe avere?

Facciamo il parallelo con i test dei costruttori di malware, rilasciati in maniera "sperimentale" come l'Internet Worm di Morris, SQL slammer od il recentissimo Irongate, parente più cosmopolita di Stuxnet, la prima arma informatica sganciata contro un avversario reale. L'esperimento di Irongate rappresenta probabilmente il ponte del malware verso l'Internet delle Cose e l'Industrial Internet.
Sapete che Morris voleva, pare, solo misurare le dimensioni di Internet quando rilasciò il suo worm?
E che l'esperimento di SQLSlammer non ha poi portato a successive evoluzioni?
Mentre molti addetti ai lavori sono davvero preoccupati per quello che significa Irongate, cioè un test per futuri attacchi all'Internet delle Cose?
Ma oggi mettiamo da parte l'argomento malware (a malincuore), perché quello che ci interessa è ricordare i nefasti risultati ed i pericoli corsi a causa di "esperimenti" svolti da tecnologi entusiasti.

Concludiamo quindi rapidissimamente.
Far programmare Intelligenze Artificiali da altre Intelligenze Artificiali, con alla spalle qualche CEO o qualche generale a spronarti con nobili motivi, quali i dividendi della società o la lotta ai cattivi, cosa vi fa venire in mente?
Appunto.

Marco Calamari
Lo Slog (Static Blog) di Marco Calamari
L'archivio di Cassandra/ Scuola formazione e pensiero
Notizie collegate
84 Commenti alla Notizia Cassandra Crossing/ L'alba di Skynet
Ordina
  • A chi potesse interessare, consiglio la visione di:

    The 100 - 3a serie ~

    Numbers - 4a serie - episodio 10

    The Lawnmower Man (1992)
    non+autenticato
  • Le precisazioni tecnologiche delle affermazioni di Calamari sinceramente lasciano il tempo che trovano: assembly invece di assembler, EDSAC o ENIAC...evidentemente non è questa la ciccia del discorso dell'autore. Non è il primo scritto sui presunti pericoli dell'AI del prossimo futuro. Ma ragazzi, conoscete la storia del genere umano? No dico, avete presenti quanti ammazzamenti e turpitudini sono state fatte nel corso storia? E dovremmo preoccuparci dei robot? Dai Calamari, relativizza! Quando un robot farà qualcosa di simile alla strage di Utoya, ma fatto come decisione autonoma, non pianificato da una mente eteronoma al robot stesso, allora, forse, inizierò a preoccuparmi. Ad maiora!
  • - Scritto da: dummi63
    > Le precisazioni tecnologiche delle affermazioni
    > di Calamari sinceramente lasciano il tempo che
    > trovano: assembly invece di assembler, EDSAC o
    > ENIAC...evidentemente non è questa la ciccia del
    > discorso dell'autore. Non è il primo scritto sui
    > presunti pericoli dell'AI del prossimo futuro. Ma
    > ragazzi, conoscete la storia del genere umano? No
    > dico, avete presenti quanti ammazzamenti e
    > turpitudini sono state fatte nel corso storia? E
    > dovremmo preoccuparci dei robot? Dai Calamari,
    > relativizza! Quando un robot farà qualcosa di
    > simile alla strage di Utoya, ma fatto come
    > decisione autonoma, non pianificato da una mente
    > eteronoma al robot stesso, allora, forse,
    > inizierò a preoccuparmi. Ad
    > maiora!
    eh majora pure.. pero' qui non si parlava di frotte di ED209... ma che grazie alla segnalazione di PhotoDNA ti trascinano via come pedofilo (cioe' questo accade gia' ora, solo che e' piu' acerbo e mediato di come potrebbe essere con una 'buona AI' decisionista... )
    non+autenticato
  • - Scritto da: dummi63
    > ragazzi, conoscete la storia del genere umano? No
    > dico, avete presenti quanti ammazzamenti e
    > turpitudini sono state fatte nel corso storia? E
    > dovremmo preoccuparci dei robot?

    Benaltrismo detected. La tua rete neurale è buggatina Cylon

    Dai Calamari,
    > Quando un robot farà qualcosa di
    > simile alla strage di Utoya, ma fatto come
    > decisione autonoma, non pianificato da una mente
    > eteronoma al robot stesso, allora, forse,
    > inizierò a preoccuparmi.

    Cioè inizierai a preoccuparti quando sarà troppo tardi.
    I bersagli elementari come te sono l'ideale per addestrare l'AI del frullatore. Cylon
    non+autenticato
  • Quanta ignoranza su punto informatico! Il linguaggio si chiamava Assembly, non assembler!!
    non+autenticato
  • Qui su PI sono bravi sono con le markette.
    non+autenticato
  • Quelle di Piero Chiambretti non sono malaccio.
    non+autenticato
  • - Scritto da: rey kjavik
    > Quanta ignoranza su punto informatico! Il
    > linguaggio si chiamava Assembly, non
    > assembler!!

    1. Si chiama ancora
    2. Si chiama anche linguaggio Assembler
    http://www.ibm.com/support/knowledgecenter/SSLTBW_...

    Ma come si fa ad essere così ignoranti come te e tirarsela pure?A bocca aperta
    non+autenticato
  • - Scritto da: ASM
    > - Scritto da: rey kjavik
    > > Quanta ignoranza su punto informatico! Il
    > > linguaggio si chiamava Assembly, non
    > > assembler!!
    >
    > 1. Si chiama ancora
    > 2. Si chiama anche linguaggio Assembler
    > http://www.ibm.com/support/knowledgecenter/SSLTBW_
    >
    > Ma come si fa ad essere così ignoranti come te e
    > tirarsela pure?
    >A bocca aperta


    L'ignorante se la tira perché, non sa di esserlo.Angioletto
    non+autenticato
  • - Scritto da: Il fuddaro
    > - Scritto da: ASM
    > > - Scritto da: rey kjavik
    > > > Quanta ignoranza su punto informatico! Il
    > > > linguaggio si chiamava Assembly, non
    > > > assembler!!
    > >
    > > 1. Si chiama ancora
    > > 2. Si chiama anche linguaggio Assembler
    > >
    > http://www.ibm.com/support/knowledgecenter/SSLTBW_
    > >
    > > Ma come si fa ad essere così ignoranti come te e
    > > tirarsela pure?
    > >A bocca aperta
    >
    >
    > L'ignorante se la tira perché, non sa di esserlo.
    >Angioletto
    certo cmq che andare a pescare documentazione su un OSCURO prodotto (l'HLASM aka ibm hilevel assembler) #per z/OS#, non e' male per cercare conferma alle proprie ragioniCon la lingua fuori mi chiedo quanti siano quelli che sanno leggere un disassemblato per z/os ...
    non+autenticato
  • - Scritto da: ASM

    > 2. Si chiama anche linguaggio Assembler
    > http://www.ibm.com/support/knowledgecenter/SSLTBW_

    no no mi spiace, ma il fatto che pure IBM cada nella trappola non rende quel termine esatto

    in inglese si usa il suffisso -er per indicare la cosa o la persona che compie l'azione

    quindi assembler = colui che assembla e dunque non puo' riferirsi al linguaggio

    che poi nel gergo informatico assembly e assembler siano diventati sinonimi e' ovviamente un dato di fatto, cio' non di meno e' sbagliato
    non+autenticato
  • - Scritto da: collione
    > - Scritto da: ASM
    >
    > > 2. Si chiama anche linguaggio Assembler
    > >
    > http://www.ibm.com/support/knowledgecenter/SSLTBW_
    >
    > no no mi spiace, ma il fatto che pure IBM cada
    > nella trappola non rende quel termine
    > esatto
    >
    > in inglese si usa il suffisso -er per indicare la
    > cosa o la persona che compie l'azione
    >
    > quindi assembler = colui che assembla e dunque
    > non puo' riferirsi al linguaggio

    appunto... come tu stesso ai detto "la cosa che compie l'azione", è l'azione che compie il compilatore in questione è proprio, in questo caso, assemblare: quindi assembler ...

    > che poi nel gergo informatico assembly e
    > assembler siano diventati sinonimi e' ovviamente
    > un dato di fatto, cio' non di meno e' sbagliato

    e' sbagliato considerarli sinonimi (assembly è il linguaggio, assembler è il compilatore) ma è giustissimo parlare di assembler....
    non+autenticato
  • - Scritto da: kill the poor

    > appunto... come tu stesso ai detto "la cosa che

    hai
    non+autenticato
  • Negli anni '50 sono arrivati i computer con valvole termoioniche come Eniac, mille volte più veloci. Ma anche l'Eniac veniva programmato "meccanicamente" cablando direttamente dei collegamenti elettrici: il software ancora non esisteva.

    Non è storicamente vero:
    L'Electronic Delay Storage Automatic Calculator (EDSAC) fu uno dei primi computer elettronici digitali della storia. Il primo programma software fu fatto girare su questo computer il 6 maggio 1949 nel laboratorio di Matematica dell'università di Cambridge.
    A tale proposito a chi è abbastanza digiuno sulla storia dell'elettronica è istruttivo il sito dell'università di warWick con l'emulatore dell'EDSAC e con tutta la documentazione del caso, programmi inclusi.

    http://www.dcs.warwick.ac.uk/~edsac/

    Altro sito interessante:

    http://www.tnmoc.org/special-projects/edsac
    non+autenticato
  • Sei bravo a copiare da Wikipedia, quando invece il commento é farina del tuo sacco non oltrepassa la singola riga A bocca aperta.

    Bravo!
    non+autenticato
  • Caro Calamari, leggendo un po' nel forum ho l'impressione che tu scriva nel posto sbagliato.
    non+autenticato
  • Risulta sicuramente difficile riuscire ad esprimere tanti concetti in un testo conciso come quello sopra (considerate poi che l’attenzione si attenua sempre piú velocemente “grazie” ai mezzi moderni di “comunicazione” http://www.medicaldaily.com/human-attention-span-s...)
    Ecco perché se si vuole fare informazione:
    1. o si riesce in poche parole a esprimere un concetto (seguendo il buon detto “a buon intenditor, poche parole” mi riferisco proprio a un solo concetto uno (1))
    2. oppure mischiando trope tematiche in poco spazio non si fa informazione, ma cacofonia

    In questo articolo/blog, gli scenari apocalittici sono paventati dal Calamari in modo cacofonico. Parlo dei contenuti dell’articolo specifico!

    Il link a http://waitbutwhy.com/2015/01/artificial-intellige... invece é una riflessione che si rifá ai ricercatori di IA piú noti attualmente. (attenzione é in 2 parti)

    Oppure questo era veramente dedicato ai 24 nostalgici lettori... che si accontentano.
    non+autenticato
CONTINUA A LEGGERE I COMMENTI
1 | 2 | 3 | Successiva
(pagina 1/3 - 12 discussioni)