“Aridaje, il solito titolo allarmistico condito di vetusta citazione cinematografica”, diranno i romani compresi nei 24 lettori. Sulle citazioni nulla da dire, Cassandra ce l’ha di vizio, ma le va dato atto che non se ne è mai vergognata, anzi. No, non è un titolo allarmistico. La ricerca sulle intelligenze artificiali (AI – Artificial Intelligence) ha recentemente compiuto un passo avanti, tanto importante quanto prevedibile, ma tuttavia abbastanza insidioso da essere sfuggito a molti.
E qui serve una robusta dose di pillole di informatica, per cui i sapienti mi scuseranno per le semplificazioni, e se vogliono salteranno alle ultime righe dell’articolo, mentre i meno sapienti mi sopporteranno.
Orbene, fin dai tempi di Charles Babbage e della sua mai terminata macchina alle differenze era ben chiaro che gli elaboratori automatici (il termine “computer” era di là da venire) avrebbero contenuto un insieme di istruzioni, create dal “programmatore”, che l’elaboratore avrebbe seguito fedelmente e ciecamente, “Perinde ac cadaver”, come direbbe un gesuita .
Ah, come manca il mondo Steampunk a Cassandra!
Ma torniamo a noi.
Nulla o quasi cambia fino agli anni ’40, con Zuse ed il suo Z3 , primo computer binario a relè (quindi elettromeccanico).
Negli anni ’50 sono arrivati i computer con valvole termoioniche come Eniac , mille volte più veloci.
Ma anche l’Eniac veniva programmato “meccanicamente” cablando direttamente dei collegamenti elettrici: il software ancora non esisteva.
Questione di pochi anni e vengono inventati i linguaggi di programmazione, che separano definitivamente l’hardware dal software, e dopo poco si passa dall’assembler (l’uomo parla il linguaggio della macchina) ai linguaggi ad alto livello come FORTRAN, COBOL, Lisp… l’elenco è infinito ma da ora in poi sarà il Computer a dover capire il linguaggio dell’Uomo, e non il contrario.
La pillola di storia finisce qui, con uno schiavo che intende il linguaggio del suo padrone e lo segue fedelmente meglio di un Terranova, bug e guasti permettendo, ovviamente.
Dimentichiamoci ora dei computer e veniamo al software.
I linguaggi in cui sono scritti i programmi usuali sono “Imperativi”, cioè, detto in soldoni, sono istruzioni precise che definiscono un algoritmo, una sequenza predeterminata, magari estremamente complessa e dipendente da fattori esterni al programma, ma totalmente predicibile e ripetibile.
Per risolvere certi problemi, tipicamente legati al business, in cui si conosce come scrivere le regole ma non come organizzarle in un algoritmo, sono nati i cosiddetti “sistemi esperti”: dando un input ad un sistema esperto, riempito di un certo set di regole, questo seguirà un cammino in linea di massima non predicibile tra le sue regole e fornirà un risultato.
Un sistema esperto può comunque eseguire sempre un “backtracking” e spiegare come ed in che sequenza ha applicato le regole per ottenere il risultato, risultato che comunque è sempre ripetibile.
Per ancora altre classi di problemi, quando si conosce solo il problema, un insieme di domande con le relative risposte, ma non si conoscono le regole che permetterebbero di usare un sistema esperto, si sono inventate le reti neurali.
Si sceglie, in base a considerazioni esoteriche, un certo tipo di rete neurale e poi la si “allena”, sottoponendogli domande con le relative risposte, che la rete neurale immagazzina al suo interno in un insieme di dati privo di significati intellegibili. A questo punto, se le si presenta una domanda “abbastanza simile” a quelle con cui si è allenata, la rete fornirà “molto probabilmente” la risposta giusta.
Di nuovo, a parità di allenamento e domanda, la risposta è ripetibile, ma il fatto che la rete neurale risponda correttamente ad una domanda molto simile alla precedente non è garantita. Se per esempio le si è mostrato un set di foto con la definizione “terrorista” o “non terrorista” in abili normali, la rete neurale assocerà probabilmente la kefiah al fatto di essere un terrorista (d’altra parte non lo fanno anche molte persone?) e se le si mostrasse una foto di Bin Laden con un cappello di paglia ed una pipa direbbe che non è un terrorista.
In parallelo a tutto ciò si lavora sull'”Intelligenza Artificiale”. Nessuno sa di cosa si stia esattamente parlando, tranne che il defunto (o meglio assassinato ) Alan Turing, che ha proposto un test rimasto il riferimento per capire se una intelligenza artificiale è abbastanza intelligente.
Questa infinita premessa è terminata e torniamo all’attualità.
Anche se gli ultrasessantenni sentono parlare di intelligenza artificiale da 40 anni, e hanno per questo elaborato un certo scetticismo sulla materia, tipo quello sulla fusione nucleare, in effetti un lento progresso nel campo dell’AI c’è stato, anche se muovendosi contemporaneamente su linee diverse di ricerca.
E nel frattempo letteratura e cinema ci hanno propinato tutti gli esempi possibili di cosa potrebbero essere e come potrebbero essere usate, anzi comportarsi, le intelligenze artificiali.
Da Invernomuto di “Neuromante” a Master Control Program di “Tron”, dal supercomputer senza nome di La Risposta alle ragazze sexy e sanguinarie in cerca di se stesse di “Ex-machina”, dai bambolotti timidi e sdolcinati di “A.I.” fino all’entità sterminatrice dalla razza umana di “Terminator”, Skynet .
Già, Skynet, che è diventato un po’ l’archetipo per prendere per i fondelli le Cassandre di turno.
Beh, il fatto che non ci sia tanto da scherzare sul pericolo che una vera intelligenza artificiale possa rappresentare comincia ad essere preso sul serio.
Perché pericolo? Perché chi guida i processi di sviluppo delle nuove tecnologie sono, come è normale che sia, i militari, la grande industria ed, in ultima analisi, i capitali.
Quanto sopra non è una polemica politica od una prosa buonista, è semplicemente la migliore descrizione sintetica e disincantata che la povera Cassandra riesce a fare.
D’altra parte, ora che l’AI sta sostituendo la genomica come la prossima grande rivoluzione tecnologica e di business, cominciano ad apparire le prime conferme. Dal progetto ventilato dalla Marina degli Stati Uniti di automatizzare i sommergibili lanciamissili nucleari (ma il “Dottor Stranamore” è vietato ai militari?) al continuo utilizzo della robotica per automatizzare armi, il cammino per creare AI “malevole”, non per sbaglio ma “by design”, è diventato un campo di ricerca accademico .
Anche il fatto che una AI possa ribellarsi, o meglio sfuggire di mano ai suoi creatori, come nei pulp di terza categoria degli anni ’50, sta oggettivamente insinuandosi nel mondo reale, visto che ci sono ricercatori che, non sapendo come costruire AI, stanno seriamente lavorando per far costruire AI migliori dalla AI odierne .
La ricerca è davvero attiva in settori una volta impensabili. E questo che conseguenze potrebbe avere?
Facciamo il parallelo con i test dei costruttori di malware, rilasciati in maniera “sperimentale” come l’ Internet Worm di Morris, SQL slammer od il recentissimo Irongate , parente più cosmopolita di Stuxnet , la prima arma informatica sganciata contro un avversario reale. L’esperimento di Irongate rappresenta probabilmente il ponte del malware verso l’Internet delle Cose e l’Industrial Internet.
Sapete che Morris voleva, pare, solo misurare le dimensioni di Internet quando rilasciò il suo worm?
E che l’esperimento di SQLSlammer non ha poi portato a successive evoluzioni?
Mentre molti addetti ai lavori sono davvero preoccupati per quello che significa Irongate, cioè un test per futuri attacchi all’Internet delle Cose?
Ma oggi mettiamo da parte l’argomento malware (a malincuore), perché quello che ci interessa è ricordare i nefasti risultati ed i pericoli corsi a causa di “esperimenti” svolti da tecnologi entusiasti.
Concludiamo quindi rapidissimamente.
Far programmare Intelligenze Artificiali da altre Intelligenze Artificiali, con alla spalle qualche CEO o qualche generale a spronarti con nobili motivi, quali i dividendi della società o la lotta ai cattivi, cosa vi fa venire in mente?
Appunto.
Marco Calamari
Lo Slog (Static Blog) di Marco Calamari
L’archivio di Cassandra/ Scuola formazione e pensiero