Luca Annunziata

Il silicio e il carbonio

A Trento il primo convegno che mette assieme biologia e high performance computing. Un approccio multidisciplinare, come d'abitudine, per tentare di fare di più

Il silicio e il carbonioRoma - "Non è detto che il parallelismo migliori le prestazioni": la frase di Davide Prandi, ricercatore del CoSBi di Trento, è allo stesso tempo emblematica e lapalissiana. La questione, spiega a Punto Informatico assieme ai colleghi Tommaso Mazza e Paolo Ballarini, è comune all'informatica moderna in generale: la potenza di calcolo cresce costantemente, ma non si è ancora avviato un processo di razionalizzazione (per così dire) di tutti questi cavalli-CPU. "Il parallelismo va di moda - prosegue - ma va valutato con attenzione".

La questione è centrale per gli utenti casalinghi come per quelli professionali: e lo diventa ancora di più per i ricercatori del CoSBi, impegnati da tempo nella creazione di modelli computazionali in grado di simulare i meccanismi alla base della biologia. Una questione che unisce gli esperti di quest'ultima branca agli informatici impegnati nell'high performance computing (HPC): da questo incontro nasce l'idea di un workshop che metta a confronto esigenze e competenze. In una parola: HiBi, High performance computational systems Biology. Ovvero "un'occasione per mettere in contatto ricercatori nell'area del computing parallelo e nella biologia di sistema computazionale".

"Il problema che abbiamo - racconta Ballarini a Punto Informatico - è che dobbiamo costruire modelli complessi, così complessi che realizzarne uno per intero può richiedere tempi lunghissimi. Senza contare - aggiunge - che c'è la questione del vincolo di memoria: ne occorre una quantità enorme per immagazzinare tutti i dati". Una delle soluzioni possibili è dunque quella di "spezzare" l'impegno su diverse macchine che lavorano allo stesso problema: ma si tratta di un terreno ancora poco esplorato, e che viene battuto più frequentemente solo da circa 10 anni a questa parte.
Il fatto è, raccontano, che fino ad oggi non esisteva un'occasione in cui gli esperti di HPC e di biologia di sistema computazionale potessero incontrarsi per discutere di questioni a cavallo tra l'informatica e la ricerca pura. L'arrivo sul mercato di processori multicore ha cambiato molto il panorama dell'elaborazione, anche e soprattutto in parallelo, ma "il problema comune dell'informatica attuale è che la larga parte dei sistemi operativi e delle applicazioni non sfruttano o quasi questo parallelismo" chiarisce Prandi.

Uno dei temi che verranno discussi a HiBi09 sarà appunto la rivisitazione degli algoritmi sequenziali in chiave parallela: una discussione che può avere ovviamente ricadute sul piano pratico, sia nel settore della ricerca di cui si occupano il CoSBi e altri centri di ricerca, sia nell'informatica. "L'elaborazione dell'algoritmo parallelo può essere semplice - prosegue Prandi - ma devo valutarne l'impatto": in altre parole, se il vantaggio nei tempi di elaborazione viene dissipato nella coordinazione delle diverse unità operative, la scelta potrebbe non essere vincente.

L'obiettivo della ricerca, in questo caso, è la creazione di un sistema cosiddetto "massimamente parallelo": per riuscire a replicare tutti i componenti di una cellula occorre uno sforzo notevole, al limite dello stato dell'arte, ma all'orizzonte ci sono altre sfide da affrontare. Dopo la cellula toccherà ai tessuti, poi agli organi, e infine agli organismi: e poi si punterà a simulare i sistemi sociali all'interno dei quali si muovono gli individui, visto che lo stesso principio attivo può avere effetti diversi al variare di questi.

Le dimensioni dei valori in gioco sono interessanti: "Diciamo che, sostanzialmente, al momento non partiamo da moli di dati esagerate: le produciamo" racconta Mazza, che per dare un'idea aggiunge che l'attuale simulazione e convalida di modelli biologici richiederebbe su un desktop casalingo circa 200-300 volte il tempo che impiega sul cluster da 256 processori in dotazione al centro trentino. Questione di giorni, più che di ore, motivo per il quale anche il cluster CoSBi "va bene per sviluppare prototipi" più che per la convalida su larga scala.

Non tutti, d'altronde, possono permettersi un mostro come il Jaguar di Cray o il Roadrunner di IBM: Mazza definisce dunque "una necessità fisiologica" individuare delle alternative, che alcuni degli articoli presentati al comitato scientifico della conferenza individuano per esempio nel riutilizzo di PC in dotazione a un laboratorio nei loro momenti di idle - quando cioè non siano utilizzati dai rispettivi utenti. Altri guardano con ottimismo alle GPGPU, i processori grafici di ultima generazione in grado di generare teraFLOPS di capacità di elaborazione a un costo di gran lunga inferiore rispetto ai supercomputer tradizionali.

I ricercatori si dicono ottimisti sugli esiti della conferenza: le adesioni sono state numerose, e ci sono tutti i presupposti per dare vita a una conversazione proficua. "Rispetto a 10 anni fa abbiamo fatto passi da gigante - spiega Prandi a Punto Informatico - i processori multicore sembrano offrire un vantaggio notevole, le GPU sembrano fare cose molto interessanti: noi lavoriamo sul software, ma senza dare un'occhiata all'hardware e senza conoscerlo diventa difficile portare avanti il nostro lavoro".

Eppure, conclude, "uno degli algoritmi più utilizzati al momento nel nostro settore, uno dei più potenti, è stato concepito nel 1978": e non perché da allora non sia stato prodotto nulla di nuovo. Semplicemente, "non era possibile utilizzarlo a causa della ridotta potenza di calcolo dei processori": la legge di Moore sta dando una mano, e HiBi e altre occasioni dello stesso tipo serviranno a far ripartire la discussione con risvolti utili sia per la ricerca pura che per le ricadute sull'industria IT in generale.

A cura di Luca Annunziata
Notizie collegate
  • TecnologiaMilner: costruiamo il computer del futuroIl professore britannico, premio Turing, spiega a Punto Informatico come sta cambiando la scienza dell'informazione. E come i ricercatori del CoSBi di Trento stiano realizzando quello che fino a qualche anno fa era impensabile
  • TecnologiaNvidia rinnova la sua piattaforma GPGPUCon il rilascio di CUDA 2.0, Nvidia mette nelle mani degli sviluppatori PC e Mac un completo insieme di strumenti per la realizzazione di applicazioni. In grado di sfruttare le enormi capacità di calcolo delle sue moderne GPU
  • TecnologiaSe l'RNA entra nei computerAlcuni scienziati studiano un insolito comportamento dell'RNA, individuando nei mattoni biologici doti di tipo prettamente informatico. Ne derivano inattese innovazioni in campo biomedico e non solo
  • SicurezzaFormiche digitali contro vermi binariRicercatori statunitensi imitano in rete il comportamento delle formiche biologiche. Nel tentativo di erigere barriere protettive efficaci contro il cyber-crimine a mezzo malware
62 Commenti alla Notizia Il silicio e il carbonio
Ordina
  • "rivisitazione degli algoritmi sequenziali in chiave parallela"
    ed anche per oggi ho letto la fesseria quotidiana.

    SE un algoritmo e' SERIALE e' SERIALE e basta (il passo N dopo il passo N-1 e prima del passo N+1) e NON SI PUO' fare altrimenti.

    per approfondimenti:
    http://it.wikipedia.org/wiki/Legge_di_Amdahl
    non+autenticato
  • Guarda, il tuo commento, per quanto sembri sensato, in realtà è profondamente scorretto. Un algoritmo sequenziale (il tuo esempio di riferisce ad un algoritmo iterativo), in cui la dipendenza del successo delle operazioni allo step n dipendono dalle computazioni allo step n-1, spesso, possono essere trasformati in algoritmi paralleli. Ma la trasformazione dell'algoritmo non è diretta, i passaggi (in molti casi ad ogni step vengono utilizzate formule matematiche più o meno complesse) è possibile applicare trasformazioni indipendenti da n, semplicemente costruendo strutture dati equivalenti ma diverse.. (ad esempio pre-calcolando strutture ausiliarie di supporto). Mai seguito un corso di calcolo parallelo?
    My 2 cents
    non+autenticato
  • Tuttavia non sempre è strettamente necessario aspettare che un dato arrivi per computare il secondo.

    Basti vedere la Fourier Fast Transform (FFT): molti processori hanno una istruzione Multiply and Accumulate (MAC) che permette di fare in contemporanea una somma ed una moltiplicazione sui single core nello stesso ciclo..
    Ovviamente lo fanno su dati differenti: mentre fa la moltiplicazione di n e n-1, aggiunge nell'accumulatore il prodotto tra n-2 e n-3. Parallelismo di un algoritmo seriale.
  • La piattaforma Boinc è una delle risposte alla necessità di calcolo per simulazioni così complesse. Progetti come Rosetta@home sono seguiti con interesse anche dagli addetti ai lavori di biologia molecolare.
    non+autenticato
  • rosetta@home, folding@home sono progetti ben diversi, che hanno un problema reale e risolvibile, la struttura di una o poche proteine in complesso.
    ma oltre quello è davvero dura andare, e anche potendo, non avrebbe poi tutto questo senso, ne molta utilità...
    non+autenticato
  • - Scritto da: kralin
    > rosetta@home, folding@home sono progetti ben
    > diversi, che hanno un problema reale e
    > risolvibile, la struttura di una o poche proteine
    > in complesso.
    ??? Una o poche proteine? Mi sa che non hai idea di ciò che stanno cercando di fare...


    > ma oltre quello è davvero dura andare, e anche
    > potendo, non avrebbe poi tutto questo senso, ne
    > molta utilità...
    ?? Perchè??
    non+autenticato
  • - Scritto da: AMEN
    > - Scritto da: kralin
    > > rosetta@home, folding@home sono progetti ben
    > > diversi, che hanno un problema reale e
    > > risolvibile, la struttura di una o poche
    > proteine
    > > in complesso.
    > ??? Una o poche proteine? Mi sa che non hai idea
    > di ciò che stanno cercando di
    > fare...
    >
    >
    > > ma oltre quello è davvero dura andare, e anche
    > > potendo, non avrebbe poi tutto questo senso, ne
    > > molta utilità...
    > ?? Perchè??

    una o poche proteine PER VOLTA
    e tanto per esser chiari per "poche proteine" intendo qualunque complessso proteico di qualche decina di proteine.
    se poi qualcuno vuole venire a dirmi che partendo da informazione zero riesce a dirmi chi interagisce con chi e dove, gli diamo il premio nobel seduta stante
    non+autenticato
  • - Scritto da: kralin

    > una o poche proteine PER VOLTA
    > e tanto per esser chiari per "poche proteine"
    > intendo qualunque complessso proteico di qualche
    > decina di proteine.

    Meglio poche di niente
    E comunque, in questo tread ti stai rendendo ridicolo...
    non+autenticato
  • - Scritto da: AMEN
    > - Scritto da: kralin
    >
    > > una o poche proteine PER VOLTA
    > > e tanto per esser chiari per "poche proteine"
    > > intendo qualunque complessso proteico di qualche
    > > decina di proteine.
    >
    > Meglio poche di niente

    non ci sono più le mezze stagioni...

    > E comunque, in questo tread ti stai rendendo
    > ridicolo...

    abbiamo punti di vista diversi su chi sia ridicolo, ma è ora di smetterlla hai ragione.
    non+autenticato
  • ch poi simulare cellule, tessuti e organismi sia una totale utopia, e che dopo cotanto sforzo non servirebbe a nulla, non viene in mente a nessuno?
    non+autenticato
  • - Scritto da: kralin
    > ch poi simulare cellule, tessuti e organismi sia
    > una totale utopia, e che dopo cotanto sforzo non
    > servirebbe a nulla, non viene in mente a
    > nessuno?

    l'utilità è sicuramente molto maggiore del tuo post
    non+autenticato
  • - Scritto da: Zago
    > - Scritto da: kralin
    > > ch poi simulare cellule, tessuti e organismi sia
    > > una totale utopia, e che dopo cotanto sforzo non
    > > servirebbe a nulla, non viene in mente a
    > > nessuno?
    >
    > l'utilità è sicuramente molto maggiore del tuo
    > post
  • - Scritto da: kralin
    > ch poi simulare cellule, tessuti e organismi sia
    > una totale utopia, e che dopo cotanto sforzo non
    > servirebbe a nulla, non viene in mente a
    > nessuno?


    sei imbarazzante...
  • tutti esperti di system biology vedo...
    qualcuno di voi ha mai visto almeno una cellula dal vivo?
    non+autenticato
  • Poche idee ma ben confuse...
    non+autenticato
  • - Scritto da: kralin
    > ch poi simulare cellule, tessuti e organismi sia
    > una totale utopia, e che dopo cotanto sforzo non
    > servirebbe a nulla, non viene in mente a
    > nessuno?

    Non viene in mente a nessuno con un briciolo di cognizione di causa.
    non+autenticato
  • o a nessuno che abbia cognizione del problema e una minima idea della complessita di un sitema vivente... che poi l'ego di alcuni ricercatori sia smisurato, è altra questione
    non+autenticato
  • Quindi, secondo te, se un sistema è complesso non vale neanche la pena di provare a comprenderlo? Saremmo ancora nelle caverne, se tutti ragionassero così
    non+autenticato
  • secondo me semplicemente non bisogna fare il passo più lungo della gamba.
    se sei nelle caverne impari prima ad accendere il fuoco poi un giorno, forse, con quel fuoco ci farai un razzo che ti porta sulla luna.
    non+autenticato