“Non è detto che il parallelismo migliori le prestazioni”: la frase di Davide Prandi , ricercatore del CoSBi di Trento, è allo stesso tempo emblematica e lapalissiana. La questione, spiega a Punto Informatico assieme ai colleghi Tommaso Mazza e Paolo Ballarini , è comune all’informatica moderna in generale: la potenza di calcolo cresce costantemente , ma non si è ancora avviato un processo di razionalizzazione (per così dire) di tutti questi cavalli-CPU. “Il parallelismo va di moda – prosegue – ma va valutato con attenzione”.
La questione è centrale per gli utenti casalinghi come per quelli professionali: e lo diventa ancora di più per i ricercatori del CoSBi, impegnati da tempo nella creazione di modelli computazionali in grado di simulare i meccanismi alla base della biologia. Una questione che unisce gli esperti di quest’ultima branca agli informatici impegnati nell’ high performance computing (HPC): da questo incontro nasce l’idea di un workshop che metta a confronto esigenze e competenze. In una parola: HiBi, High performance computational systems Biology . Ovvero “un’occasione per mettere in contatto ricercatori nell’area del computing parallelo e nella biologia di sistema computazionale”.
“Il problema che abbiamo – racconta Ballarini a Punto Informatico – è che dobbiamo costruire modelli complessi, così complessi che realizzarne uno per intero può richiedere tempi lunghissimi. Senza contare – aggiunge – che c’è la questione del vincolo di memoria: ne occorre una quantità enorme per immagazzinare tutti i dati”. Una delle soluzioni possibili è dunque quella di “spezzare” l’impegno su diverse macchine che lavorano allo stesso problema: ma si tratta di un terreno ancora poco esplorato , e che viene battuto più frequentemente solo da circa 10 anni a questa parte.
Il fatto è, raccontano, che fino ad oggi non esisteva un’occasione in cui gli esperti di HPC e di biologia di sistema computazionale potessero incontrarsi per discutere di questioni a cavallo tra l’informatica e la ricerca pura. L’arrivo sul mercato di processori multicore ha cambiato molto il panorama dell’elaborazione, anche e soprattutto in parallelo, ma “il problema comune dell’informatica attuale è che la larga parte dei sistemi operativi e delle applicazioni non sfruttano o quasi questo parallelismo” chiarisce Prandi.
Uno dei temi che verranno discussi a HiBi09 sarà appunto la rivisitazione degli algoritmi sequenziali in chiave parallela : una discussione che può avere ovviamente ricadute sul piano pratico, sia nel settore della ricerca di cui si occupano il CoSBi e altri centri di ricerca, sia nell’informatica. “L’elaborazione dell’algoritmo parallelo può essere semplice – prosegue Prandi – ma devo valutarne l’impatto”: in altre parole, se il vantaggio nei tempi di elaborazione viene dissipato nella coordinazione delle diverse unità operative, la scelta potrebbe non essere vincente.
L’obiettivo della ricerca, in questo caso, è la creazione di un sistema cosiddetto “massimamente parallelo”: per riuscire a replicare tutti i componenti di una cellula occorre uno sforzo notevole, al limite dello stato dell’arte, ma all’orizzonte ci sono altre sfide da affrontare. Dopo la cellula toccherà ai tessuti, poi agli organi, e infine agli organismi : e poi si punterà a simulare i sistemi sociali all’interno dei quali si muovono gli individui, visto che lo stesso principio attivo può avere effetti diversi al variare di questi.
Le dimensioni dei valori in gioco sono interessanti: “Diciamo che, sostanzialmente, al momento non partiamo da moli di dati esagerate: le produciamo” racconta Mazza, che per dare un’idea aggiunge che l’attuale simulazione e convalida di modelli biologici richiederebbe su un desktop casalingo circa 200-300 volte il tempo che impiega sul cluster da 256 processori in dotazione al centro trentino. Questione di giorni, più che di ore , motivo per il quale anche il cluster CoSBi “va bene per sviluppare prototipi” più che per la convalida su larga scala.
Non tutti, d’altronde, possono permettersi un mostro come il Jaguar di Cray o il Roadrunner di IBM : Mazza definisce dunque “una necessità fisiologica” individuare delle alternative, che alcuni degli articoli presentati al comitato scientifico della conferenza individuano per esempio nel riutilizzo di PC in dotazione a un laboratorio nei loro momenti di idle – quando cioè non siano utilizzati dai rispettivi utenti. Altri guardano con ottimismo alle GPGPU , i processori grafici di ultima generazione in grado di generare teraFLOPS di capacità di elaborazione a un costo di gran lunga inferiore rispetto ai supercomputer tradizionali.
I ricercatori si dicono ottimisti sugli esiti della conferenza: le adesioni sono state numerose, e ci sono tutti i presupposti per dare vita a una conversazione proficua. “Rispetto a 10 anni fa abbiamo fatto passi da gigante – spiega Prandi a Punto Informatico – i processori multicore sembrano offrire un vantaggio notevole, le GPU sembrano fare cose molto interessanti: noi lavoriamo sul software, ma senza dare un’occhiata all’hardware e senza conoscerlo diventa difficile portare avanti il nostro lavoro”.
Eppure, conclude, “uno degli algoritmi più utilizzati al momento nel nostro settore, uno dei più potenti, è stato concepito nel 1978”: e non perché da allora non sia stato prodotto nulla di nuovo. Semplicemente, “non era possibile utilizzarlo a causa della ridotta potenza di calcolo dei processori”: la legge di Moore sta dando una mano , e HiBi e altre occasioni dello stesso tipo serviranno a far ripartire la discussione con risvolti utili sia per la ricerca pura che per le ricadute sull’industria IT in generale.
A cura di Luca Annunziata