Megagrid europeo al test di velocità

Il megacomputer distribuito che avrà il compito di gestire l'immensa mole di dati del Large Hadron Collider ha superato un importante test di velocità, da un CD al secondo

Ginevra - Il più grande progetto di grid computing europeo, il Large Hadron Collider Computing Grid (LCG), ha concluso un test durante il quale sono stati trasferiti, in poco più di una settimana, una quantità di dati paragonabile a quella contenuta in oltre 100.000 DVD.

Nell'arco di 10 giorni il CERN ha scambiato con altri sette centri di ricerca europei e statunitensi 500 terabyte di dati con una velocità media di 600 MB al secondo ed una velocità di picco di 800 MB/s. La stessa quantità di dati, se trasferita alla velocità di una tipica connessione ADSL da 1 Mbit/s, avrebbe richiesto oltre 120 anni.

Il test è stato condotto dal consorzio che gestisce la rete distribuita del Large Hadron Collider (LHC) per verificare l'efficienza e la stabilità della complessa infrastruttura di computing e comunicazione alla base del grid computer europeo.
"Il superamento di questa sfida dimostra come il nostro grid, uno dei più grandi al mondo, è pronto per gestire il diluvio di dati che proverrà dall'LHC", ha affermato Jamie Shiers, manager del CERN. "Quando l'LHC entrerà in funzione, nel 2007, genererà più dati di qualsiasi altro strumento scientifico del pianeta: si parla di qualcosa come 1.500 MB di informazioni ogni secondo per oltre un decennio".

Sebbene i tecnici abbiano affermato che i risultati del test appena concluso abbiano superato le aspettative, l'attuale transfer rate del grid è appena un terzo di quello che caratterizzerà l'LCG nel 2007.

La "griglia" collegherà l'LHC, un acceleratore di particelle di nuova generazione, con centinaia di laboratori e oltre 6.000 scienziati sparsi in tutto il mondo. Per maggiori dettagli sul progetto si veda La mega Grid europea scalda i motori.
TAG: mondo
17 Commenti alla Notizia Megagrid europeo al test di velocità
Ordina
  • ci incastra qualcosa o no?

    comunque, TANTA ROBA IL GRID......!!!!!
    non+autenticato

  • - Scritto da: Anonimo
    > ci incastra qualcosa o no?
    >
    > comunque, TANTA ROBA IL GRID......!!!!!

    Secondo me c'entra:
    http://punto-informatico.it/p.asp?i=51675
    http://punto-informatico.it/p.asp?i=50345
    non+autenticato
  • mi sa anche a me... Occhiolino

    grazie
    non+autenticato
  • Questo è il grid computing
    la piu grande infrastruttura informatica del mondo
    fatta al 99% con il so tecnologicamente
    piu avanzato e le cpu migliori
    non+autenticato
  • >Il megacomputer distribuito che avrà il compito di gestire >l'immensa mole di dati del Large Hadron Collider ha superato >un importante test di velocità,

    > da un CD al secondo
    non+autenticato
  • ... Ho guardato il link ma non ci ho capito un CA22O!

    C'è qualcuno qui che sà abbastanza di fisica per dirmi 2 (solo2) paroline?

    Se nn ho capito male si tratta di elaborare tutti i dati di un ciclotrone da 26km di circonferenza, quando fanno scontrare delle particelle ... Basta?
  • L'LHC è un accelleratore di particelle. Sarò pienamente attivo nel 2007 e diventerà il più grande del mondo. Grazie al LHC si potranno scoprire particelle subatomiche non conosciute, simulare un micro-big-bang, capire i segreti dell'universo e anche produrre quantità ridotte di antimateria (pochi microgrammi). Le velocità di trasferimento dati così elevate
    permetteranno a migliaia di ricercatori dei lavorare sui dati senza andare al LCH e inoltre di poter utilizzare la potenza di calcolo di molti più computer (grid).

  • - Scritto da: marcoweb
    > L'LHC è un accelleratore di particelle. Sarò
    > pienamente attivo nel 2007 e diventerà il più
    > grande del mondo. Grazie al LHC si potranno
    > scoprire particelle subatomiche non conosciute,
    > simulare un micro-big-bang, capire i segreti
    > dell'universo e anche produrre quantità ridotte
    > di antimateria (pochi microgrammi). Le velocità
    > di trasferimento dati così elevate
    > permetteranno a migliaia di ricercatori dei
    > lavorare sui dati senza andare al LCH e inoltre
    > di poter utilizzare la potenza di calcolo di
    > molti più computer (grid).

    Non solo, l'LHC sarà riempito di migliaia di sensori di ogni tipo per evitare di perdere anche solo una delle particelle emesse. E ognuno di quei sensori invierà decine di MB di informazioni che dovranno essere trattate e elaborate.
    Mi pare chiaro che la rete dev'essere in grado di sopportare tutta quella mole di informazioni.
    non+autenticato
  • MA è LA COSA + STUPIDA MA COSA ME NE FREGA A ME DEGLI STUDIOSI GUARDA CHE PUOI RISCHIARE DI MORIRE
    non+autenticato
  • Il GRID (una la rete mondiale di computer collegati tra loro per farli lavorare come se fossero un unico grande computer), viene chiamato anche calcolo distribuito sarà la più grande rivoluzione informatica dopo internet.
    Non a caso nasce proprio al nei laboratori europei del CERN (già inventori a suo tempo del nostro attuale modo di navigare su internet).

    Come allora anche oggi questa tecnologia nasce dall'esigenza di riuscire in breve tempo a ordinare ed elaborare i milioni di dati che verranno prodotti dagli esperimenti del nuovo accelleratore di particelle.

    L'idea di collegare milioni di singole CPU in una grande mente capace ha però bisogno di velocità di transfert rate elevatissimi (attualmente mi pare esistano 80 satelliti geostazionari dedicati alla rete GRID). Ecco dunque lo scopo di questi test. Comprendere realmente i valori medi di trasferimento (perchè una cosa è la teoria una cosa sono i trasferimenti d'informazione nella realtà quotidiana).

    Per quanto riguarda invece LHC (large Hadron Collider) che sarà ultimato se tutto va bene entro il 2007 (con una circorferenza di 27Km e una profondità di 100m servirà in parte per comprendere meglio le simmetrie materia/antimateria. Il suo funzionamento in poche parole prevedere di portare a collisione due fasci di protoni producendo 800 milioni di collisioni al secondo.

    Tenete presente che si stima che gli esperimenti di LHC possano produrre fino a 2 Petabyte di dati per secondo.
    Nessun computer al mondo potrebbe reggere una tale mole di dati.

    Tutto questo enorme lavoro per "trovare" quella che tutti pensano sia la particella fondamentale della materia.
    La particella di HIGGS. A mio avviso le ricadute sociali, economiche e scientifiche di questo lavoro cambieranno il nostro modo di vivere per sempre. L'unica paura resta per questa "Skynet" reale che controllando tutto potrebbe chissà...ma questa è fantascienza.

    Per maggiori informazioni faccio un taglia ed incolla di un riassunto di una tesi trovata su internet: (di tale Adragna, Paolo)

    Alla fine del secolo scorso l'Organizzazione Europea per la Ricerca Nucleare
    (CERN) ha varato un nuovo programma di sperimentazioni che include la

    costruzione di un nuovo collisore protone-protone, il Large Hadron Collider, e di quattro nuovi esperimenti che copriranno un ampio spettro di

    ricerche nell'ambito della Fisica delle Interazioni Fondamentali.


    Uno degli scopi principali della costruzione di LHC è la conferma della validità del cosiddetto Modello Standard (Minimale) delle Interazioni Elettrodeboli di Glashow, Weinberg e Salam. Questa teoria di campo invariante di gauge, proposta

    più di trent'anni fa, unifica la descrizione di due delle quattro interazioni fondamentali della natura, quella elettromagnetica e quella debole, in una unica rappresentazione coerente. Nell'ambito del Modello Standard il meccanismo

    comunemente accettato per spiegare le masse delle particelle è la rottura spontanea della simmetria, conseguenza dell'inserimento nel modello di nuovi

    campi scalari. Nel Modello Sandard Minimale deve, pertanto, essere presente un bosone di Higgs neutro, non ancora osservato. La sua scoperta sarà uno degli obiettivi principali del programma di LHC.


    Le potenzialità di scoperta di questa nuova macchina acceleratrice si estendono anche alla ricerca di nuova fisica, attraverso l'esplorazione di eventuali indicazioni delle teorie che superano il Modello Standard stesso, come la SuperSimmetria.


    ATLAS e CMS, i due esperimenti a carattere generale in costruzione ad LHC, sono

    stati progettati per essere in grado di fornire una risposta definitiva sull'esistenza dello Higgs nell'intervallo di massa in cui questi può esistere (100 GeV-1 TeV). In particolare le masse comprese fra 120 e 200 GeV dovranno

    essere indagate con molta attenzione, poiché misure precedenti indicherebbero

    proprio questi valori come più probabili
    non+autenticato
  • Che posso dirti: grazie. In meno di un'ora i hai fatto appassionare a 'sta cosa (.. lo ero già ma ...).

    Grazie a questa tua risposta PI ha riacquistato un po' della vecchia credibilità.

    Grazie anche all'altro amico, più "succinto".

    Ma perchè nn vi registrate?
  • E se da questi scontri si fa un bel buco?
    Se l'antimateria inizia a mangiarsi la materia? Addio universo?
    non+autenticato
  • semplicemente si libera energia e l'antimateria e la materia si annullanoSorride
    non+autenticato
  • Si può (e si deve) vedere la questione anche da un altro punto di vista: un accelatore come LHC costa un sacco di soldi. Ma veramente tanti.
    Quindi è necessario sfruttarlo al massimo, cioè ricavare il massimo, in termini di informazioni, da ogni urto; da cui l'enorme mole di dati.

    Se invece ti riferivi a cosa serve un acceleratore, ed in particolare uno da 27 km di diametro, la risposta è: un acceleratore serve a creare particelle. stop.
    In una sorta di "chimica particellare" (passatemi il paragone improprio) dalla unione di due (o più) particelle puoi ottenere altre particelle (se ti interessa puoi cercare su google qualcosa circa i diagrammi di feynman: ti possono dare un'idea della faccenda senza usare la teoria dei campi), ma sei costretto a farle urtare con forza per farle interagire.
    Un acceleratore da 27 km serve per raggiungere alte energie, ed in particolare in questo caso per cercare di osservare il bosone di Higgs.
    Un'altra cosa: spesso il tempo di vita delle particelle ottenute è infimo (ecco anche perchè devi creartele tu: in natura non resistono!), e spesso si allontanano dall'urto a velocità terrificanti; di conseguenza devi raccogliere i dati tanti e subito, e se aggiungi che magari il processo che tu cerchi ha probabilità di avvenire 1/8000000 allora per i dati diventa "tutto e subito"
CONTINUA A LEGGERE I COMMENTI
Successiva
(pagina 1/2 - 6 discussioni)