Lanciata ufficialmente la super-rete europea

Géant è in grado di trasportare dati in 32 paesi alla velocità di 10 gigabit per secondo. Secondo i promotori è il network più potente fin qui realizzato

Roma - Non è ancora ultimata ma già fornisce prestazioni di enorme interesse la rete GÉANT definita dai suoi promotori come il network più potente al mondo. Ieri il network, che ha iniziato ad integrare reti ultraveloci in mezza Europa dal primo dicembre del 2001, è stato ufficialmente lanciato dal Consortium of European Research Networks.

Il progetto Géant, cofinanziato dalla Commissione europea e gestito dal consorzio internazionale DANTE, si appoggia su una rete di reti ad altissime prestazioni in 32 diversi paesi. Con questi strumenti può connettere oltre 3mila università e centri di ricerca mettendo a disposizione una connettività da favola: 10 gigabit al secondo.

Géant è nella realtà il "segmento europeo" - come tale lo ha descritto il commissario alla società dell'informazione europeo Erkki Liikanen - della GTRN (Global Terabit Research Network), la super-rete internazionale. Géant viene descritta come una rete che non ha eguali nella copertura geografica e nel supporto che offre ai ricercatori sia come rete di comunicazione che come infrastruttura di ricerca in quanto tale.

Nel complesso, Géant - un progetto quadriennale - è animata da nove circuiti a 10 gigabit per secondo e da altri 11 da 2,5 gigabit.
Tutto quello che c'è da sapere su Géant è disponibile qui.
13 Commenti alla Notizia Lanciata ufficialmente la super-rete europea
Ordina
  • Interessante il battibecco che si e' creato sull'uso di questa banda larghissima... C'e' chi ne dubita l'utilita', c'e' chi difende a spada tratta l'uso negli atenei.

    Agli uni e' giusto ricordare che la sperimentazione accademica e' stata l'origine dell'internet. Agli altri ricordo che da sempre l'universita' e' uno dei flussi continui di warez, mp3, film, e immagini, proprio perche' in mezzo ai pochi ricercatori seri c'e' una montagna di "babbi di minchia".

    Il termine "Babbi di minchia" dovrebbe essere tipico del Politecnico di Torino, ma credo che sia facilmente comprensibile anche al di fuori del contesto.

    Salutoni!
    non+autenticato
  • Hai perfettamente ragione! Ok è giusto che chi fa ricerca abbia questo tipo di banda ma solo ed esclusivamente loro!!
    non+autenticato
  • Con questi strumenti può connettere oltre 3mila università e centri di ricerca mettendo a disposizione una connettività da favola: 10 gigabit al secondo.
    ====
    appunto...che se ne fanno di questa velocita ????
    non+autenticato
  • 1: per fare gli "sboroni"
    2: per causare "rosichella" a chi ricercatore non e'
    3: per passarsi terabyte di foto, depliant e programmi di convegni in localita' esotiche (vedi p.to 2)

    :)) scusate per le cazzate, ma era troppo ghiotta
    non+autenticato
  • e tu cosa te ne faresti ?

    magari a loro serve per passarsi dati di immagini ad alta definizione di qualche satellite o di qualche proteina o di qualche sarcazzo.

    cos'e' ti rosica che loro hanno tutta quella banda e tu no ?
    non+autenticato
  • > magari a loro serve per passarsi dati di
    > immagini ad alta definizione di qualche
    > satellite o di qualche proteina o di qualche
    > sarcazzo.
    foto altissima definizione: 20 mega...piu o meno...
    inoltre per spedirsi gigabyte basta fare un clone del hard disk piuttosto che occupare banda...
    non ho detto che non c'e un uso, ma che e uno spreco di banda...

    > cos'e' ti rosica che loro hanno tutta quella
    > banda e tu no ?
    ovviamente...
    non+autenticato

  • Perché a voi no?! Deluso
    non+autenticato
  • Serve a cosa? Ma state scherzando?

    Questo è solo l'inizio, incredibile che non capiate.

    Internet è nato proprio grazie a univesità e centri di ricerca, è normale che la connettività a banda larga si diffonda prima in questi centri, è la base di partenza per avere prima o poi tutti connettività di alto livello.
    Le università riescono a sfruttare al meglio queste ampiezze di banda studiandone i possibili impieghi futuri, provate a fare una riflessione: quali saranno i cambiamenti sociali, economici e tecnologici quando avremo tutti a che fare con connettività a 10 Gbit/s? Di sicuro nn ci porremo più il problema di scaricare divX o mp3...
    non+autenticato

  • Mamma mia...

    ma non dovreste essere voi gli evoluti?? leggete un quotidiano online e non capite che il fulcro del sapere informatico dovrebbero essere le università?!?!? ma chi vi aspettate che implementi cose tipo l'IPV6??? gli abitanti di bulgarograsso???? SBAGLIATO! se mai lo implementerà qualcuno sarà chi ha tempo e denaro per fare ricerca, vi dice nulla un link come http://winpcap.polito.it/ ???? se la risposta è no prima di parlare controllate di aver collegato il cervello la prossima volta; ovviamente non prendo nemmeno in considerazione l'idea di spiegarvi che cosa sia un driver di cattura pacchetti...
    Se tutto quello che sapete fare con l'ampiezza di banda è passarvi warez o divx forse è meglio che vi diate all'ippica e lasciate l'informatica ad altri.

    Maurizio
    non+autenticato
  • Sapresti consigliarmi qualche buon cavallo?? Alla snai danno Varenne sempre a 1.1 o 1.2, troppo poco! Io avrei puntato su Baiocco Jet o su Aerostatica bfg, che dici? Oppure dovrei puntare tuto su Lama Rotante, Incendio Nucleare e Badile Nero?? Aspetto consigli, visto che del driver cattura pacchetti me ne sbatto, risbatto e trisbatto altamente e immensamente i *@**---. Quello lo lascio a te.
    non+autenticato
  • Ci lavorano.
    non+autenticato
  • In alcuni ambiti (fisica delle alte energie) quando i tuoi utenti cominciano a trasferire dati, vanno giù di gigabyte e ti divorano 34mbit di banda per giorni e giorni come se fossero biscotti...

    Ti posso assicurare che servono, non si tratta dell'utilizzo "tradizionale" di internet.

    http://www.griphyn.org/info/physics/high.html

    "A data thunderstorm is gathering on the horizon with the next generation of particle physics experiments. The amount
    of data is overwhelming. Even though the prime data from the CERN
    CMS detector will be reduced by a factor of more than ten million,
    it will still amount to over a Petabyte (10^15 bytes, a billion megabytes) of data per year accumulated for scientific               analysis. The task of finding rare events resulting from the decays of massive new particles in a dominating background is even more formidable. Particle physicists have been at the vanguard of data-handling
    technology, beginning in the 1940's with eye scanning of bubble-chamber
    photographs and emulsions, through decades of electronic data acquisition
    systems employing real-time pattern recognition, filtering and formatting,
    and continuing on to the PetaByte archives generated by modern experiments.
    In the future, CMS and other experiments now being built to run
    at CERN's Large Hadron Collider expect to accumulate of order of
    100 PetaBytes within the next decade."
    non+autenticato
  • Non è mica che tutti i computer abbiano 10 gigabit ciascuno! Con migliaia di utenti connessi, l'ampliamento è d'obbligo ed è naturale che sia così.
    non+autenticato