Alfonso Maruccia

K, il Godzilla dei supercomputer

Il mostruoso sistema messo assieme da Fujitsu riporta il Giappone in vetta alla classifica dei supercomputer pi¨ potenti del mondo. Infranto il tetto dei 10 petaFLOPS

Roma - La barriera dei 10 petaFLOPS è stata infranta da "K", il supercomputer realizzato da Fujitsu in collaborazione con il governo giapponese con l'obiettivo ben preciso di riportare il Sol Levante nell'Empireo delle potenze del calcolo supermassivo da milioni di miliardi di istruzioni in virgola mobile al secondo.

Inizialmente assemblato a giugno, K è ora arrivato all'apice delle sue capacità super-computazionali: con un totale di 88.128 CPU SPARC64 configurate in ben 864 rack differenti, il supercomputer di Fujitsu ha raggiunto un'efficienza di esecuzione del 93,2 per cento operando ininterrottamente per 30 ore e raggiungendo la stratosferica performance di 10,51 milioni di miliardi di FLOPS, 10,5 petaFLOP, appunto.

Anche se la classifica "ufficiale" non è ancora aggiornata, insomma, K è ora il supercomputer più veloce al mondo: per raggiungere questo nuovo traguardo del supercalcolo, il MoMESST giapponese (Ministero dell'Educazione, della Cultura, dello Sport, della Scienza e della Tecnologia) ha speso miliardi di dollari per l'installazione attualmente ospitata presso il laboratorio RIKEN di Fujitsu nella città di Kobe.
Oltre a rappresentare il nuovo punto di riferimento per i benchmark del supercalcolo, però, K è destinato ad avere ricadute importanti anche (soprattutto?) nella comunità scientifica giapponese e non solo: i ricercatori si aspettano di mettere a frutto tutta questa potenza entro il novembre del 2012 per prevedere i terremoti e gli altri disastri naturali, studiare i cambiamenti climatici, sviluppare medicinali di nuova generazione, studiare la cosmologia e via elencando.

Alfonso Maruccia
Notizie collegate
31 Commenti alla Notizia K, il Godzilla dei supercomputer
Ordina
  • Trollata ciesca ( ogni tanto ci vuole ):

    #include <alloc.h>
    #include <stdio.h>

    main()
    {
    int *troll_mode;
    troll_mode=(int*)calloc(1,sizeof(int));
    if (troll_mode)
    {
    *troll_mode=1;
    printf ("Per farci girare unity direi che è ottimo.\n");
    printf ("Cosi gira fluido e si continuerà a dire che sui super\n");
    printf ("PC gira solo Linux e non Winzoz.");
    *troll_mode=0;
    free(troll_mode);
    }
    return 0;
    }
  • - Scritto da: pippo75
    > Trollata ciesca ( ogni tanto ci vuole ):
    >
    > #include <alloc.h>
    > #include <stdio.h>
    >
    > main()
    > {
    > int *troll_mode;
    > troll_mode=(int*)calloc(1,sizeof(int));
    > if (troll_mode)
    > {
    >   *troll_mode=1;
    >   printf ("Per farci girare unity direi che è
    > ottimo.\n");
    >   printf ("Cosi gira fluido e si continuerà a
    > dire che sui
    > super\n");
    >   printf ("PC gira solo Linux e non Winzoz.");
    >   *troll_mode=0;
    >   free(troll_mode);
    > }
    > return 0;
    > }

    scusa, perchè hai bisogno di usare un puntatore ad interi per allocare un intero, che usi nella stessa funzione?
    non+autenticato
  • - Scritto da: non fumo non bevo e non dico parolacce
    > - Scritto da: pippo75
    > > Trollata ciesca ( ogni tanto ci vuole ):
    > >
    > > #include <alloc.h>
    > > #include <stdio.h>
    > >
    > > main()
    > > {
    > > int *troll_mode;
    > > troll_mode=(int*)calloc(1,sizeof(int));
    > > if (troll_mode)
    > > {
    > >   *troll_mode=1;
    > >   printf ("Per farci girare unity direi che è
    > > ottimo.\n");
    > >   printf ("Cosi gira fluido e si continuerà a
    > > dire che sui
    > > super\n");
    > >   printf ("PC gira solo Linux e non
    > Winzoz.");
    > >   *troll_mode=0;
    > >   free(troll_mode);
    > > }
    > > return 0;
    > > }
    >
    > scusa, perchè hai bisogno di usare un puntatore
    > ad interi per allocare un intero, che usi nella
    > stessa
    > funzione?

    Che usa?
    Gli assegna un valore, ma non lo usa mica!
  • Appunto! Le due righe:

    *troll_mode=1;
    *troll_mode=0;

    dentro l'if, sono inutili...
    non+autenticato
  • - Scritto da: pignolo
    > Appunto! Le due righe:
    >
    > *troll_mode=1;
    > *troll_mode=0;
    >
    > dentro l'if, sono inutili...

    Due bug in 20 righe, è pronto per lavorare alla MicrosoftA bocca aperta
    ruppolo
    32123
  • Ricorda Ruppolo che secondo un vecchio detto Zen : ogni programma ad una visione più attenta, può essere ridotto di almeno una riga e contiene almeno un bug.

    Ne consegue che ogni programma può essere ridotto nella sua massima espressione ad una sola riga che non funziona :

    http://punto-informatico.it/3328360/PI/Brevi/ancor...


    - Scritto da: ruppolo
    > - Scritto da: pignolo
    > > Appunto! Le due righe:
    > >
    > > *troll_mode=1;
    > > *troll_mode=0;
    > >
    > > dentro l'if, sono inutili...
    >
    > Due bug in 20 righe, è pronto per lavorare alla
    > Microsoft
    >A bocca aperta
    non+autenticato
  • - Scritto da: ruppolo

    > Due bug in 20 righe

    non sono bug, sono righe inutili, non hanno effetto sull'esecuzione del programma... come inutile è farti notare la differenza...
    non+autenticato
  • - Scritto da: ruppolo
    > - Scritto da: pignolo
    > > Appunto! Le due righe:
    > >
    > > *troll_mode=1;
    > > *troll_mode=0;
    > >
    > > dentro l'if, sono inutili...
    >
    > Due bug in 20 righe, è pronto per lavorare alla
    > Microsoft
    >A bocca aperta

    Non sono bug.
    E' semplicemente codice inutile.
    E quindi e' pronto comunque per lavorare in M$.
  • - Scritto da: pignolo
    > Appunto! Le due righe:
    >
    > *troll_mode=1;
    > *troll_mode=0;
    >
    > dentro l'if, sono inutili...

    ci pensera' il compilatore ad eliminare gli assegnalenti inutiliA bocca aperta
    non+autenticato
  • - Scritto da: pippo75
    >   printf ("Cosi gira fluido e si continuerà a
    > dire che sui
    > super\n");
    >   printf ("PC gira solo Linux e non Winzoz.");

    e infatti...
    http://www.top500.org/system/10810
    non+autenticato
  • Pensavo che tutti i supercomputer dell'ultima generazione puntassero sul mix di cpu general purpose e gpu, mentre questo si basa solo su sparc ?
    Qualcuno sa il perché?
    non+autenticato
  • - Scritto da: yup
    > Pensavo che tutti i supercomputer dell'ultima
    > generazione puntassero sul mix di cpu general
    > purpose e gpu, mentre questo si basa solo su
    > sparc
    > ?
    > Qualcuno sa il perché?

    Credo dipenda dall'architettura delle CPU. Gli Sparc sono RISC e generalmente a parità di clock sono molto più performanti dei CISC.

    http://it.wikipedia.org/wiki/RISC
  • - Scritto da: PinguinoCattivo
    > - Scritto da: yup
    > > Pensavo che tutti i supercomputer dell'ultima
    > > generazione puntassero sul mix di cpu general
    > > purpose e gpu, mentre questo si basa solo su
    > > sparc?
    > > Qualcuno sa il perché?
    >
    > Credo dipenda dall'architettura delle CPU. Gli
    > Sparc sono RISC e generalmente a parità di clock
    > sono molto più performanti dei
    > CISC.
    >
    > http://it.wikipedia.org/wiki/RISC

    anche se RISC, restano comunque CPU generaliste con un limitato numero (1-8) di ALU, non sono specializzatee nel calcolo come puo' esserlo una GPU (300-1600 ALU).
    non+autenticato
  • - Scritto da: attonito
    > - Scritto da: PinguinoCattivo
    > > - Scritto da: yup
    > > > Pensavo che tutti i supercomputer
    > dell'ultima
    > > > generazione puntassero sul mix di cpu
    > general
    > > > purpose e gpu, mentre questo si basa
    > solo
    > su
    > > > sparc?
    > > > Qualcuno sa il perché?
    > >
    > > Credo dipenda dall'architettura delle CPU.
    > Gli
    > > Sparc sono RISC e generalmente a parità di
    > clock
    > > sono molto più performanti dei
    > > CISC.
    > >
    > > http://it.wikipedia.org/wiki/RISC
    >
    > anche se RISC, restano comunque CPU generaliste
    > con un limitato numero (1-8) di ALU, non sono
    > specializzatee nel calcolo come puo' esserlo una
    > GPU (300-1600
    > ALU).

    Vabbè... però rimane che la G di GPU sta per "Graphics".
    Che facciamo, montiamo 500 schede video su un supercomputer?

    :)
  • - Scritto da: PinguinoCattivo
    > - Scritto da: attonito
    > > - Scritto da: PinguinoCattivo
    > > > - Scritto da: yup
    > > > > Pensavo che tutti i supercomputer
    > > dell'ultima
    > > > > generazione puntassero sul mix di
    > cpu
    > > general
    > > > > purpose e gpu, mentre questo si
    > basa
    > > solo
    > > su
    > > > > sparc?
    > > > > Qualcuno sa il perché?
    > > >
    > > > Credo dipenda dall'architettura delle
    > CPU.
    > > Gli
    > > > Sparc sono RISC e generalmente a parità
    > di
    > > clock
    > > > sono molto più performanti dei
    > > > CISC.
    > > >
    > > > http://it.wikipedia.org/wiki/RISC
    > >
    > > anche se RISC, restano comunque CPU
    > generaliste
    > > con un limitato numero (1-8) di ALU, non sono
    > > specializzatee nel calcolo come puo' esserlo
    > una
    > > GPU (300-1600
    > > ALU).
    >
    > Vabbè... però rimane che la G di GPU sta per
    > "Graphics".
    > Che facciamo, montiamo 500 schede video su un
    > supercomputer?
    >
    >Sorride

    CUDA e STREAM. Google e' da quella parte --->
    non+autenticato
  • - Scritto da: attonito
    > - Scritto da: PinguinoCattivo
    > > - Scritto da: attonito
    > > > - Scritto da: PinguinoCattivo
    > > > > - Scritto da: yup
    > > > > > Pensavo che tutti i
    > supercomputer
    > > > dell'ultima
    > > > > > generazione puntassero sul
    > mix
    > di
    > > cpu
    > > > general
    > > > > > purpose e gpu, mentre questo
    > si
    > > basa
    > > > solo
    > > > su
    > > > > > sparc?
    > > > > > Qualcuno sa il perché?
    > > > >
    > > > > Credo dipenda dall'architettura
    > delle
    > > CPU.
    > > > Gli
    > > > > Sparc sono RISC e generalmente a
    > parità
    > > di
    > > > clock
    > > > > sono molto più performanti dei
    > > > > CISC.
    > > > >
    > > > > http://it.wikipedia.org/wiki/RISC
    > > >
    > > > anche se RISC, restano comunque CPU
    > > generaliste
    > > > con un limitato numero (1-8) di ALU,
    > non
    > sono
    > > > specializzatee nel calcolo come puo'
    > esserlo
    > > una
    > > > GPU (300-1600
    > > > ALU).
    > >
    > > Vabbè... però rimane che la G di GPU sta per
    > > "Graphics".
    > > Che facciamo, montiamo 500 schede video su un
    > > supercomputer?
    > >
    > >Sorride
    >
    > CUDA e STREAM. Google e' da quella parte --->

    Ma sempre schede grafiche sono.
    Dal tuo commento "ermetico" non capisco se stai suggerendo di montare GPU al posto delle CPU o altro...
  • - Scritto da: PinguinoCattivo
    > - Scritto da: attonito
    > > - Scritto da: PinguinoCattivo
    > > > - Scritto da: attonito
    > > > > - Scritto da: PinguinoCattivo
    > > > > > - Scritto da: yup
    > > > > > > Pensavo che tutti i
    > > supercomputer
    > > > > dell'ultima
    > > > > > > generazione puntassero
    > sul
    > > mix
    > > di
    > > > cpu
    > > > > general
    > > > > > > purpose e gpu, mentre
    > questo
    > > si
    > > > basa
    > > > > solo
    > > > > su
    > > > > > > sparc?
    > > > > > > Qualcuno sa il perché?
    > > > > >
    > > > > > Credo dipenda
    > dall'architettura
    > > delle
    > > > CPU.
    > > > > Gli
    > > > > > Sparc sono RISC e
    > generalmente
    > a
    > > parità
    > > > di
    > > > > clock
    > > > > > sono molto più performanti dei
    > > > > > CISC.
    > > > > >
    > > > > >
    > http://it.wikipedia.org/wiki/RISC
    > > > >
    > > > > anche se RISC, restano comunque CPU
    > > > generaliste
    > > > > con un limitato numero (1-8) di
    > ALU,
    > > non
    > > sono
    > > > > specializzatee nel calcolo come
    > puo'
    > > esserlo
    > > > una
    > > > > GPU (300-1600
    > > > > ALU).
    > > >
    > > > Vabbè... però rimane che la G di GPU
    > sta
    > per
    > > > "Graphics".
    > > > Che facciamo, montiamo 500 schede video
    > su
    > un
    > > > supercomputer?
    > > >
    > > >Sorride
    > >
    > > CUDA e STREAM. Google e' da quella parte
    > --->
    >
    > Ma sempre schede grafiche sono.

    APPUNTO!

    > Dal tuo commento "ermetico" non capisco se stai
    > suggerendo di montare GPU al posto delle CPU o
    > altro...

    se ti faccio capire "cerca CUDA e STREAM" su google ma tu NON lo fai non e' un problema mio.
    non+autenticato
  • - Scritto da: attonito
    [...]
    >
    > se ti faccio capire "cerca CUDA e STREAM" su
    > google ma tu NON lo fai non e' un problema
    > mio.

    Sicuramente non è un problema tuo. Allo stesso modo come non è un problema mio se rispondi a tozzi e bocconi e bisogna tirarti fuori le parole con le pinze.

    ;)

    http://www.nvidia.it/object/what_is_cuda_new_it.ht...

    L'elaborazione si sta evolvendo dal paradigma della "centralizzazione" su CPU a quello del "co-processing" su CPU e GPU. Per agevolare l'evoluzione del settore verso il nuovo paradigma di computing, NVIDIA ha inventato l'architettura di elaborazione in parallelo CUDA che ora è parte integrante delle GPU GeForce, ION, Quadro e Tesla e, quindi, rappresenta già una base installata di interesse per gli sviluppatori di applicazioni.
  • - Scritto da: PinguinoCattivo
    > - Scritto da: attonito
    > [...]
    > >
    > > se ti faccio capire "cerca CUDA e STREAM" su
    > > google ma tu NON lo fai non e' un problema
    > > mio.
    >
    > Sicuramente non è un problema tuo. Allo stesso
    > modo come non è un problema mio se rispondi a
    > tozzi e bocconi e bisogna tirarti fuori le parole
    > con le pinze.Occhiolino

    io ti ho indicato la direzione, poi camminare tocca a teSorride
    non+autenticato
  • Tutti questi vostri discorsi non interessano alla gente, l'importante è che ci giri iOS5, così lo possono usare tutti! L'ho letto su macitynet!

    Parola di Macacaro!Occhiolino
    non+autenticato
  • - Scritto da: Macacaro
    > Tutti questi vostri discorsi non interessano alla
    > gente, l'importante è che ci giri iOS5, così lo
    > possono usare tutti! L'ho letto su
    > macitynet!
    >
    > Parola di Macacaro!Occhiolino

    io ho letto dal barbiere di non abboccare a i troll
    non+autenticato
  • Quando ci presenti la prova di questo?Occhiolino
    non+autenticato
  • - Scritto da: malto
    > Quando ci presenti la prova di questo?Occhiolino

    Appena riescono a mettere insieme i soldi per l'energia elettrica per un paio di secondi di utilizzo.
    ruppolo
    32123