AMD svela una GPU per il supercomputing

Il chipmaker di Sunnyvale ha presentato un processore grafico basato sull'architettura delle GPU ereditate da ATI ma dedicato all'accelerazione delle applicazioni scientifiche. Sulla scia del Tesla di Nvidia

Sunnyvale (USA) - Seguendo le orme della rivale Nvidia, che lo scorso giugno è stata la prima a lanciare una GPU espressamente dedicata all'high performance computing, AMD ha svelato un processore, FireStream 9170, basato sulla stessa architettura di stream computing utilizzata nelle proprie GPU di ultima generazione.

Il chip è accompagnato dal relativo SDK (Software Development Kit), che permette agli sviluppatori di sfruttare la potenza degli stream processor per accelerare vari tipi di applicazione, in particolare quelle scientifiche e finanziarie. L'SDK include le API (Application Programming Interface) e le specifiche necessarie all'ottimizzazione delle performance e allo sviluppo di tool di terze parti.

FireStream 9170, come Tesla, può essere impiegato per la creazione di supercomputer a basso costo che, grazie all'elevato parallelismo e programmabilità delle GPU, possono eseguire certi calcoli a velocità anche centinaia di volte superiori a quelle di una tradizionale CPU. Le applicazioni che più traggono vantaggio dall'approccio GPGPU (General Purpose Graphics Processing Unit) sono quelle per l'elaborazione delle immagini medicali, analisi di modelli di rischio finanziari, ricerca petrolifera e simulazioni di varo genere.
AMD afferma che la sua è la prima stream GPU al mondo con unità in virgola mobile a doppia precisione, caratteristica particolarmente apprezzata nell'ambito dei calcoli scientifici e ingegneristici.

I 320 stream processor da 800 MHz di cui è composto FireStream 9170 sono in grado di fornire una potenza di calcolo nominale di mezzo teraFLOPS (500 GFLOPS), ossia quanto quello di un supercomputer entry-level. Il chip è costruito con una tecnologia di processo a 55 nm e consuma meno di 150 watt, il che lo rende adatto anche ai server con design ultradenso, come i blade. Il chip è integrato in una scheda comprensiva di 2 GB di memoria GDDR3, ed è in grado di sfruttare il DMA (Direct Memory Access) asincrono: ciò fa sì che i dati possano spostarsi fra lo stream processor e la CPU senza interrompere il lavoro di nessuna delle due unità.

Basandosi sull'interfaccia Close to the Metal (CTM) introdotta da AMD nel 2006, il Compute Abstraction Layer (CAL) incluso nell'SDK fornisce accesso a basso livello alla GPU per lo sviluppo e l'ottimizzazione delle prestazioni, garantendo compatibilità con le GPU future. Per lo sviluppo ad alto livello, AMD ha annunciato la disponibilità di Brook+, un tool basato sul progetto BrookGPU della Stanford University che fornisce estensioni C dedicate allo stream computing. AMD prevede inoltre di supportare il suo Core Math Library (ACML) per fornire funzioni matematiche GPU-accelerated, e le librerie COBRA per l'accelerazione della transcodifica video. Sono disponibili anche tool prodotti da terze parti come RapidMind e Microsoft.

FireStream 9170 sarà commercializzato nel primo trimestre del prossimo anno al prezzo di 2mila dollari.
28 Commenti alla Notizia AMD svela una GPU per il supercomputing
Ordina
  • AMD, non riuscendo a stare dietro a Intel, ha dovuto inventarsi qualcosa... Cosa?
    Ha comprato ATI, la GPU che stava dietro a NVidia.

    ATI, la scheda grafica che non riesce a migliorarsi da 2 anni!
    ATI, quella che NON voleva il shader 3.0.

    Mi dispiace per AMD, ma quando avrà trovato finalmente come migliorare la scheda grafica, NVidia prenderà fuori una delle schede sviluppate 1 anno fa e la potrà finalmente portare sul mercato... per rimanere il nr.1
    non+autenticato
  • - Scritto da: Pietro
    > AMD, non riuscendo a stare dietro a Intel, ha
    > dovuto inventarsi qualcosa...
    > Cosa?
    > Ha comprato ATI, la GPU che stava dietro a NVidia.
    >

    beh lo scopo principale di AMD era quello di poter fare quello che intel fa di solito: sviluppare un sistema con grafica integrata che sia anche performante. Perche' reinventarsi l'acqua calda quando si puo' acquistare un produttore gia' avanti nel mercato?
    non+autenticato
  • Veramente mi spiace per voi, ma semplicemente l'ha comprata perchè ati era in carenza di fondi, mentre amd è sempre andata benissimo a livello economico. L'aquisizione ha permesso ad ati di avere ancora più fondi e di realizzare un progetto di cui ancora si vede solo l'ombra in rete, che rivoluzionerà l'attuale concept di architettura interna a un pc (e non a un processore). Per questo amd non sta dietro a intel, sta utilizzando tutte le proprie risorse in quel progetto. Informarsi, prima di parlare.
    non+autenticato
  • ATI sta sviluppando da anni una nuova architettura ho sentito (dal 2000). Però se é così non lo so... So solo che la Nintendo sta aspettando da molto questo processore per la propria console.
  • Neppure. Si tratta di alcuni progetti completamente differenti. Prima di tutto, con Fusion verrà integrata una GPU all'interno della CPU, soprattutto per l'uso in sistemi portatili dal consumo ridotto.
    Poi c'è Torrenza in cui il discorso GPGPU è estremizzato: praticamente si useranno coprocessori su socket similmente a quello che si fa oggi con i processori. Evidentemente (e mi riferisco a chi ha iniziato il thread) qualcuno non è bene informato, ne ha interesse ad informarsi.
    non+autenticato
  • Forse le notizie ve le dà la zingara al semaforo. Perchè è stata la ATI lo scorso anno a commercializzare per prima una scheda dedicata al calcolo basata su chip grafico, seguita da Nvidia. Tra l'altro il sistema di programmazione CUDA di Nvidia è complicato da gestire e non è efficiente e flessibile come quello ATI.
    Sarà forse il caso di cambiare semaforo, o zingara...

    Fonte: beyond3d.com e http://novembertech.blogspot.com/2006/10/stanford-...
    non+autenticato
  • Ciao Truster, ho letto il link che proponi, ma non parla di processori GPGPU commerciali, solo di sperimentazioni. Hai altre fonti?
    Grazie, ciau

    - Scritto da: Truster
    > Forse le notizie ve le dà la zingara al semaforo.
    > Perchè è stata la ATI lo scorso anno a
    > commercializzare per prima una scheda dedicata
    > al calcolo basata su chip grafico, seguita da
    > Nvidia. Tra l'altro il sistema di programmazione
    > CUDA di Nvidia è complicato da gestire e non è
    > efficiente e flessibile come quello
    > ATI.
    > Sarà forse il caso di cambiare semaforo, o
    > zingara...
    >
    >
    > Fonte: beyond3d.com e
    > http://novembertech.blogspot.com/2006/10/stanford-
    non+autenticato
  • Inoltre l'articolo dice PRIMA A DOPPIA PRECISIONE, non prima in assoluto. Ah e altra nota ora come ora ATI=AMD
    non+autenticato
  • Quali potrebbero essere gli scopi di un supercomputer con una potenza di elaborazione grafica (se ho capito bene) così elevata?

    A parte far girare Aero su Vista in scioltezza, intendoA bocca aperta

    Pensavo che simili mostri li usassero solo per i calcoli.
    non+autenticato
  • - Scritto da: Comet
    > Quali potrebbero essere gli scopi di un
    > supercomputer con una potenza di elaborazione
    > grafica (se ho capito bene) così
    > elevata?
    >
    > A parte far girare Aero su Vista in scioltezza,
    > intendo
    >A bocca aperta
    >
    > Pensavo che simili mostri li usassero solo per i
    > calcoli.

    Sempre calcoli sono.
  • amico linuxaro, i giochi non sono magia...
    quando vedi gli omini che si muovono o i mostri che muoiono, dietro ci sono milioni (anche miliardi spesso) di calcoli fatti al secondo, cosa oggi possibile grazie alle gpu, e non sono calcoli esoterici, ma sono milioni di prodotti matrice*vettore, che permettono di trasformare un vertice e proiettarlo sullo schermo

    fondamentalmente le gpu sono unità vettoriali, ovvero permettono di fare più operazioni contemporaneamente su più dati, che poi con il risultato di queste operazioni ci disegni lara croft o ci fai la trasformata di fourier a 2000 dimensioni alla gpu poco importa

    prima ciò non era possibile perché le schede video non avevano una gpu, ma fornivano solo primitive tipo alpha blending, rasterizzazione (ovvero il disegno finale di un triangolo) e supporto alle texture, ma tutti i calcoli (ma proprio tutti) venivano fatti via software, dove nonostante la maggiore potenza di una cpu, si tratta comunque di una cpu general purpose, non ottimizzata per operazioni vettoriali

    il vantaggio delle gpu sta nel fatto che sono unità fortemente ottimizzate per il calcolo parallelo, ovviamente sopra non puoi farci girare un sistema operativo o simili, però puoi fargli fare calcoli mostruosi in pochissimi secondi (una volta hanno fatto un port di mysql per una gpu nvidia, la geforce 6800, la velocità rimaneva quasi costante all'aumentare delle query al secondo, roba che sistemi dual core morivano oltrepassato il milione, la versione con la gpu stava oltre 10 milioni) il problema è la precisione, infatti mentre su un superpc di solito per i calcoli si utilizza una tecnica chiamata bignum, che permette di ottenere risultati a precisione teoricamente infinita (in realtà no però ovvio), su una gpu sei limitato alla precisione disponibile, di solito 64bit e tra un po' 128 bit
    non+autenticato
  • Ottima argomentazione
    non+autenticato
  • Post interessante, grazie.
    non+autenticato
  • interessantissimo, potresti fornire qualche link per reperire quel tool per far girare mysql sulla scheda video?
    mi interessa davvero molto, grazie
  • era solo un proof-of-concept, non penso sia mai stato pubblicato niente, se è stato fatto lo trovi sicuramente su www.gpgpu.org
    non+autenticato
  • - Scritto da: ...
    > amico linuxaro, i giochi non sono magia...

    E io che ho detto?
  • scusa non era rivolto a te il post, ma a quello a cui hai risposto, la gestione di pi delle risposte è confusionaria
    non+autenticato
  • > infatti mentre su un superpc di
    > solito per i calcoli si utilizza una tecnica
    > chiamata bignum, che permette di ottenere
    > risultati a precisione teoricamente infinita (in
    > realtà no però ovvio),

    Molto raro. Di solito si usano i consueti numeri in floating point (32, 64, 80, 128 bit)

    > su una gpu sei limitato
    > alla precisione disponibile, di solito 64bit e
    > tra un po' 128 bit

    A dire il vero fino ad ora le GPU usavano numeri in floating point a 32 bit.
    Ora, con il nuovo modello di ATI, cominciano ad usare 64 bit.
    non+autenticato
  • non serve a fare grafica, serve come aiuto al processore per fare calcoli, un po come il coprocessore matematico dei 386.

    mi spiego meglio: hanno notato che le GPU sono dei processori velocissimi per certi tipi di calcolo scentifico ( vettoriale) perchè non sono general purpose come le cpu, ma sono cotruite per velocizzare le operazioni matematiche usate per la grafica 3d. Le stesse operazioni possono essere usate in molti campi della scienza e quindi è stato trovato il modo di far fare calcoli alla GPU che non verranno mandati al monitor! il risultato è poi riletto dalla CPU.
    in questo modo si fanno fare questi calcoli alla GPU che è velocissima.

    tornando al paragone col 386, le moltiplicazioni in virgola mobile le faceva il coprocessore matematico, nato espressamente per fare quei tipi di calcoli e quindi molto molto più veloce della CPU, poi la cpu usufruiva del risultato del calcolo.

    spero di non aver dato troppo di fuori e scusate qualche inprecisione