Nvidia apre la potenza delle sue GPU

L'azienda ha rilasciato al pubblico gli strumenti necessari per sviluppare applicazioni in grado di trarre beneficio dalla potenza di calcolo di centinaia di processori grafici G80. Si apre l'era dello stream computing

Sunnyvale (USA) - Serrando i ritmi di quella corsa tecnologica che la vede rivaleggiare con ATI, Nvidia ha distribuito la prima beta pubblica di un software developer kit (SDK) che permette ai programmatori di sfruttare i processori grafici della serie GeForce 8800 per accelerare una vasta gamma di applicazioni di calcolo tecnico, scientifico e finanziario.

"La GPU è ora un potente processore programmabile particolarmente adatto per applicazioni di calcolo intensivo come quelle utilizzate nell'ambito della ricerca petrolifera, della biologia e dell'analisi finanziaria", ha affermato Andy Keane, general manager of GPU Computing di Nvidia. "Con la recente introduzione della tecnologia CUDA, la potenza del calcolo parallelo delle GPU è ora virtualmente accessibile ad ogni sviluppatore tramite il linguaggio di programmazione C".

CUDA è una piattaforma per lo stream computing che permette di aggregare la potenza di calcolo di decine o persino centinaia di schede grafiche e utilizzarla, in ausilio alle tradizionali CPU, per velocizzare certi calcoli.
ATI ha già sperimentato lo stream computing per accelerare alcune ricerche in campo medico condotte presso la Stanford University: secondo l'azienda, le GPU delle proprie schede grafiche di ultima generazione hanno permesso di velocizzare i calcoli fino a 40 volte.

Oltre alle GPU G80 delle GeForce 8800, CUDA supporterà anche le future schede grafiche professionali della linea Quadro.

La prima beta pubblica del CUDA SDK, con numero di versione 0.8, può essere scaricata da questa pagina per le versioni a 32 bit di Linux e Windows XP.

Nvidia ha anche rilasciato quella che definisce la prima demo interattiva di un'applicazione basata sulle DirectX 10: scaricabile da qui, il programma richiede una scheda GeForce 8800 e Windows Vista con i driver ForceWare 100.64.
9 Commenti alla Notizia Nvidia apre la potenza delle sue GPU
Ordina
  • Ciao!
    Questa è una ottima notizia per chi fa ricerca e simulazioni che durano mesi/anni!
    Unire una cpu "general purpose" ed una cpu "dedicata" permette di accellerare notevolmente i calcoli mantenendo un sistema operativo classico come può essere windows/linux/mac e senza bisogno di compilare tutto da zero per una nuova architettura Risc.
    Speriamo solo che questa tecnologia venga inserita al più presto da software house che fanno programmi per simulazioni e calcolo.
    non+autenticato
  • Lo ho scritto io..mi son dimenticato di mettere user e password Con la lingua fuori

  • - Scritto da: Claudius
    > Lo ho scritto io..mi son dimenticato di mettere
    > user e password
    >Con la lingua fuori

    Aggiornati ...

    Parlare di CISC e RISC Non ha più senso .....

    da wikipedia

    "Il termine CISC e RISC con il passare degli anni è diventato meno importante per comprendere l'architettura interna dei processori moderni. Il primo processore CISC dotato di pipeline è stato Intel 80486 che implementava le istruzioni più comuni in modo nativo mentre le istruzioni meno utilizzate venivano tradotte in istruzioni più semplici. Le istruzioni più semplici invece erano implementate con un'architettura tipologia RISC. I processori moderni basati su architetture x86 traducono le istruzioni CISC in micro operazioni che poi elaborano come fossero processori RISC."

    se mai ...
    il confronto dovrebbe essere tra processori dedicati all'elaborazione di uno specifico tipo di segnale DSP e un processore Generico programmabile molto veloce nel calcolo in virgola mobile
    il secondo è più flessibile ed economico perchè costruito in larga scala ...
    il primo (DSP) sarà sempre più efficente
    perchè implementa in hardware certe funzioni specifiche

    non+autenticato
  • Ma perche' non dedicano piu' risorse a fixare i bug dei driver ?
    Ho una 8800 GTX e su Windows XP e' tutto un buco...
    il pannello di controllo si inchioda, non mi applica le modifiche ai colori, ogni tanto sballa tutto lo spazio colore e chi piu' ne ha piu' ne metta.

    Non parliamo poi del supporto di vista su cui mancano funzioni di base (ad esempio non e' possibile modificare le impostazioni per il VMR e l'overlay neppure funziona) !

    Possono dedicare piu' risorse ai driver ?

    Sono veramente deluso, dopo aver speso 600 euro per una scheda... Mai piu' ! tornero' ad ATI sicuramente !
    non+autenticato
  • aò! io voglio degli encoder divx, xvid, real media e x264 fatti per sfruttare il g80... sai che mi frega di quei tre.. non penso che in un pc per una banca, di uno studio o di una università vengano messe le geforce 8800, ma proprio per niente.. un conto è comprarle per giocare e usarle anche per altri impieghi gravosi ma comunque casalinghi.. un altro farsi un pc normale per poi abbinarci una schedona..a che pro? a sto punto mi prendo già delle architetture scalabili
    non+autenticato
  • Ma che dici?
    Non ti è chiaro forse che genere di potenza di calcolo puoi avere in un pc comprando solo due 8800?
    Non ti è chiaro il risparmio?
    Non ti è chiaro che tantissimi laboratori di ricerca non finanziati dalle multinazionali potrebbero beneficiarne in modo incredibile?
    non+autenticato

  • - Scritto da:
    > Ma che dici?
    > Non ti è chiaro forse che genere di potenza di
    > calcolo puoi avere in un pc comprando solo due
    > 8800?
    > Non ti è chiaro il risparmio?
    > Non ti è chiaro che tantissimi laboratori di
    > ricerca non finanziati dalle multinazionali
    > potrebbero beneficiarne in modo
    > incredibile?

    Sì, vabbè. Ma per favore !
    non+autenticato
  • 1 PC + 2 8800 in SLI = potenza di calcolo di 5 PC (se non più) al costo di 2

    P.S. qualcuno ha detto decoder h264 1080p in hardware per Linux? o Gimp/Inkscape/rendering POV accelerati al 500% di come sono adesso?Ficoso
    non+autenticato
  • - Scritto da:
    > 1 PC + 2 8800 in SLI = potenza di calcolo di 5 PC
    > (se non più) al costo di
    > 2
    >
    > P.S. qualcuno ha detto decoder h264 1080p in
    > hardware per Linux? o Gimp/Inkscape/rendering POV
    > accelerati al 500% di come sono adesso?
    >Ficoso

    rettifico e quoto il manuale scaricabile dal sito:

    8800 GTX = 350 gigaflops
    Core2 Duo 3.0GHz = 60 gigaflops

    2 8800 GTX in SLI = 11 PC tradizionali al prezzo di 2 e mezzo, per qualsiasi calcolo in virgola mobile
    non+autenticato