GeForce GTX 200, non più solo games

Nvidia ha introdotto l'ultima generazione di processori grafici GeForce, che grazie al supporto alla tecnologia CUDA possono essere utilizzati per accelerare anche le applicazioni non grafiche. GPGPU in versione consumer

Santa Clara (USA) - Nvidia ha lanciato la sua nuova famiglia di processori grafici GeForce GTX 200, che attualmente comprende i due modelli top di gamma 280 e 260. Sebbene si tratti di GPU dedicate agli appassionati di giochi, questi processori supportano la tecnologia GPGPU CUDA, che li rende adatti ad accelerare anche applicazioni non grafiche, quali quelle scientifiche, ingegneristiche e finanziarie.

Nvidia ci tiene a sottolineare come le GPU moderne non possano più essere associate esclusivamente ai videogame: seppure chip come i GeForce GTX 200 si indirizzino principalmente al mercato consumer, queste soluzioni hanno oggi un campo di applicazione ben più vasto rispetto al passato. E non si parla necessariamente di applicazioni "seriose": le GPU potranno presto essere utilizzate per accelerare anche le applicazioni più comuni, come quelle multimediali.

Ad esempio, Nvidia afferma che le sue nuove GPU possano velocizzare il processo di conversione di un film per iPod di quasi dieci volte, portandolo da 5 ore a 35 minuti. Nello stesso tempo, gli utenti possono condividere l'enorme potenza di calcolo fornita da queste unità per aiutare progetti come Folding@Home, in cui si cercano cure per malattie come l'Alzheimer o il Parkinson.
"Molte applicazioni ordinarie trarranno profitto dalla potenza grafica fornita dalla GPU, incluse la codifica e la riproduzione dei video in alta definizione, l'editing fotografico o semplicemente l'interfaccia grafica di Windows Vista", ha spiegato Nvidia. Tra le prime applicazioni consumer capaci di sfruttare l'ultima generazione di GeForce vi sarà BadaBOOM Media Converter, un convertitore video il cui rilascio è previsto per agosto. Secondo Elemental Software, la società che sviluppa questo tool, le GPU potranno velocizzare le conversioni fino a 18 volte rispetto all'utilizzo di una singola CPU mainstream.

Nvidia afferma che le applicazioni di calcolo distribuito come Folding@home possono trarre vantaggi ancor più consistenti dall'uso delle sue GPU di ultima generazione.

"Le GPU GeForce ci forniranno la più grande spinta in termini di potenza di calcolo che abbiamo mai avuto in Folding@Home", ha affermato Vijay Pande, professore associato di chimica alla Stanford University. "La GTX 280 permette di far funzionare Folding@Home 45 volte più velocemente rispetto ad una CPU Core 2 Quad di ultima generazione. Se solo l'uno per cento di tutte le schede video GeForce 8 e 9 presenti al mondo utilizzassero Folding@Home, avremmo a disposizione 70 petaFLOPS di potenza di calcolo per riuscire a trovare le cure che stiamo cercando. Questo valore equivale a dieci volte la potenza di calcolo dei 100 supercomputer più potenti al mondo messi assieme".

Ai videogamer interesserà maggiormente sapere che la nuova GeForce GTX 280 può fornire, secondo Nvidia, circa il 50% in più di performance rispetto al precedente modello top di gamma, il GeForce 8800 Ultra. Ciò è soprattutto merito del maggior numero di stream processing unit (SPU) - che nel modello 280 arrivano a 240 - e del più ampio bus con la memoria, di 512 bit nella 280 e di 448 bit nella 260. In confronto, la GeForce 8800 Ultra è dotata di 128 SPU e un bus con la memoria da 384 bit.

Le GTX 200 includono inoltre la tecnologia di accelerazione video PureVideo di seconda generazione, il sistema di risparmio energetico HybridPower, il supporto alla tecnologia PhysX per l'accelerazione della fisica e la compatibilità con le librerie DirectX 10 e OpenGL 2.1. Le specifiche tecniche integrali si trovano qui per la GTX 280 e qui per la GTX 260.

Il motore di effetti fisici PhysX, che Nvidia ha ereditato con la recente acquisizione di Ageia, è oggi utilizzato in 140 giochi, ma una parte di questi girano esclusivamente su console.

Le schede grafiche basate sul GeForce GTX 280 sono disponibili da ieri ad un prezzo su strada compreso tra 540 e 585 euro. Le soluzioni basate sul GTX 260 arriveranno nei negozi il 26 giugno ad un prezzo intorno ai 350 euro.

(fonte seconda immagine)
21 Commenti alla Notizia GeForce GTX 200, non più solo games
Ordina
  • bah secondo me le vendite di queste super schede sono calate tanto


    anche perche i dati di vendita dei giochi su consolle son molto piu alti rispetto al mercato pc perche ovviamente c''e meno pirateria
    non+autenticato
  • continuo a non comprendere perchè la gente spende migliaia di euro per giocare con il pc quando con poche centinaia hanno le consolle dedicate e molto + performanti e che magari leggono anche i bluray: certo che la gente è strana!
    non+autenticato
  • Meglio aspettare e comparare per bene le nuove ATI con le Geffo... in realta' pare proprio che siano piu' performanti.
    Oltretutto se non giochi a risoluzioni piuttosto alte (tipo full HD) la potenza pura prevale sulle altre considerazioni e pare proprio che la ATI sia sensibilmente piu' potente.
    Anche per i calcoli distribuiti tramite prodotti che utilizzano le VPU la potenza bruta prevale.
    Quindi...meglio aspettareSorride

    PS:in rete c'e' gente che considera questa scheda niente piu' che un vecchiume pompato,nulla di nuovo insomma.
    non+autenticato
  • No, le nuovi ATI (HD4850-HD4850) non saranno superiori. Ati ha abbondonato la strategia di proporre chip enormi e che consumano tantissimo. Preferisce lanciare schede da 200€ con ottime prestazioni (sul livello di una 8800Ultra) che consumano poco (110W), piccole e sopratutto con un chip microscopico (la metà di quello di Nvidia). Per competere con il super-chip di Nvidia, userà 2 chip affiancati in una unica scheda e dovrebbero superare GTX280 di un buon 30% e probabilmente anche oltre. Giusto per farvi capire quanto sia buona per ATi stessa la sua scelta vi dico quali sono i costi produttivi dei 2 chip. GT200 costa ad Nvidia oltre 120$. RV770 (il chip delle nuove Ati), circa 30$, se non meno.
    non+autenticato
  • http://www.gpureview.com/show_cards.php?card1=564&...

    Qui potte comparare le schede in base alle loro specifiche.
    La cosa bella e' che la GTX280 e' inferiore come GFLOPS alla ATI...
    Quindi non mi pareche siano tanto inferiori queste ATISorride
    non+autenticato
  • > Quindi non mi pareche siano tanto inferiori
    > queste ATI
    >Sorride

    c'e' una cosa che la gente sottovaluta sempre a proposito delle ati, che, nonostante le promesse si rinnovino, non funzionano bene con Linux. Non so in questo ultimo mese se ci sono stati progressi.
    io compro solo nvidia da anni, da quando ho avuto la prima fregatura da ati, cioe' sul sito ufficiale della ati c'erano i driver tarocchi per Linux, dimostrazione di estrema presa per il qulo.
    io assemblo computer, per me e per gli amici, una decina all'anno, roba da poco, piu' i consigli che si danno ai conoscenti e agli amici degli amici. Il consiglio piu' frequente, Non Comprare ATI, NVIDIA e' meglio e se non ti serve la scheda video usa intel.
    non+autenticato
  • Ma sei pazzo, ATI sviluppa molto bene i driver per linux, e ne ha aperto le specifiche. Io ho una ATI x600 con 256MB di memoria, insomma, abbastanza un ferrovecchio in confronto alla serie HD, eppure gioco a diversi giochi a 1280*1024 con ottime performance...
    non+autenticato
  • ma che dici?
    ATI fa cagare sullo sviluppo driver per linux, vedi varie petizioni.
    Ati è un azienda che ogni anno sene esce con nuove promesse che sono solo manovre commerciali e sono ormai 5-6 anni che la storia si ripete. Quest'anno mi sono rotto veramente il ca..o di ATI e l'ho sfanculata. Ora vivo felice con una NVidia gt8800 e non credo avrò mai piu problemi di driver.
  • La ATI ha reso totalmente pubbliche le specifiche delle loro CPU. I driver radeon e radeonHD sono, soprattutto gli ultimo, leggermente immaturi ma è solo questione di tempo.
    Sinceramente se compro un prodotto hardware lo faccio in base a ciò che mi serve.

    Tralaltro non mi pare che tu consigli bene ed in maniera molto disinteressata. Se i tuoi amici/parenti usano Windows non vedo perchè non dovrebbero prendere soluzioni AMD/ATI. Con Intel/nVidia spendono il DOPPIO!

    P.S. Io ho piattaforma Spider e mi va benissimo anche su Linux.
    non+autenticato
  • La potenza di calcolo presa da sola non significa molto. Nel resto delle specifiche la serie GTX200 è superiore. Come prestazioni la HD4870 dovrebbe essere comunque vicina (-15%) alla topgamma di Nvidia, cosa ha quasi dell'assurdo: ATI ha un chip di 16x16 mmm, con TDP in questa incarnazione di 157W, e ha circa 950 milioni di transistor. Nvidia ha invece un chip 24x24 mm, con 236W di TDP e 1,4 miliardi di transistor. E' una vittoria ingegneristica incredibile per ATI/AMD, cosa che nessuno credeva possibile solo qualche mese fa.
    non+autenticato
  • Di un po', non hai mai saputo niente delle Radeon 9x00?
    La vetta di AMD non è stata raggiunta, almeno nel confronto con il principale concorrente.
    Casomai dovresti vedere i test in giro, sembra che la 4850 tiri come una GF 9800 gtx, solo che consuma meno e non ha le memorie e le frequenze della 4870.
    Si vedrà.
  • Mi sembrava che ci fossero ditte che l'usassero anche per il password cracking:
    http://www.elcomsoft.com/edpr.html
    non+autenticato
  • qualcuno sa se questa potenza di calcolo potrà essere utilizzata dai software di render? nelle notizie hanno sempre parlato di tutto tranne che di questi SW.
    non+autenticato
  • ... che sarebbero il target principale
    il problema e' che il render viene fatto dalla cpu e non dalla gpu, a meno che gli sviluppatori non decidano di sfruttare il processore grafico in maniera diversa.

    Di sicuro queste schede video, in viewport possono fare la differenza, anche se penso che presto ne vedremo in versione "Quadro", anche CUDA può essere sfruttato in viewport, avendo alla fine qualcosa che si avvicina molto ad un render, ma temo che 3DStudio e Maja impiegheranno almeno un paio d'anni per integrare e sfruttare al meglio tutte queste cosine.
  • speriamo che si diano una mossa Triste

    sarebbe un bel boost per Maxwell, V-Ray e compagnia bella...
    non+autenticato
CONTINUA A LEGGERE I COMMENTI
Successiva
(pagina 1/2 - 7 discussioni)