Alessandro Del Rosso

PhysX su ATI? Forse sì, dice Nvidia

Un manager ha ammesso la possibilità che, in futuro, PhysX venga portato su OpenCL. L'intenzione sembra concreta, ma secondo Nvidia le GPU ATI potrebbe rivelarsi non all'altezza

Roma - Quando nel febbraio del 2008 acquisì il motore per i calcoli fisici PhysX, Nvidia lo legò a doppio filo con le sue GPU: di conseguenza, chi oggi desidera avvalersi di PhysX deve necessariamente utilizzare l'ambiente di sviluppo proprietario CUDA. Questa scelta ha generato molti attriti tra Nvidia e AMD, e sta causando non pochi imbarazzi agli sviluppatori di videogiochi. In futuro questa situazione potrebbe però cambiare, e ad accendere un barlume di speranza è la stessa Nvidia.

Nvidia PhysXInterrogato da bit-tech.net sull'ipotesi che PhysX possa sposare lo standard aperto OpenCL, diventando così compatibile con le GPU di AMD, il direttore del product management di PhysX, Nadeem Mohammad, si è mostrato possibilista. Ma, come a dire "non fatevi ancora troppe illusioni", il manager di Nvidia ha poi aggiunto che "per il momento CUDA funziona benissimo".

OpenCL è un framework aperto attorno al quale si sono raccolte aziende come Apple (la sviluppatrice originaria), AMD, IBM, Intel e la stessa Nvidia. Dal momento che OpenCL è una specifica ben supportata dalle GPU di AMD, un port dell'API PhysX per tale standard aprirebbe la strada all'uso del motore fisico di Nvidia sulle schede grafiche marchiate ATI. Se ciò avvenisse, AMD potrebbe colmare quella che oggi è considerata la più grande lacuna della sua piattaforma grafica, mentre gli sviluppatori di giochi potrebbero avvalersi del motore PhysX a cuore leggero, senza più preoccuparsi dell'"altra metà del mondo" che non supporta tale tecnologia.
Mohammad avverte però che il matrimonio tra PhysX e OpenCL potrebbe non essere la panacea sperata da molti. "Se iniziassimo a usare OpenCL c'è la possibilità che PhysX funzioni con le GPU ATI, ma non ho idea di quali performance si potrebbero ottenere. Se si guarda alle esperienze precedenti, come ad esempio Folding@home, le performance fornite dalle GPU ATI sembrano inferiori a quelle di Nvidia. Questo probabilmente riflette il fatto che le GPU ATI sono un paio di generazioni dietro alle nostre".

L'ultima dichiarazione di Mohammad appare fin troppo partigiana, ma le perplessità espresse dal manager di Nvidia potrebbero essere fondate: oggi l'API PhysX è tagliata su misura per i processori grafici GeForce, e potrebbe non calzare addosso alle GPU ATI Radeon. Ciò non toglie, tuttavia, che eventuali problemi di performance si risolverebbero probabilmente con il maturare del port di PhysX per OpenCL e con l'evolversi dell'hardware grafico di AMD. "Tu apri PhysX, al resto ci pensiamo noi" risponderebbe probabilmente AMD ai dubbi ventilati da Mohammad.

Nvidia PhysXBit-tech.net ricorda come in passato Nvidia abbia pubblicamente proposto alla sua diretta rivale di collaborare allo sviluppo di una versione di PhysX su CUDA compatibile con le GPU ATI. AMD non ha mai accettato l'offerta, e il motivo non è difficile da immaginare: una versione di PhysX capace di supportare le GPU ATI, ma nello stesso tempo ancora vincolata alla piattaforma proprietaria di Nvidia, farebbe di CUDA uno standard.

AMD ha preferito scegliere una strada più bellicosa, che consiste nel realizzare un middleware aperto capace di rivaleggiare con PhysX. A questo middleware l'azienda di Sunnyvale ha aggiunto proprio negli scorsi mesi il framework Pixelux Digital Molecular Matter (DMM), che consente agli sviluppatori di integrare la simulazione fisica nei giochi sfruttando le API OpenCL e DirectCompute.

Alessandro Del Rosso
Notizie collegate
25 Commenti alla Notizia PhysX su ATI? Forse sì, dice Nvidia
Ordina
  • Alla Nvidia soffrono di memoria corta, dimenticano che AMD ha la partnership con il team del motore fisico Havok (ora di Intel).
    Havok "fino a ieri" era interamente basato su CPU e con risultati sorprendenti, oggi si sta integrando anche con le GPU per risultati ancora migliori. Nessuno ha bisogno di PhysX, tranne chi lo promuove.
    non+autenticato
  • Havock è famoso per i suoi spettacolari bugA bocca aperta Comunque PhysX è molto usato...
    Sgabbio
    26177
  • Davvero H A V O K ha dei bug? Anche tu, vedo.
    PhysX sarà usato, certo, ma Havok lo è assai di più. Havok è indipendente dal produttore del chip video, diversamente da PhysX, non trovi sia un vantaggio per chi compra i giochi? Per questo i giochi con Havok sono assai più numerosi di quelli con PhysX.
    A me PhysX non dispiace, non sopporto l'uso che vorrebbe farne (e fa) Nvidia sopratutto quando m'impedisce di usarlo se ho oltre alla Nvidia anche una ATI o AMD che dir si voglia.
    non+autenticato
  • Havock è noto per i bug spettacolari su alcuni giochi, ad esembio in oblivion vedevi in certe circostanze, gli oggetti che si animavano e impazzivanoA bocca aperta
    Sgabbio
    26177
  • - Scritto da: Sgabbio
    > Havock è noto per i bug spettacolari su alcuni
    > giochi, ad esembio in oblivion vedevi in certe
    > circostanze, gli oggetti che si animavano e
    > impazzivano
    >A bocca aperta

    Si ok ma oblivion non è che sia proprio uscito ieri come gioco per cui ci sta che nel frattempo le cose siano migliorate non trovi ?
    mura
    1743
  • Avranno corretto un po' di bug, non trovi?
  • Si spera... Havok è del 2000 e magari appena uscito qualche pecca ci stava, Oblivion (2006) soffriva degli stessi bug di Robot Arena 2 che è del 2003, 3 anni con sempre gli stessi bug mi pare giusto un po' tantino...

    E qualche bugghetto si fa sentire anche in Starcraft 2, ma già molto meno (quando le unità si scontrano e si spintonano), forse perchè non se ne fa un uso veramente massiccio.
    Wolf01
    3342
  • La verità è che non c'è ancora uno standard affermato come motore per la fisica.
    E' vero che Nvidia fa una notevole pressione sugli sviluppatori per l'uso di Phisyx ma il fatto che i giochi oggi siano sviluppati per console e poi (forse) portati su PC ha fatto si che ognuno sviluppasse motori propri, per lo più basati su CPU.
  • che PhysX possa integrarsi con Bullet e che possa essere Open... Se tutto finirà nelle OpenCL tanto meglio, più gli sviluppatori sono svincolati dalle piattaforme meglio è.
    non+autenticato
  • Questo probabilmente riflette il fatto che le GPU ATI sono un paio di generazioni dietro alle nostre


    Questa probabilmente è la cosa più ridicola che ho letto oggiA bocca aperta
  • Io ho fatto fatica a trattenermi dalle risate..
    non+autenticato
  • - Scritto da: nome e cognome
    > Io ho fatto fatica a trattenermi dalle risate..

    Forse con 2 generazioni indietro intendeva che sono giovani e scattanti Rotola dal ridere
    krane
    22544
  • gli devo dare atto che i driver li fa bene la nvidia
  • - Scritto da: lordream
    > gli devo dare atto che i driver li fa bene la
    > nvidia

    Quali, quelli che si "dimenticano" di far partire la ventola e bruciano la GPU?
    O quelli per notebook che su Vista/7 hanno problemi di refresh e flickerano costringendoti (su 7) ad usare vecchi driver moddati?

    Ultimamente anche nVidia non mostra più la stessa qualità nei driver.
    Ati invece sembra essersi rimboccata le maniche, ed ha migliorato notevolmente il supporto.
  • La mia esperienza dice esattamente il contrario...
  • Effettivamente le dichiarazioni di nVidia ultimamente sono da cabaret.
    Immagino siano ancora intossicati dal fumo delle saldature malriuscite di quel sample di fermi fasullo.

    A me risulta che siano le nVidia ad avere 6 mesi di ritardo.
    Ottime schede come potenza bruta, se solo non scaldassero come un reattore nucleare e non richiedessero altrettanta enrgia elettrica...

    Ati ha scelto un'altra strada, un progetto più semplice, più economico e più gestibile con risultati ottimi.
  • Beh, dal punto di vista delle funzionalita' ha ragione.
    Le schede nvidia supportano il GPGPU dalla serie 8, cioe' da 3-4 anni ormai. E' difficile aggiungere funzionalita' ad una scheda del genere, perche' una scheda che fa girare CUDA/OpenCL puo' fare qualsiasi cosa.
    Le schede ATI hanno raggiunto quel livello di programmabilita' solo di recente, dato OpenCL ha cominciato a girare su schede ATI da fine 2009, con un implementazione dei driver e kit di sviluppo tirate per i capelli.

    Poi le prestazioni su qualche giochino del cavolo sono un'altra cosa, ma non mi fiderei ad investire su ATI se dovessi metter su un cluster di GPU su cui fare calcolo.
    non+autenticato
  • Dimentichi le prestazioni per watt di consumo
    Dimentichi le prestazioni su prezzo
    Dimentichi le temperature 15° inferiori al limite di giunzione con Tamb=25°
    Dimentichi la dimensione mastodontica del core che comporta bassi yeld e difficoltà a scendere di prezzo nel tempo
    Dimentichi che pur raggiungendo le temperature di cui prima, il dissipatore a full load raggiunge un rumore superiore a un crossfire delle schede competitor.

    Ma per il resto ottime schedeA bocca aperta
  • Dimentichi il fatto che le prestazioni delle schede ATI in ambito GPGPU SERIO negli ultimi due anni sono state..ehm.....zero.
    Difficile apprezzare le migliori performace per watt/prezzo su applicazioni che..beh, non possono proprio girare.

    Perche' credi che i core nvidia abbia cosi' tanti transistor in piu' ???
    Il ferro necessario a far funzionare i circuiti di un processore general purpose (con supporto per debugging) e' superiore a quello di un'architettura piu' "leggera" come quella ATI.

    Per i giochi hai ragione.
    non+autenticato
  • Scusa, ma ti sbagli. Il GPGPU ATI è, al pari di quello nvidia, ben rappresentato in ambito supercomputer, e uno basato su HD4870 (quindi schede "consumer", per giochi) è al 5° posto nella top500.

    Sono d'accordo che manchino programmi GPGPU compatibili con le OpenCL o con Stream, e quindi con ATI, nell'ambito workstation e consumer. Ma questo non ha proprio nulla a che fare con l'hardware: deriva semplicemente dal fatto che Nvidia ha ben sviluppato e ben commercializzato (soprattutto quest'ultima) il suo framework proprietario (stiamo quindi parlando di software).

    Che l'uso di una GPU per grafica o per GPGPU sia differente dal punto di vista hardware è una assurdità bella e buona. L'impiego degli stream processors (o cuda cores, se preferisci chiamarli così) e della RAM è perfettamente identico, alla GPU non cambia nulla di nulla, e dovrebbe essere chiaro se pensi a cosa significhi l'acronimo GPGPU. Probabilmente dovresti documentarti meglio.

    Infine, che diavolo c'entra il ferro con una scheda video? E con il debugging sopratutto? Scusa la franchezza, ma a me pare tanto che tu non abbia ben chiaro di cosa stai parlando.