AMD svela la potenza del futuro Radeon

L'acerrima rivale di Intel ha dato una dimostrazione pubblica della potenza delle sue GPU di nuova generazione e della propria piattaforma di stream computing, capace di raggiungere performance di classe TeraFLOPS

San Francisco (USA) - Se Intel ha spremuto un TeraFLOPS di potenza da un singolo processore dotato di 80 core, AMD ha risposto all'avversaria mostrando un computer capace di raggiungere la stessa performance con due processori grafici di nuova generazione.

Il sistemone, chiamato Teraflops in a Box, rappresenta una delle prime dimostrazioni pubbliche di R600, nome in codice della prima GPU di ATI ad abbracciare il paradigma dello stream computing: questo nuovo modello di computing, che permette di utilizzare le GPU per accelerare certe categorie di applicazioni, è stato sperimentato lo scorso anno da ATI insieme alla Stanford University e si trova alla base della piattaforma commerciale CUDA della rivale Nvidia.

Come i processori GeForce serie 8 di Nvidia, anche R600 supporta la tecnologia DirectX 10 di Windows Vista e si basa su un'architettura granulare a shader unificati ottimizzata per eseguire moltissime operazioni in virgola mobile in parallelo. AMD non ha ancora rivelato i dettagli della sua architettura, limitandosi a dire che i due prototipi di R600 sono composti da 320 unità "multiply-add" e che le schede grafiche su cui sono montati consumano 200 watt ciascuna.
Il sistema Teraflops in a Box mostrato a San Francisco era composto da una CPU Opteron dual-core e da due stream processor R600, mentre il sistema operativo che vi girava era una versione standard di Windows XP Professional. Grazie ad una piattaforma che AMD chiama Accelerated Computing, il chipmaker di Sunnyvale afferma che sistemi come Teraflops in a Box possono essere utilizzati per aggregare la potenza di CPU e co-processori specializzati (come R600) al fine di accelerare (fino a 20 volte, secondo alcune stime) un'ampia gamma di applicazioni scientifiche e commerciali: tra queste quelle utilizzate nel settore energetico, finanziario, geologico, medicale e della sicurezza.

Proprio di recente AMD ha annunciato che il lancio commerciale di R600 subirà un ritardo di qualche settimana, giustificando la decisione con la volontà di attendere che sul mercato arrivino i primi giochi e le prime applicazioni capaci di sfruttare le librerie DirectX 10.

Durante la conferenza stampa di San Francisco AMD è poi tornata a parlare di Barcelona, nome in codice della prima famiglia di Opteron quad-core pianificata per la seconda metà dell'anno. Il produttore ha ribadito che nei calcoli in virgola mobile Barcelona fornirà performance fino al 42% superiori rispetto all'attuale generazione di Xeon quad-core. Per quanto riguarda le prestazioni fornite nel campo dei numeri interi, particolarmente importanti per i server web e di database, il vantaggio dovrebbe però essere assai più contenuto: qualcuno suggerisce non superiore al 10%.

Intel è però già pronta a replicare alla propria avversaria con un aggiornamento delle sue CPU quad-core. Entro l'autunno il chipmaper di Santa Clara prevede di elevare la frequenza di clock dello Xeon 5300 portandola dagli attuali 2,66 GHz a 3 GHz. Nella seconda parte dell'anno introdurrà anche un nuovo chipset, oggi noto come Seaburg, che spingerà la frequenza del front-side bus da 1.333 MHz a 1.600 MHz. Altre informazioni sulla roadmap di Intel relativa a Xeon vengono fornite in questo articolo di crn.com.
42 Commenti alla Notizia AMD svela la potenza del futuro Radeon
Ordina
  • .....gli utenti non microsoft si appellano al buon senso.
    non+autenticato
  • la mia povera Ati 9700 è morta dopo aver installato i nuovi driver
    grazie Ati
    non+autenticato
  • probabilmente sarà questa la mossa per far concorrenza alla Intel, una piccola piastra sul case e i relativi driver così potremo cenare comodamente davanti al pc. Ma sono scemi?!?! iniziassero a studiare un metodo per levare un po di Watt, tempo fa il pc lo tenevi sempre acceso e consumava meno di una lampadina, fra un po lasciare il pc acceso ti costa quanto le telefonate a consumo, non ci resta che attendere una flat per la bolletta della luce. Saluti.
    non+autenticato
  • Non so quanta energia consumino le soluzioni concorrenti per esprimere altrettanta potenza di calcolo. Che razza di discorso sarebbe il tuo?
    non+autenticato
  • E' il discorso di chi parla senza conoscere l'argomento. Di chi crede che un alimentatore da 1000 W consumi sempre 1000 W, magari anche da spento. Di che crede che una scheda dedicata ad una nicchia di mercato che necessita di potenza di calcolo in ambiti specifici sia lo standard su tutti i PC di casa. Di chi crede che sia facile realizzare circuiti capaci di elevate velocità di calcolo e bassi consumi, magari a basso costo e anche di piccolo ingombro. Di chi non sa che schede come queste racchiudono quella che 10 anni fa era la potenza di calcolo sviluppata da scatoloni di svariati metri cubi e dal consumo di svariati kW. E di chi dà la colpa al governo se un piccione gli ha sporcato l'auto.
    Chiamasi "boccalarga", ha tanto tempo da perdere e lo passa s-parlando di cose di cui non sa assolutamente nulla.
    non+autenticato
  • Non so Voi ma ritengo molto più vicina alla commercializzazione la soluzione di AMD, piuttosto che quella di Intel da 80 core.
    Per quanto riguarda i consumi una geoforce di punta ne consuma di watt già 150, quindi 200 watt non è che siano tanti in più, specie pensando ad un sistema di prova.
    Sarà molto più facile a livello software aggiungere il supporto ad un paio di processori grafici, piuttosto che impiegare un multitread spinto a 80 processori

  • - Scritto da: Enjoy with Us
    > Non so Voi ma ritengo molto più vicina alla
    > commercializzazione la soluzione di AMD,
    > piuttosto che quella di Intel da 80
    > core.
    > Per quanto riguarda i consumi una geoforce di
    > punta ne consuma di watt già 150, quindi 200 watt
    > non è che siano tanti in più, specie pensando ad
    > un sistema di
    > prova.
    > Sarà molto più facile a livello software
    > aggiungere il supporto ad un paio di processori
    > grafici, piuttosto che impiegare un multitread
    > spinto a 80
    > processori

    200 Watt per ogni GPU, quindi in totale sono 400W per ottenere quelle prestazioni....

    resta il problema che nell'ambito dei PC sono pochi gli algoritmi che possono essere accelerati in quel modo, anche se grafica, interfacce 3D e decodifica/codifica dei formati audio/video possono essere accelerati
    non+autenticato
  • il sistema di intel a 80 core è una cosa totalmente diversa, e apparte il fatto che quel processore a 80 core consuma meno del mio centrino, e gia questo dovrebbe far riflettere sulle sue potenzialità, ma anche la sua architettura è totalmente diversa da quella di amd o dei processori che usiamo oggi comunemente, si tratta di 80 core basati sull'itanium (non so se la versione 3 o altre versioni) e sulla loro nuova microarchitettura che permette di fare cose impressionanti, cioè quel processore internamente ha 80 core, ma potrebbe esporre verso l'esterno 4 processori che implementano 4 instruction set diversi, non so se ti rendi conto delle potenzialità di una simile architettura...
    significa che sullo stesso chip puoi mettere un x86, un g5, un ultrasparc o quello che vuoi, puoi metterci un processore grafico, un processore fisico, ecc...
    cioè non si tratta solo di un pezzo di silicio con dentro 80 core, ma è un tipo di architettura totalmente diversa
    non+autenticato

  • - Scritto da:
    > il sistema di intel a 80 core è una cosa
    > totalmente diversa, e apparte il fatto che quel
    > processore a 80 core consuma meno del mio
    > centrino, e gia questo dovrebbe far riflettere
    > sulle sue potenzialità, ma anche la sua
    > architettura è totalmente diversa da quella di
    > amd o dei processori che usiamo oggi comunemente,
    > si tratta di 80 core basati sull'itanium (non so
    > se la versione 3 o altre versioni) e sulla loro
    > nuova microarchitettura che permette di fare cose
    > impressionanti, cioè quel processore internamente
    > ha 80 core, ma potrebbe esporre verso l'esterno 4
    > processori che implementano 4 instruction set
    > diversi, non so se ti rendi conto delle
    > potenzialità di una simile
    > architettura...
    > significa che sullo stesso chip puoi mettere un
    > x86, un g5, un ultrasparc o quello che vuoi, puoi
    > metterci un processore grafico, un processore
    > fisico,
    > ecc...
    > cioè non si tratta solo di un pezzo di silicio
    > con dentro 80 core, ma è un tipo di architettura
    > totalmente
    > diversa
    Non è + conveniente usare un software di virtualizzazione, per avere architetture differenti ? (Vbox,qemu etc...)
    non+autenticato
  • general purpose ha poco senso. I flops vanno bene per valutare le prestazioni dei processori in alcuni ambiti applicativi, specialmente scientifici o ingegneristici. Hanno poco senso in moltissimi altri ambiti.
    Per questo trovo fuorviante paragonare gli 80 core generici di Intel con questi due processorri dedicati.
    Mi sembra tanto la ripetizione dei megatitoloni che vedevo a proposito della potenza di calcolo della palystation 3. Sembrava dovesse uscire il cray da salotto.
    non+autenticato
  • Appunto questa dimostrazione è stata fatta per dimostrare le potenzialità della piattaforma in ambito tecnico scientifico.
    non+autenticato

  • > Per questo trovo fuorviante paragonare gli 80
    > core generici di Intel con questi due processorri
    > dedicati.

    I teraflops rimangono teraflops, sia che si parli di mele sia che si parli di pere...Occhiolino Se il chip da 80 core di Intel fa 1 teraflops quello è... Magari poi invece nei calcoli interi è una schiappa, proprio come l'R600. L'equivalenza resta valida.
    non+autenticato
  • se la ps3 avesse i cell sbloccati e interamente funzionanti (e non castrati per ridurre i consumi e i costi), sarebbe veramente un cray da salotto, non so se hai mai visto un documento tecnico del cell, ma fa paura come processore
    non+autenticato

  • - Scritto da:
    > se la ps3 avesse i cell sbloccati e interamente
    > funzionanti (e non castrati per ridurre i consumi
    > e i costi), sarebbe veramente un cray da salotto,
    > non so se hai mai visto un documento tecnico del
    > cell, ma fa paura come
    > processore

    se tu avessi un cervello funzionante ... faresti discorsi più sensati!

    AnonimoAnnoiato
    non+autenticato
  • risposta piena di concetti e che mostra un elevata cultura informatica, complimenti...
    domanda, sai cos'è un cell? mi sa di no, forse al limite sai incollarmi un po' di cose copiate a caso da wikipedia, ma dubito saresti in grado di leggere un documento tecnico
    non+autenticato

  • - Scritto da:
    > risposta piena di concetti e che mostra un
    > elevata cultura informatica,
    > complimenti...
    > domanda, sai cos'è un cell? mi sa di no, forse al
    > limite sai incollarmi un po' di cose copiate a
    > caso da wikipedia, ma dubito saresti in grado di
    > leggere un documento
    > tecnico

    Sarebbe pure da chiedere se si sa cos'è un cray...
    non+autenticato

  • - Scritto da:
    > Mi sembra tanto la ripetizione dei megatitoloni
    > che vedevo a proposito della potenza di calcolo
    > della palystation 3. Sembrava dovesse uscire il
    > cray da
    > salotto.

    con la differenza che la Playstation 3 svolgerà soprattutto il ruolo di consolle da gioco e quindi il discorso quadra....nel caso dei PC invece il vantaggio è molto minore, anche se una soluzione del genere potrà servire per delegare alle GPU la gestione delle interfacce grafiche 3D moderne, la gestione della computer grafica in generale e quella della codifica/decodifica di formati audio/video....

    in sostanza la CPU sarà alleggerita di moltissimi compiti anche in ambito Desktop.....
    non+autenticato
  • occhio che cell in questi giorni ha quasi assorbito junior, e si prepara ad assorbire C17 e C18 per diventare perfect cell!

    Non so voi ma io non mi fiderei mai ad avere un cell in salotto... e se quando vai a dormire assorbe il gatto?

    Enjoy
    non+autenticato
  • Ah, sì, 0,4 W/GFlop sono davvero tanto.
    A farli mettendo insieme un paio di centinaia di Core Duo di certo consuma meno.

    Rotola dal ridereRotola dal ridereRotola dal ridereRotola dal ridereRotola dal ridere
    non+autenticato

  • - Scritto da:
    > Ma questi so scemi...

    purtroppo questa e' la tendenza; ho avuto modo di provare le 8800 che consumano quasi come queste e io stesso ho una recente x1900xtx che si mangia 150w con i giochi;
    dato che si prospetta per il futuro una crisi energetica che durera' decine di anni prima di essere aggirata e che gia' da adesso si parla di limitare i consumi non comprendo come possano funzionare le due cose messe assieme;
    e' vero comunque che la tecnologia va migliorando come rendimento, ad es il pc che avevo prima consumava 160watt, questo che e' molto piu' recente ne assorbe 120 durante l'uso desktop senza lavori particolarmente aggressivi per la cpu mentre con i giochi (a 1600x1200) il cosumo varia fra i 280 e i 350watt, ma fortunatamente gioco pochissimo.
    non+autenticato
  • Senza offesa ma invece di continuare questa corsa al consumo esagerato, fare in modo, lasciare il tempo anche ai programmatori di sfruttare quello che c'è adesso sotto il cofano ?
    Una volta certe sk video avevo gli occhialini 3D, in futuro ci daranno una dinamo ?
    non+autenticato
  • di certo il consumo piu' alto della tua abitazione e' il pc.. quando una lampadina normale arriva senza se e senza ma a 100W.. magari tu hai quelle a risparmio energetico.. ma non prendiamoci per il culo.. che e' sta stronzata del risparmio? ahahaha.. e' na cosa ridicola..
    1016

  • - Scritto da: outkid
    > di certo il consumo piu' alto della tua
    > abitazione e' il pc.. quando una lampadina
    > normale arriva senza se e senza ma a 100W..
    > magari tu hai quelle a risparmio energetico.. ma
    > non prendiamoci per il culo.. che e' sta
    > stronzata del risparmio? ahahaha.. e' na cosa
    > ridicola..

    'na cosa ridicola?
    Consumare 1/3 o 1/4 della corrente per l'illuminazione è ridicolo? Comprare dispositivi a basso consumo è ridicolo? Creare case che consumano 1/5 di quelle attuali per essere riscaldate è ridicolo?

    A me sembrano ridicoli certi commenti fatti da gente che probabilmente non paga le bollette e sicuramente non pensa alle conseguenze delle proprie azioni.
    non+autenticato
  • vabe' dai sei un ritardato. buona giornata.
    1016

  • - Scritto da: outkid
    > vabe' dai sei un ritardato. buona giornata.

    Tu sicuramente un gran maleducato. Buona giornata pure a te.
    non+autenticato
  • > non prendiamoci per il culo.. che e' sta
    > stronzata del risparmio? ahahaha.. e' na cosa
    > ridicola..

    guardati il documentario di al gore, "una scomoda verita'" , e' la superficialita' di gente come questa che portera' al collasso il pianeta. 400W Adesso che abbiamo ancora combustibile fossile che costa poco (ma i prezzi aumenteranno presto in modo esponenziale) non sono nulla ma non durera' per molto,soprattutto adesso che 1.000.000.000 di cinesi si stanno svegliando dal loro torpore medioevale.
    non+autenticato

  • - Scritto da: outkid
    > che e' sta
    > stronzata del risparmio? ahahaha.. e' na cosa
    > ridicola..

    di grazia, e perché mai?
    non+autenticato
  • non del risparmio energetico.. del fatto che e' scandaloso una cpu che consuma 400W quando una lampadina, ed oggi ce ne sn ovunque ancora, arriva a consuma' 100, 120W.
    poi loro ovviamente volevan parlare e dire cazzate.. ma non e' che andavo contro il risparmio.. vabe'.. l'intelligenza non e' stata distribuita in parti uguali si sa..
    1016