AMD sposa ATI e cova le GP-CPU

Il chipmaker completa l'acquisizione del celebre produttore di processori grafici e rivela nuovi dettagli sul progetto per l'integrazione di CPU e GPU sullo stesso chip. Il nuovo colosso promette di scuotere l'intero mercato dei chip

AMD sposa ATI e cova le GP-CPUSunnyvale (USA) - A metà settimana AMD ha annunciato il completamento dell'acquisizione di ATI per circa 5,4 miliardi di dollari, un'operazione che dà vita ad un nuovo colosso dell'hi-tech con circa 15.000 dipendenti. Come preannunciato a luglio, i risvolti più interessanti della fusione saranno quelli tecnologici, con l'avvio di un progetto mirato ad unire intimamente CPU e processori grafici (GPU).

Come primo visibile effetto del matrimonio tra le due aziende, il vecchio sito di ATI (www.ati.com) rimanda ora al dominio amd.com, e sulla home page campeggia il familiare logo verde del secondo produttore al mondo di CPU per PC.

"Oggi è un giorno storico per tutti i nostri dipendenti, partner e clienti, in quanto ATI entra ufficialmente a far parte della famiglia AMD", ha dichiarato Hector Ruiz, presidente e CEO di AMD. "Siamo da subito nella condizione di fornire una gamma vincente di tecnologie integrate, promuovendo nuovi livelli di innovazione e garantendo la più ampia scelta del settore".
A partire dal 2007, AMD intende fornire una serie di piattaforme integrate destinate ad alcuni mercati chiave, tra cui mobile computing (PDA, smartphone, personal media player), gaming (console da gioco) e multimedia (PC media center, workstation, set-top box).

L'obiettivo è quello di rivaleggiare in modo più diretto con le piattaforme integrate di Intel, prime fra tutte Centrino e Viiv, proponendo soluzioni che garantiscano più stabilità a lungo termine, tempi di commercializzazione inferiori, prestazioni elevate, e maggiore risparmio energetico. AMD intende sfruttare le competenze di ATI anche nel settore dell'elettronica di consumo, dove afferma di voler introdurre "nuovi dispositivi caratterizzati da una gestione più efficiente dei contenuti e una maggiore connettività".

AMD ha assicurato che ATI non perderà la propria identità, e che continuerà a produrre la sua celebre linea di processori grafici Radeon, da quelli entry-level a quelli di fascia professionale, e i chipset per PC, compresi quelli per la piattaforma Intel.

In pentola bolle anche il progetto di fondere CPU e GPU sullo stesso chip. Ecco i dettagli.
88 Commenti alla Notizia AMD sposa ATI e cova le GP-CPU
Ordina
  • Forse per gli utenti normali sarebbe stato più interessante avere una CPU ed una GPU in un solo chip. Anche perché qualcuno si è reso conto che il multicore non gli serve...

    Marco Ravich
    non+autenticato

  • - Scritto da:
    > Forse per gli utenti normali sarebbe stato più
    > interessante avere una CPU ed una GPU in un solo
    > chip. Anche perché qualcuno si è reso conto che
    > il multicore non gli
    > serve...
    >
    > Marco Ravich

    Veramente il dual core almeno un pochino lo sfrutti con la maggior parte dei SO, oltre sono d'accordo anch'io, diventa vantaggioso solo sui server o su applicazione scritte e compilate appositamente... un tri-core, 2 CPU + 1 GPU non lo vedo impossibile, già la XBox360 usa un tri-core con 3 CPU, ma se il quadri-core fosse più facile da fare per questioni puramente geometriche, potrebbero fare 2 CPU + 2 GPU di fascia media in CrossFire che fornirebbero una potenza di calcolo paragonabile a una GPU di fascia alta, oppure potrebbero essere usate una per l'accelerazione grafica e l'altra per quella fisica.
    non+autenticato

  • - Scritto da:
    >
    > - Scritto da:
    > > Forse per gli utenti normali sarebbe stato più
    > > interessante avere una CPU ed una GPU in un solo
    > > chip. Anche perché qualcuno si è reso conto che
    > > il multicore non gli
    > > serve...
    > >
    > > Marco Ravich
    >
    > Veramente il dual core almeno un pochino lo
    > sfrutti con la maggior parte dei SO, oltre sono
    > d'accordo anch'io, diventa vantaggioso solo sui
    > server o su applicazione scritte e compilate
    > appositamente... un tri-core, 2 CPU + 1 GPU non
    > lo vedo impossibile, già la XBox360 usa un
    > tri-core con 3 CPU, ma se il quadri-core fosse
    > più facile da fare per questioni puramente
    > geometriche, potrebbero fare 2 CPU + 2 GPU di
    > fascia media in CrossFire che fornirebbero una
    > potenza di calcolo paragonabile a una GPU di
    > fascia alta, oppure potrebbero essere usate una
    > per l'accelerazione grafica e l'altra per quella
    > fisica.

    Intel sta lavorando a CPU da 32 e 128 core per i prossimi 4-8 anni...
    non+autenticato
  • Se arrivano a quel numero di core, allora diventa interessante.
    Perché c'è spazio per mettere dentro core specializzati per :


    Se il processore ha 8 core uno puo scegliere tra 4 CPU e una Unità per tipo
    Se ne ha 16 si può tranquillamente raddoppiare tutto:
    1) 2 x Grafica 3D
    2) 2 x Fisica
    3) 2 x Intelligenza Artificiale
    4) 2 x Criptografia
    5) 8 CPU

    In più, se un processore viene male, si disabilità il core fallato e lo si vende come CPU di livello inferiore.
    Sarà divertente vedere come evolverà il mercato.
  • Forse non avete compreso bene, qui si tratta di poter utilizzare uno o più core a seconda delle necessità o per compiti grafici o per potenza di calcolo, ottimizzando di continuo il carico di lavoro fra parte grafica e parte "CPU classica".
    Se il sistema è ben sviluppato avremo pc in grado di utlizzare molto meglio le loro potenzialità, infatti tutti sappiamo che esistono dei picchi di potenza di elaborazione richiesta al PC accompagnati da periodi di scarsa richiesta di attività della CPU, che in molti casi non coincidono con l'attività richiesta ala scheda grafica.
    Sono convinto che per molti pc, che non richiedano prestazioni video "estreme" possa essere una buona soluzione per contenere i costi, mantenendo buone prestazioni
  • Che sia la volta buona per avere dei driver di qualità accettabile sia sotto win che sotto linux ?
    non+autenticato
  • Beh sono d'accordo con te nel dire che i driver linux di Ati fanno abbastanza pena ma sotto windows non si puo' dire che siano scadenti anzi sono migliori sotto molti punti di vista rispetto ai concorrenti
    non+autenticato

  • - Scritto da:
    > Beh sono d'accordo con te nel dire che i driver
    > linux di Ati fanno abbastanza pena ma sotto
    > windows non si puo' dire che siano scadenti anzi
    > sono migliori sotto molti punti di vista rispetto
    > ai
    > concorrenti

    Mah sotto linux sono pietosi sotto win non è che siano molto meglio ho avuto problemi sia sul portatile che sul desktop. I driver Nvidia sono nettamente superiori.
    non+autenticato
  • > Mah sotto linux sono pietosi sotto win non è che
    > siano molto meglio ho avuto problemi sia sul
    > portatile che sul desktop. I driver Nvidia sono
    > nettamente
    > superiori.

    Boh, ho sempre avuto ATI e con grande soddisfazione, recentemente sono passato a nForce4 e ho voluto abbinargli una GPU nVidia, ed è stata una delusione su entrambi i fronti... appena posso torno ad ATI...

  • - Scritto da: Athlon64
    > > Mah sotto linux sono pietosi sotto win non è che
    > > siano molto meglio ho avuto problemi sia sul
    > > portatile che sul desktop. I driver Nvidia sono
    > > nettamente
    > > superiori.
    >
    > Boh, ho sempre avuto ATI e con grande
    > soddisfazione, recentemente sono passato a
    > nForce4 e ho voluto abbinargli una GPU nVidia, ed
    > è stata una delusione su entrambi i fronti...
    > appena posso torno ad
    > ATI...

    Sezione IGP del portatile non supportata sotto linux per anni ed alla fine si son rassegnati a dare le specifiche per poter scrivere i driver open che però hanno delle limitazioni. Ati 9800 pro (all'epoca non proprio regalata), sotto win driver inutilizzabili causa BSOD con varie release, alla fine driver stabili ma con prestazioni peggiori di una NVIDIA Geforce mmx400, sotto linux ad oggi con i driver proprietari non puoi fare acquisizione video per nulla causa noto bug che manda tutto in crash (non solo X) salvo disabilitare funzioni varie che però rendono le prestazioni della scheda tali da rendere comunque l'acquisizione impossibile. Un po' meglio con il radeon open (con xorg appena uscito) che però causa dei fastidiosissimi saltelli e peggiora le prestazioni 3D. Inutile dire che con la solita
    mmx (anno 2000) tutto fila liscio e senza problemi. Ho dato fiducia ad ATI ma è stata una delusione su tutto il fronte. Peccato ad oggi le sezioni grafiche peggiori che abbia mai avuto Triste   
    non+autenticato
  • Penso che il problema sia più della scheda madre nForce che della scheda video...
    non+autenticato
  • > Penso che il problema sia più della scheda madre
    > nForce che della scheda
    > video...

    Beh, intanto a volte la connessione DVI impazzisce (con lo stesso monitor e 3 ATI diverse va senza problemi), e poi la qualità della riproduzione video è molto più bassa (sia come decoding MPEG che come deinterlacing)...

  • - Scritto da: Athlon64
    > > Penso che il problema sia più della scheda madre
    > > nForce che della scheda
    > > video...
    >
    > Beh, intanto a volte la connessione DVI
    > impazzisce (con lo stesso monitor e 3 ATI diverse
    > va senza problemi), e poi la qualità della
    > riproduzione video è molto più bassa (sia come
    > decoding MPEG che come
    > deinterlacing)...

    Sia in decoding che in deintelacing le NVIDIA, causa driver, funzionano meglio, se poi si parla di encoding il paragone non c'è neanche le ATI sembrano + vecchie di un 4 generazioni....
    Considerando che sulla carta le ATI son superiori l'unica spiegazione che ci si può dare è che i driver siano scritti con i piedi, cosa che chiunque abbia usato un programma di acquisizione sotto linux e windows non può che sottoscrivere....
    non+autenticato

  • - Scritto da: Athlon64
    > > Penso che il problema sia più della scheda madre
    > > nForce che della scheda
    > > video...
    >
    > Beh, intanto a volte la connessione DVI
    > impazzisce (con lo stesso monitor e 3 ATI diverse
    > va senza problemi), e poi la qualità della
    > riproduzione video è molto più bassa (sia come
    > decoding MPEG che come
    > deinterlacing)...

    Se paragoni una soluzione da ufficio integrata nel chipset con una scheda separata da 150-500 euro... ma che paragoni fai ? Ci credo che la scheda separata ATI ti risulta migliore.
    Prendi una GeForce 7600GS 512MB PCI-E, poi ne riparliamo. Il SIMD PureVideo nella GPU è perfetto nella decodifica di H.264 e flussi H.264 SDTV occupano meno del 10% della CPU con gli ultimi driver su vecchi P4 2.40C
    non+autenticato
  • non prenderei ati nemmeno se me la regalassero dopo due schede ATI che ho avuto per me ATI e' morta.

    Visto che le console come PS3 e XBpx 360 montano GPU Nvidia ci sara' un perche'.

    Se poi vogliamo parlare dei driver ATI lì abbiamo un vero e proprio bagno di sangue, mi chiedo come non riescano a fare dei driver che non cannino le texture in ogni gioco e' veramente penosa la resa grafica di queste schede
    non+autenticato

  • - Scritto da:
    > Beh sono d'accordo con te nel dire che i driver
    > linux di Ati fanno abbastanza pena ma sotto
    > windows non si puo' dire che siano scadenti anzi
    > sono migliori sotto molti punti di vista rispetto
    > ai
    > concorrenti

    Sì, come no. Infatti tutti quelli che conosco che hanno ATI hanno problemi che con Nvidia non ci sono.
    non+autenticato

  • Speriamo che con questa onerosissima acquisizione AMD abbia la forza di risollevarsi dal botta presa da Intel e lanci il prima possibile il K8L.
    non+autenticato
  • se guardi le entrate dell'ultimo trimestre AMD, la batosta non si vede proprioOcchiolino
    Con la riduzione dei prezzi, AMD vende più di prima.
    non+autenticato
  • appena esce il core quadro voglio vedere che succede...
    non+autenticato
  • niente, visto che quelli che sono disposti a compare un processore a 1000 dollari sono una minoranza trascurabile... i soldi si fanno nella fascia medio-bassa.
    non+autenticato

  • - Scritto da:
    > niente, visto che quelli che sono disposti a
    > compare un processore a 1000 dollari sono una
    > minoranza trascurabile... i soldi si fanno nella
    > fascia
    > medio-bassa.

    Per quello ci sono i Sempron, forse non te l'hanno spiegato, ma AMD ne vende qualche milione.
    non+autenticato
  • lavoro come assemblatore in un grosso negozio di informatica
    il 90% di pc che sforno hanno cpu sempron.
    ogni tanto mi capita di assemblare qualche X2 su richiesta di qualche appassionato videogiocatore, ma per la fascia alta i clienti (colletti bianchi) richiedono quasi sempre cpu intel.

    Per non parlare dei laptop.... solo cpu intel.
    non+autenticato
  • - Scritto da:
    > lavoro come assemblatore in un grosso negozio di
    > informatica
    > il 90% di pc che sforno hanno cpu sempron.
    > ogni tanto mi capita di assemblare qualche X2 su
    > richiesta di qualche appassionato videogiocatore,
    > ma per la fascia alta i clienti (colletti
    > bianchi) richiedono quasi sempre cpu intel.
    >
    >
    > Per non parlare dei laptop.... solo cpu intel.

    Sui desktop IMO gioca parecchio gli anni di uso del brand pentium, per i portatili il discorso è un po' diverso di solito il "colletto bianco" che cerca un portatile ha bisogno di una batteria che duri parecchio e purtroppo sulla fascia alta, da questo punto di vista, non c'è competizione. Io stesso che sul desktop ho solo AMD ho due portatili: un AMD 64-M ed il classico centrino comprato per portarselo in giro durante i viaggi o quando sono fuori sede....
    Se AMD vuole intaccare quel segmento di mercato bisogna che spinga sulla riduzione dei consumi; personalmente,comunque, ritengo abbia abbandonato quel segmento di mercato da tempo per concentrarsi sui portabili.
    non+autenticato

  • - Scritto da:
    > lavoro come assemblatore in un grosso negozio di
    > informatica
    > il 90% di pc che sforno hanno cpu sempron.
    > ogni tanto mi capita di assemblare qualche X2 su
    > richiesta di qualche appassionato videogiocatore,
    > ma per la fascia alta i clienti (colletti
    > bianchi) richiedono quasi sempre cpu intel.
    >
    >
    > Per non parlare dei laptop.... solo cpu intel.

    Io devo essere di quelle mosche bianche che preferiscono aspettare il calo di prezzo di una CPU di fascia almeno media, per avere più cache e meno "castrazioni" e colli di bottiglia artificiali... a suo tempo avevo preso un Duron 650, ma l'attuale Athlon XP 2200+, comprato quando aveva già un prezzo basso, ma che a suo tempo, al contrario del Duron, fu al top, mi sta durando molto di più... e se non avessi avuto bisogno di una mobo con supporto anche per la vecchia SDRAM, che aveva il bus della CPU fino a 133/266 MHz, avrei aspettato un mesetto e preso un Barton, con il doppio di cache.
    Credo che quando sarà calato a prezzi bassi, sotto i 100-120 euro, prenderò un qualcosa attorno a un X2 5200+ o superiore, con preferenza per i modelli con più cache, e in versione Energy Efficient, a meno allora che non siano già passati ai 65nm e non ce ne sia più bisogno per avere consumi più bassi.
    non+autenticato

  • - Scritto da:
    >
    > - Scritto da:
    > > lavoro come assemblatore in un grosso negozio di
    > > informatica
    > > il 90% di pc che sforno hanno cpu sempron.
    > > ogni tanto mi capita di assemblare qualche X2 su
    > > richiesta di qualche appassionato
    > videogiocatore,
    > > ma per la fascia alta i clienti (colletti
    > > bianchi) richiedono quasi sempre cpu intel.
    > >
    > >
    > > Per non parlare dei laptop.... solo cpu intel.
    >
    > Io devo essere di quelle mosche bianche che
    > preferiscono aspettare il calo di prezzo di una
    > CPU di fascia almeno media, per avere più cache e
    > meno "castrazioni" e colli di bottiglia
    > artificiali... a suo tempo avevo preso un Duron
    > 650, ma l'attuale Athlon XP 2200+, comprato
    > quando aveva già un prezzo basso, ma che a suo
    > tempo, al contrario del Duron, fu al top, mi sta
    > durando molto di più... e se non avessi avuto
    > bisogno di una mobo con supporto anche per la
    > vecchia SDRAM, che aveva il bus della CPU fino a
    > 133/266 MHz, avrei aspettato un mesetto e preso
    > un Barton, con il doppio di
    > cache.
    > Credo che quando sarà calato a prezzi bassi,
    > sotto i 100-120 euro, prenderò un qualcosa
    > attorno a un X2 5200+ o superiore, con preferenza
    > per i modelli con più cache, e in versione Energy
    > Efficient, a meno allora che non siano già
    > passati ai 65nm e non ce ne sia più bisogno per
    > avere consumi più
    > bassi.

    La migliore CPU sul mercato al momento è la Intel Core 2 Duo E6600 dual core Conroe con una motherboard con chipset 965P Gigabyte o Asus.
    non+autenticato
  • peccatto che non tutti abbiano 350 euro da sendere solo per il processore
    non+autenticato

  • - Scritto da:
    > peccatto che non tutti abbiano 350 euro da
    > sendere solo per il
    > processore

    Dipende se uno vuole un sistema che resti fra i migliori sul mercato per 3-4 anni o che diventi obsoleto nel giro di 6 mesi. Il Core 2 Duo E6600 continuerà ad andare benissimo fino al 2009, a quel punto sarà vecchio ma comunque un ottimo sistema ancora in grado di far girare il 90% dei programmi a buona velocità.
    non+autenticato
  • E se Intel seguirà AMD+ATI in questa stupidaggine della GP-CPU diremo addio alla modularità, i costi saliranno, servirà un alimentatore da 1000Watt ed in modalità idle la GP-CPU si succhierà allegramente 100-150Watt, in pieno funzionamento almeno 300Watt o oltre.
    Considerando che le nuove GPU ATI e Nvidia in uscita consumano da sole oltre 150Watt e necessitano di un alimentatore esterno...
    non+autenticato
  • Si infatti.Spero lo facciano solo per il mercato economico...molto economico

  • - Scritto da: Cirene
    > Si infatti.Spero lo facciano solo per il mercato
    > economico...molto
    > economico

    Sono per prodotti embed
    non+autenticato

  • - Scritto da:
    >
    > - Scritto da: Cirene
    > > Si infatti.Spero lo facciano solo per il mercato
    > > economico...molto
    > > economico
    >
    > Sono per prodotti embed

    Questo lo dici tu.
    non+autenticato
  • mi spieghi che differenza fa mettere la gpu insieme alla cpu, o insieme al chipset?
    piuttosto essendo il processo produttivo delle cpu pià raffinato, ed essendo cpu e gpu collegate direttamente, si avrà un calo di consumi ed aumento di prestazioni.... cosa ottima soprattutto nei portatili
    non+autenticato

  • - Scritto da:
    > mi spieghi che differenza fa mettere la gpu
    > insieme alla cpu, o insieme al
    > chipset?
    > piuttosto essendo il processo produttivo delle
    > cpu pià raffinato, ed essendo cpu e gpu collegate
    > direttamente, si avrà un calo di consumi ed
    > aumento di prestazioni.... cosa ottima
    > soprattutto nei
    > portatili

    Ma che stai dicendo ? Vaneggi.
    non+autenticato
  • sei un troll della peggior specie
    non+autenticato
  • Se vogliono giocarsela contro i centrino fanno meglio a calare le pretese
    non+autenticato

  • - Scritto da:
    > Se vogliono giocarsela contro i centrino fanno
    > meglio a calare le
    > pretese

    dai bench che ho letto amd mantiene il miglior rapporto prezzo prestazioni (come sempre) e prestazioni/consumo sul turion.

  • - Scritto da: AlphaC
    >
    > - Scritto da:
    > > Se vogliono giocarsela contro i centrino fanno
    > > meglio a calare le
    > > pretese
    >
    > dai bench che ho letto amd mantiene il miglior
    > rapporto prezzo prestazioni (come sempre) e
    > prestazioni/consumo sul
    > turion.

    Allora hai letto proprio male visto che la tecnologia Centrino di Intel su desktop con Core 2 Duo, su notebook con Merom, e su server con Woodcrest e Tigertown è la migliore sul mercato al momento ed AMD non ha un cavolo di niente per contrastarla.
    non+autenticato
  • penso intendesse i core 1
    non+autenticato