Luca Annunziata

Nvidia vuole ammazzare la CPU

Continua la campagna del produttore di chip video. Il destino dei processori tradizionali è segnato, dice: è giunta l'era della GPU, che regnerà sui case di tutta la Terra

Roma - La resistenza è inutile: sarete tutti assimilati. Progetti come quello della francese Bull non sono altro che l'inizio: preparatevi all'invasione delle GPU, al regnare incontrastato dei chip video che domineranno il mondo (della computazione). La CPU è morta, AMD è morta e neppure Intel si sente tanto bene. Sarà Nvidia a colonizzare ogni socket lasciato libero: tanto lo sanno tutti che il vero lavoro dentro un cabinet è tutto della GeForce. Oppure no?

"In pratica la CPU è morta - sostiene un certo Roy Taylor, dichiaratosi vicepresidente di Nvidia in una lettera a TheInquirer.net - Quel processore che vedete pubblicizzato ovunque da Intel, proprio quello, sta perdendo la sua energia. Non è più in grado di far girare alcunché più in fretta. È questo il motivo per cui le cose vanno male ad AMD e perché quelli di Intel sono quasi nel panico: sono così spaventati che hanno persino cominciato ad attaccarci".

Per Taylor c'è solo una salvezza: "C'è solo un chip che è davvero utile sia sempre più veloce: la GPU. Sì, proprio il chip GeForce. No davvero, non mi sto inventando niente: oggi quando il tuo computer riproduce un video è il nostro chip che svolge quel lavoro, quando giochi è il nostro chip che svolge quel lavoro, quando rippi un film è il nostro chip che fa quel lavoro". "Ecco - conclude Taylor - vi siete fatti un'idea di come vanno le cose".
Difficile non porsi qualche dubbio sulla autenticità di tutte queste affermazioni. Ma era stato lo stesso CEO di Nvidia Jen-Hsun Huang, circa due settimane fa, a scoperchiare il vaso di Pandora: "Le persone non comprano Nvidia perché costretti, lo fanno perché lo vogliono. Sono sopraffatti dal valore e dai benefici che ne traggono". Il progetto di integrazione tra CPU e GPU di Intel era stato definito "risibile" (Larrabee era diventato "Laughabee"), stroncato qualsiasi tentativo di competere con GeForce: "Abbiamo un vantaggio di 20-30-40 volte quando si parla di prestazioni, di 27 volte nel rapporto prezzo/prestazioni".

Nonostante questi proclami, a quanto pare la posizione di Nvidia è meno netta rispetto a quanto fatto intendere da Taylor nella sua email: nonostante il ruolo svolto, ha spiegato un portavoce dell'azienda, le sue parole "non rispecchiano le opinioni di Nvidia", e comunque si trattava di una lettera privata e "non di una dichiarazione pubblica". In ogni caso, nei PC di oggi e di domani basterà "nient'altro che una CPU di fascia base": come dire che se la CPU non è morta, è comunque destinata a ricoprire un semplice ruolo da comprimario nel computer del futuro.

Luca Annunziata
81 Commenti alla Notizia Nvidia vuole ammazzare la CPU
Ordina
  • come da oggetto,
    perchè vi sono delle applicazioni come i videogiochi dove alcune cose come la gestione della IA dei personaggi pilotati dal computer,della gestione delle periferiche come mouse e tastiere e imho diverse altre, che attualmente vengono gestite in toto dalla cpu (meglio se multicore) non potrammo imho mai essere demantate totalmente alla gpu,in quanto quest'ultima è nata con uno scopo essenziale, e non racchiude al suo interno le istruzioni e le capacità di gestire le applicazioni sopra descritte.
    altrimenti nulla vieta che potrebbero fare la stessa cosa al contrario,ovvero cpu magari 4 core o più che racchiude al suo interno anche tutte le funzioni tipiche delle gpu..
    ma non penso che queste cose siano così fattibili.
    almeno non a livello desktop/notebook...sui palmari potrebbe forse anche essere..
    oltretutto dall'articolo sembra che le cpu abbiano ormai la vita corta, peccato che : i core della cpu possono aumentare ancora (anche se non all'infinito almeno fino a 8 forse 16 unità dovrebbero riuscirci IMHO), e altra cosa, stanno arrivando nuovi materiali a sostituire il silicio (vedi grafene), certo non nell'immediato ma porteranno ulteriore nuova vita alle cpu in quanto tali.
    boh. staremo a vedere..
    LROBY
    lroby
    5311
  • Inoltre bisogna considerare che nel caso dovesse succedere, si scaricherebbero sulla GPU dei compiti che probabilmente ne farebbero inutilmente decadere le prestazioni.

    Inizialmente le schede video gestivano solo I/O,tutto il calcolo veniva effettuato dalla CPU (qualcuno di voi ricorda le schede CGA e EGA ?).

    Poi qualcuno ha inventato le schede grafiche 'intelligenti' (ovvero con una propria cpu), aleggerendo il carico alla CPU e rendendo migliore il tutto

    In seguito si sono svuluppate varie tecnologie, tra cui librerie grafiche le cui funzioni sono poi riportate nell'hardware delle schede (ovvero se la funzione e' implementata in hardware/GPU la utilizzo, altrimenti la emulo tramite la CPU).

    Eliminare la CPU significherebbe scaricare sulla GPU un carico di lavoro ora effettuato alla CPU (es. gestione interfaccia IDE/SATA, USB ecc.) a discapito delle prestazioni nel suo ambito specifico.

    Mi sembra piu' probabile la via dell'integrazione come e' successo all'epoca del 486 con il coprocessore matematico, ma sempre rimanendo in un campo abbastanza generico come gia' fatto per le istruzioni multimediali gia' disponibili da anni nelle CPU (MMX ecc.)

    Con la sostituzione totale come si potrebbe aggiornare un sistema per avere prestazioni grafiche migliori ? cambiando in toto la CPU/GPU ? probabilmente rimarrebbe molto oneroso.
    non+autenticato
  • - Scritto da: amedeo
    > Inizialmente le schede video gestivano solo
    > I/O,tutto il calcolo veniva effettuato dalla CPU
    > (qualcuno di voi ricorda le schede CGA e EGA
    > ?).
    Hai dimenticato le herculesA bocca aperta
    non parlo della marca attuale di prodotti informatici ma delle schede video che davano un primo abbozzo di grafica (monocromatica) ad alta (per l'epoca) definizione, faceva ben 640 * 200 punti se ricordo bene e aveva dei monitor tutti particolari con attacco 9 pin che ricorda le seriali uscite qualche anno dopo,avevo un 12" di quel tipo, monocromatico appunto e ricordo che la cosa + bella che ci feci fù usarlo come secondo monitor per il C=128, in modalità Fast a 2mhz, in alta risoluzione a 80 colonne, per basic, geos e cp/m..
    altro che C=64 !!A bocca aperta
    LROBY
    -----------------------------------------------------------
    Modificato dall' autore il 29 aprile 2008 22.04
    -----------------------------------------------------------
    lroby
    5311
  • Le nostre macchine attuali son già obsolete.
    Non tanto perchè fra qualche anno vi saranno CPU miltiprocessore, ma perchè la struttura dei Pc è comunque sempre quella di 30 anni fa.
    Anche la gestione della memoria ad esempio è macchinosa poichè è strutturata secondo i concetti di allora, quando non si pensava di certo ai Gb attuali di ram.
    Di conseguenza i SO si sono dovuti adattare a tale situazione.
    Occorre un nuovo PC o un nuovo Mac, ossia una struttura nuova per ottimizzare il rendimento della macchina.
    Per far questo non è semplice, occorre un nuovo progetto hardware e software di base. Il che richiede un invenstimento non indifferente e poi c'è il problema del mercato, che tutto sommato non premia i nuovi progetti anche se darebbero dei vantaggi.
    Rimarremo ancora un bel pò con "vecchi" baracconi, a cui occorre dare un sacco di risorse per farli funzionare in un certo modo.
    Ovvio che i tempi sarebbero maturi per voltare pagina, ma l'incertezza di un mercato restio alle novità non incoraggia certo i progettisti.
  • di cosa va cianciando Mr.Taylor ?
    Diciamo piuttosto che per non essere tagliata fuori dal mercato Nvidia, in netto ritardo, cerca alleati per produrre qualcosa che somigli ai progetti Larrabee e Fusion
  • Intel e ATI metteranno sul mercato CPU multicore che integrano le funzionalità base di accelerazione 3D e di deocmpressione video, cosicchè le macchine da "ufficio" potranno usufruire degli effetti grafici di Aero o Compiz, senza avere chip grafici dedicati (nemmeno impiantati su MoBo), per i video giocatori sarà possibile intregrare le funzionalità con GPU esterne in serie con tecnologie tipo Hybrid SLI.
    In questo modo s potrà avere tutta la potenza necessarie in maniera modulare e con costi strettamente proporzionati alla stessa
  • Nvidia se ne esce con affermazioni di marketing, ovviamente deve fatturare ha i famosi AZIONISTI a cui dare dividendi...
    Questo vale anche per intel ed amd e tutti gli altri in fila...
    Quindi l'ipotesi piu' plausibile e' che contano sulla contrazione delle vendite dato il periodo non proprio roseo che stiamo vivendo un po tutti nel Mondo, America compresa.
    L'ovvio messaggio e' "comprate da noi e non dagli altri, ne avrete un beneficio!"
    LORO ne avranno un beneficio....noi potremmo, ad esempio, finirla di voler giocare a giochi tipo Crisys a 1900 x 1200 full antialiasing...!
    La cpu si occupa di un certo lavoro, la GPU di un altro, lo dicono anche i nomi...
    Si possono fondere le due capacita' ma ,ovviamente, sei costretto a cambiare entrambe le opzioni SE vuoi piu' potenza.
    Adesso puoi decidere tu se necessiti di GPU o di CPU, un indomani decideranno loro...
    Per lavorare , nella maggior parte dei casi, non serve una gpu ma una cpu e nemmeno poi tanto veloce.
    Se vai in applicazioni professionali la cosa cambia ma le soluzioni sno specifiche e spesso esulano dalla mera potenza.
    Insomma...nvidia vuole TANTO i nostri soldi e spara cavolate... sta' a noi non abboccare e pilotare il mercato su soluzioni meno costose,piu' ecocompatibili e con richieste energetiche minori.
    Ai programmatori ,magari, chiediamo piu' concentrazione sul CODICE perche' sia ottimizzato e non una schifezza avara di risorse.
    non+autenticato
  • - Scritto da: Ricky
    > Ai programmatori ,magari, chiediamo piu'
    > concentrazione sul CODICE perche' sia ottimizzato
    > e non una schifezza avara di
    > risorse.

    Avete sentito programmatori di Vista?
    non+autenticato
  • Si...al CIRCO mi pare...Sorride
    non+autenticato
CONTINUA A LEGGERE I COMMENTI
1 | 2 | 3 | 4 | Successiva
(pagina 1/4 - 16 discussioni)