Alfonso Maruccia

NVIDIA contro la legge di Moore

Bordata del produttore californiano contro l'enunciato del co-fondatore di Intel. L'unica soluzione, manco a dirlo, è abbandonare le CPU e concentrarsi sulle GPU

Roma - La legge di Moore è morta, o meglio morirà senza il cambiamento radicale dell'intera industria dei computer che dovrà spostare il proprio focus dalle CPU alle GPU: questo è in sostanza il pensiero di William Dally, chief scientist e vic-presidente di NVIDIA che in un pezzo per Forbes celebra ancora una volta il funerale del discusso enunciato dato alle stampe dal co-fondatore di Intel Gordon Moore.

La "legge" di Moore dice che il numero di transistor contenuti in un processore raddoppia ogni 18 mesi insieme alle prestazioni, e da 45 anni l'enunciato resta valido e al passo dei tempi e dell'evoluzione tecnologica. Ma l'high-tech, si sa, è un settore costantemente proiettato un po' più in là nel futuro e la legge di Moore è già stata data per spacciata, superata o sopravvissuta in più occasioni del recente passato.

L'intervento di Dally si inserisce dunque in un carteggio già ricco, contribuendo alla perdurante discussione con l'innovativa ipotesi secondo cui la legge di Moore non sarebbe più valida se non si passasse a qualcosa di radicalmente diverso dai processori della famiglia x86(-64). E quel qualcosa, neanche a dirlo, sono le GPU (Graphic Processing Unit) per cui NVIDIA è famosa.
La tesi di Dally è che già oggi, nonostante Intel riesca a raddoppiare effettivamente le prestazioni dei suoi processori quasi ogni due anni, l'enunciato di Moore non sia più valido dal punto di vista formale. Moore aveva infatti previsto che al raddoppio dei transistor l'energia necessaria al funzionamento delle CPU si sarebbe ridotta, rimanendo quindi costante e offrendo nel contempo un livello prestazionale superiore.

"Ma in uno sviluppo che è stato largamente sottovalutato - dice Dally - questa riduzione dell'energia si è arrestata. E come risultato abbiamo che la miniaturizzazione delle CPU predetta dalla Legge di Moore è ora morta. Le performance delle CPU non raddoppiano più ogni 18 mesi". La soluzione al (presunto) problema del rallentamento prestazionale Dally dice di trovarsela in casa, ovverosia in quelle applicazioni di calcolo parallelo e GPU computing intorno a cui sono state modellate le ultime architetture di chip grafici NVIDIA.

"Realizzare un computer in calcolo parallelo connettendo da due a 12 CPU convenzionali ottimizzate per performance seriali - continua Dally - è un approccio che non funzionerà. Cavare fuori il parallel computing dall'esecuzione seriale delle istruzioni dei chip multi-core è un po' come provare a costruire un aeroplano mettendo le ali a un treno", esemplifica il manager.

"Il parallel computing è il solo modo che abbiamo di mantenere costante la crescita nelle performance dei computer che ha trasformato le industrie, le economie e lo stato sociale in tutto il mondo - conclude Dally - L'industria informatica deve raccogliere questa opportunità di evitare la stagnazione focalizzandosi sullo sviluppo software e il training sul computing massivo - non sulle CPU multi-core".

Oltre che a esigenze di marketing promozionale in favore della sua azienda, le affermazioni del vicepresidente NVIDIA rispondono ovviamente al clima poco amichevole esistente tra le due principali aziende del mercato PC oggi in attività: Intel ha denunciato NVIDIA per una questione di licenze sui chipset, e in tutta risposta NVIDIA ha contro-denunciato il suo storico partner adducendo motivazioni di concorrenza e politiche industriali scorrette. In quanto alla veridicità delle affermazioni sulla morte della legge di Moore, infine, le cose sembrano essere un po' più complesse e sfaccettate di quanto sostenga William Dally.

Alfonso Maruccia
Notizie collegate
  • TecnologiaNvidia: Intel ci ostracizza le GPUUn dirigente ha dichiarato che Santa Clara sta impedendo agli utenti di usare le GPU integrate prodotte dalla sua azienda. Tutte strategie per risolvere il contenzioso in corso in tribunale?
  • TecnologiaLa legge di Moore è viva e lotta insieme a noiL'assunto del fondatore di Intel rivive nell'integrazione di ogni tipo di funzione nel cuore della CPU. I system-on-chip terranno in piedi per qualche anno le previsioni di crescita della potenza di calcolo
  • TecnologiaProssimamente, oltre la Legge di MooreL'asserto del cofondatore di Intel non va in pensione. Forse era una previsione persino pessimistica. Nei laboratori scalpitano innovazioni e scoperte che fanno impallidire la tecnologia odierna dei semiconduttori
  • TecnologiaCinque anni e la legge di Moore sarà storiaIl founder di SanDisk non ha dubbi: tempo un lustro e la celebre massima del co-fondatore di Intel non potrà più essere applicata al mercato dei semiconduttori. Cosa c'è oltre Moore? Tante incognite e chip tridimensionali
  • TecnologiaMicrochip, ibrido è belloProseguono le ricerche per lo sviluppo di circuiti capaci di superare le limitazioni del semplice silicio. La tendenza del momento è la creazione di nuove architetture composte
6 Commenti alla Notizia NVIDIA contro la legge di Moore
Ordina
  • Quindi tra non molto si vedranno sistemi operativi che gireranno su schede video???? XD
    non+autenticato
  • - Scritto da: Caccola
    > Quindi tra non molto si vedranno sistemi
    > operativi che gireranno su schede video????
    > XD
    No.
    Le GPU sono SPECIALIZZATE per eseguire un determinato SOTTOINSIEME di istruzioni assemble, la loro potenza (delle GPU) deriva dal fatto che alcune operazioni (es: ativita' grafiche) sono altamente parallelizzabili, cioe' la STESSA operazione viene eseguita su dati diversi.
    La potenza delle GPU nasce dal fatto che hanno decine di centinaia - ed a volte migliaia - di PICCOLE e LENTE unita' di calcolo che pero' generano un "flusso di calcolo" molto piu' elevato di POCHE e VELOCI unita' di calcolo presenti nelle CPU.
    Per fare un paragone, una ATI RADEON ha 800 unita' di calcolo a 750Mhz, un Phenom2 a 4 core ha, 4 unita' di calcolo a 3Ghz.
    non+autenticato
  • Devo tradurre in italiano?A bocca aperta
    Funz
    13000
  • - Scritto da: Funz
    > Devo tradurre in italiano?A bocca aperta

    Però hanno ragione...oramai è evidente il limite dei processori attuali.

    Per raddoppiare le performance non fanno un chip più veloce, semplicemente aggiungono un altro core...ed ecco che vediamo due core, tre core, quattro, sei...ma il processore in sè non fornisce chissà quanto in più.

    C'è da considerare, come giustamente dice simply nel suo commento, che i consumi e il calore generato sono incredibilmente alti, soprattutto per un portatile.
    I PC moderni consumano sempre di più e richiedono sistemi di raffreddamento sempre più grossi e rumorosi...a me sembra che stiamo retrocedendo, piuttosto che avanzare.
    -----------------------------------------------------------
    Modificato dall' autore il 05 maggio 2010 11.16
    -----------------------------------------------------------
  • - Scritto da: DarkOne
    > - Scritto da: Funz
    > > Devo tradurre in italiano?A bocca aperta
    >
    > Però hanno ragione...oramai è evidente il limite
    > dei processori
    > attuali.
    >
    > Per raddoppiare le performance non fanno un chip
    > più veloce, semplicemente aggiungono un altro
    > core...ed ecco che vediamo due core, tre core,
    > quattro, sei...ma il processore in sè non
    > fornisce chissà quanto in
    > più.
    >
    > C'è da considerare, come giustamente dice simply
    > nel suo commento, che i consumi e il calore
    > generato sono incredibilmente alti, soprattutto
    > per un
    > portatile.
    > I PC moderni consumano sempre di più e richiedono
    > sistemi di raffreddamento sempre più grossi e
    > rumorosi...a me sembra che stiamo retrocedendo,
    > piuttosto che
    > avanzare.

    checché ne dica Intel la legge di moore non viene rispettata, perché al raddoppio del numero di transistor non corrisponde un raddoppio delle prestazioni, per lo meno non delle prestazioni "sul campo".
    poi qui non si tratta più di aumentare il clock, come si aumentano i cavalli di una macchina, bensì di sfruttare al meglio il multicore. è evidente che il futuro sta nel calcolo parallelo, e quindi anche nel GPGPU computing, visto che le GPU sfruttano il multicore e il parallelismo da molto tempo...
    non+autenticato
  • bisogna iniziare a prender seriamente in considerazione la questione dei consumi e del riscaldamento dei processori. avere nel PC un processore che consuma da solo come un LCD da 40 pollici e scalda fino a 105° dà l'idea che bisogna rivedere qualcosa...
    non+autenticato