Alfonso Maruccia

Legge di Moore defunta in 10 anni

Ennesimo rintocco per le campane a morto sulla chiacchierata "legge" che ha governato lo sviluppo tecnologico dei microchip. Sarà impossibile andare oltre il 2022: parola di Robert Colwell

Legge di Moore defunta in 10 anniRoma - L'enunciato sul raddoppio di transistor (e di prestazioni) integrati nei microprocessori ogni due anni circa, noto come "legge" di Moore, è già stato dichiarato morto, pensionando e insostenibile più e più volte, ma quando al coro lamentoso si unisce qualcuno come Robert Colwell le infauste previsioni sulla suddetta legge acquistano una qualità tutta particolare. E si fanno molto più concrete.

robert colwellColwell è attualmente impegnato come direttore del programma Microsystems Technology Office presso l'agenzia DARPA, ma la sua carriera lavorativa l'ha passata tutta con Intel dirigendo - fino al raggiungimento della pensione al volgere del millennio - i lavori sulle storiche architetture delle CPU Pentium Pro, Pentium II, Pentium III e Pentium 4.

L'ingegnere elettronico sa di cosa parla, insomma, quando parla di legge di Moore e problematiche connesse: nelle sue previsioni, il raddoppio di transistor e prestazioni all'interno di una CPU si arresterà definitivamente entro il 2020 - al massimo 2022, quando l'evoluzione tecnologica dei processi CMOS avrà raggiunto il nodo produttivo da 7-5 nanometri.
Il "papà" del Pentium Pro interviene alla conferenza Hot Chips di Palo Alto, in California, per descrivere lo scenario cupo che a suo dire attende i progettisti di IC e designer di CPU ad altissimo livello di sofisticazione: la legge di Moore ha rappresentato una crescita "esponenziale" che ha portato a un incremento delle velocità, in 30 anni, di 3.500 volte - dal megahertz scarso del processore 4004 di Intel fino ai 5GHz raggiunti dalle CPU moderne (non necessariamente basate su set di istruzioni x86/x86-64).

Per sua natura, spiega Colwell, una crescita di tipo esponenziale non può andare avanti all'infinito e quella della legge di Moore finirà da qui a una decina di anni scarsi. I miglioramenti architetturali delle CPU hanno in questi anni contribuito allo sviluppo delle CPU con una crescita di 50 volte, dice l'ingegnere, e nei prossimi 30 anni (da oggi) sarà questo il livello di incremento prestazionale complessivo macinabile dalle complesse e costosissime "fab" produttive di Intel e degli altri colossi del settore IC.

Più che lo sviluppo tecnologico e la necessità di individuare soluzioni alternative ai processi CMOS basati sul silicio, spiega ancora Colwell - e DARPA e in tal senso alla ricerca di dette alternative - a far estinguere l'enunciato di Moore saranno le leggi economiche: a Intel non converrà più investire miliardi di dollari su una rincorsa alle performance e ai design multi-core spinti capace di offrire miglioramenti tangibili - e "vendibili" agli acquirenti finali - enormemente più contenuti che in passato.

Alfonso Maruccia

fonte immagine
Notizie collegate
  • TecnologiaLegge di Moore, arriva la pensioneIl celebre enunciato del fondatore di Intel sarebbe in via di pensionamento, annuncia AMD: per passare a un nuovo processo produttivo occorrerà più tempo del previsto, e quello è l'inizio della fine
28 Commenti alla Notizia Legge di Moore defunta in 10 anni
Ordina
  • ...serve avere una "legge" su questo argomento?
    Penso che non importi a nessuno, a priori, se ogni 2 anni i chip raddoppiano in numero i suoi transistor. Al massimo può interessare a chi li produce, non di certo a chi li compra e/o li usa.

    E scommetto che c'è pure qualcuno che perde tempo a dibattere su questa "legge", hahahahaha
    non+autenticato
  • ...la legge di Moore non è mai stata da considerare come verità assoluta:
    è solo una media statistica sull'incremento della complessità dei processori ed è stata fatta in una fase di sviluppo tecnologico.

    Detto ciò non è nemmeno vero che il numero di transistor equivalga necessariamente a maggior potenza:
    ci sono da considerare componenti molto complesse da ottimizzare come la coda dei processi,gestione cache interna oltre a delle funzioni native che possono ottimizzare notevolmente le performance(vedi SSE,etc).

    Ovviamente tutti si sono accorti che la legge di moore stà andando sempre più a scontrarsi verso un "muro" tecnico visto che diventa sempre più difficile miniaturizzare i processi produttivi per ragioni tecniche (si dovrà prima o poi arrivare all'atomo e sotto quello non si può costruire ovviamente);
    la vera rincorsa a quel punto sarà nella ricerca di nuovi processi produttivi (es. processori "3d") o nuove tecnologie per ottimizzare il calcolo(vedesi gpgpu che, seppur non potendo sostituire il normale computing, offre prestazioni in virgola mobile di svariate unità superiori a una normale cpu)
    non+autenticato
  • Vogliamo il quantum computing!
    non+autenticato
  • Manca poco, ma anche no.
    non+autenticato
  • Se io raddoppio, ad esempio, la velocità, significa che dimezzo il tempo necessario per svolgere un dato compito. Ma questo significa anche che, pur potendo in linea teorica andare avanti all'infinito, dopo un po' non mi serve più.

    Se per eseguire un certo programma con una elaborazione molto complessa un computer impiega 4 ore, e quello nuovo ne impiega 2, mi conviene cambiare computer: risparmio 2 ore ogni volta. Il modello successivo, a velocità ancora doppia, fa il lavoro in un'ora... quindi risparmio solo più un'ora. Poi... ci riuscirà in mezz'ora, in un quarto d'ora, in 8 miniti, in 4, in 2, in 1, in 30 secondi... quando ho un computer che mi completa l'elaborazione (che in origine richiedeva 4 ore, non dimentichiamolo) in 30 secondi, perchè mai dovrei cambiarlo con uno che impiega la metà del tempo? Ne vale la pena, per una differenza di 15 secondi?
    non+autenticato
  • Beh, potrei volerlo cambiare per poter eseguire in 1 ora una elaborazione che in origine mi avrebbe richiesto 512 ore e che quindi non avevo nemmeno preso in considerazione (ad esempio il rendering fotografico di una scena di interni).
    In altre parole, può non servire quasi mai velocizzare oltre un certo limite dei compiti specifici, ma si può avere la necessità o l'opportunità di eseguirne di nuovi, prima troppo complessi
  • - Scritto da: cicciobello
    > Se io raddoppio, ad esempio, la velocità,
    > significa che dimezzo il tempo necessario per
    > svolgere un dato compito. Ma questo significa
    > anche che, pur potendo in linea teorica andare
    > avanti all'infinito, dopo un po' non mi serve
    > più.
    >
    > Se per eseguire un certo programma con una
    > elaborazione molto complessa un computer impiega
    > 4 ore, e quello nuovo ne impiega 2, mi conviene
    > cambiare computer: risparmio 2 ore ogni volta. Il
    > modello successivo, a velocità ancora doppia, fa
    > il lavoro in un'ora... quindi risparmio solo più
    > un'ora. Poi... ci riuscirà in mezz'ora, in un
    > quarto d'ora, in 8 miniti, in 4, in 2, in 1, in
    > 30 secondi... quando ho un computer che mi
    > completa l'elaborazione (che in origine
    > richiedeva 4 ore, non dimentichiamolo) in 30
    > secondi, perchè mai dovrei cambiarlo con uno che
    > impiega la metà del tempo? Ne vale la pena, per
    > una differenza di 15
    > secondi?
    Però potresti, per esempio, cominciare a svolgere tanti compiti contemporaneamente, invece che uno solo.
    non+autenticato
  • Il tuo ragonamento ha un vizio: parti dal presupposto di dover svolgere sempre lo stesso compito.
    non+autenticato
  • > perchè mai dovrei cambiarlo con uno che
    > impiega la metà del tempo?

    Perchè si potrebbero aprire nuove necessità.
    Ad esempio, prendi il caso dei pc frà gli anni '80 e '90.
    A quel tempo l'incremento prestazionale, è servita per i nuovi sistemi operativi e applicazioni che usavano una gui al posto dell'interfaccia carattere.
    Dagli anni '90 ai 2000, le maggiori prestazioni sono servite a sviluppare il multimedia.
    Dal 2000 ad oggi, oltre al multimedia in HD, le prestazioni son servite per la virtualizzazione degli ambienti server e così via.
    Ci possono essere altri ambiti, che ne so, ambienti 3D, studi di fluidodinamica, etc.etc. che richiedono grandi potenze di calcolo e che magari potrebbero avere sbocchi agli utenti normali, che quindi gioverebbero dall'avere macchine più prestanti...
    ... d'altronde una volta qualcuno non andava affermando che con 16 bit e 640 Kbyte di ram si faceva tutto A bocca aperta ?
    non+autenticato
  • > Dal 2000 ad oggi, oltre al multimedia in HD, le
    > prestazioni son servite per la virtualizzazione
    > degli ambienti server e così
    > via.

    Virtualizzazione? Cioè per far girare un emulatore di un sistema più vecchio, in pratica?
    non+autenticato
  • - Scritto da: cicciobello

    > Virtualizzazione? Cioè per far girare un
    > emulatore di un sistema più vecchio, in
    > pratica?

    Piuttosto sfruttare la potenza sovrabbondante dei sistemi e risparmiare. Il che porta alla conclusione che il driver principale non è maggiori capacità per nuovi compiti.
    non+autenticato
  • > Piuttosto sfruttare la potenza sovrabbondante dei
    > sistemi e risparmiare.

    Ecco la parola magica: sovrabbondante! Se è già sovrabbondante, vale la pena di potenziarlo ulteriormente? I vantaggi giustificano gli investimenti necessari per raddoppiare ancora la potenza?
    non+autenticato
CONTINUA A LEGGERE I COMMENTI
Successiva
(pagina 1/2 - 6 discussioni)