Alfonso Maruccia

Legge di Moore, la fine di un'era

La fine della validità dello storico enunciato si avvicina, e le ragioni saranno economiche prima che tecnologiche. L'industria si prepara al cambio di paradigma, concentrata su cloud, gadget mobile e IoT

Roma - Che la cosiddetta "legge di Moore" non avrebbe visto i prossimi 10 anni lo aveva assicurato già lo stesso Gordon Moore, il co-fondatore di Intel che quasi 50 anni fa aveva pubblicato uno studio poi adottato come "enunciato" valido a prescindere dall'industria dei microchip. Ma presto sarà proprio l'industria ad abbandonare la legge di Moore, concentrandosi piuttosto sui nuovi orizzonti tecnologici e di marketing del cloud, del mobile e dei gadget iper-connessi della Internet delle Cose (IoT).

La legge di Moore sancisce che il numero di transistor in un microchip raddoppia ogni due anni circa, con un incremento proporzionale nelle performance raggiungibili, nel risparmio dei costi e nella riduzione dell'energia necessaria al funzionamento delle CPU al silicio. Intel è stata fin qui la prima promotrice della validità dell'enunciato, anche grazie a investimenti multi-miliardari sui processi produttivi all'avanguardia in anticipo sul mercato e alle corrispondenti "fab" necessarie alla realizzazione dei chip.

La cosiddetta legge di Moore è stata fin qui una profezia che si è avverata da sola, sostiene un nuovo articolo su Nature, perché è stata la stessa industria a decidere di insistere con il raddoppio dei transistor ogni due anni investendo in ricerca e sviluppo per raggiungere il comune obiettivo del progresso senza fine.
Il prossimo mese, l'industria dei microchip pubblicherà una roadmap globale che per la prima volta non insiste sulla legge di Moore, concentrandosi piuttosto su nuovi scenari di sviluppo più orientati alla realtà odierna degli smartphone, del marketing tamburellante del cloud e delle promesse dei sensori onnipresenti della IoT.

La nuova roadmap passerà dall'hardware alle applicazioni, dicono le indiscrezioni, adeguandosi a un mondo che apparentemente non vuole più sentir parlare di CPU per computer super-veloci quanto piuttosto di browser Web e terminali mobile per server remoti, risorse di computing disponibili in abbonamento sul cloud e altre novità dell'ultima ora.

La legge di Moore morirà per ragioni economiche prima che tecnologiche, perché l'enunciato è stato fin qui mantenuto in vita dall'economia di scala di un'industria in costante trasformazione.

Alfonso Maruccia
Notizie collegate
79 Commenti alla Notizia Legge di Moore, la fine di un'era
Ordina
  • cloud e sistemi globalmente paralleli verso intelligenza locale.
    dovendo fare una scelta di cuore non credo ci siano dubbi.

    non sra che il controllo monopolistico che sta crescendo sta pilotando verso questa direzione per interesse appunto privato piu che per effettivo migliore soluzione tecnologica?
    non+autenticato
  • Si è quello..
    non+autenticato
  • Intel ha sempre spinto sull'acceleratore dei nanometri e questo l'ha salvata quando in commercio c'erano chip più efficient come design, ora che AMD sta con l'acqua alla gola e IBM pensa solo ai server Intel sta tirando il fiato. Ma così gli altri possono recuperare terreno. Già la generazione 2016 dei vari ARM potrebbe essere messa su qualcosa di più di un Raspberry PI o di un Odroid. In un paio di generazioni potrebbere iniziare a dargli fastidio nel settore PC.
    non+autenticato
  • Non credo proprio, anche perché di questo passo ARM sarà la prima ad essere colpita, quindi è un problema che riguarderà anche lei.
    non+autenticato
  • "cloud, gadget mobile e IoT"
    allora la cosa migliore che possono fare è di laciare la sabbia lì dove si trova ... è molto più utile!A bocca aperta
    non+autenticato
  • - Scritto da: prova123
    > "cloud, gadget mobile e IoT"
    > allora la cosa migliore che possono fare è di
    > laciare la sabbia lì dove si trova ... è molto
    > più utile!
    >A bocca aperta

    La fuffa è molto meno costosa e più redditiziaFicoso
    non+autenticato
  • - Scritto da: prova123
    > "cloud, gadget mobile e IoT"
    > allora la cosa migliore che possono fare è di
    > laciare la sabbia lì dove si trova ... è molto
    > più utile!
    >A bocca aperta

    Condivido: se i presupposti sono questi smetterò di interessarmi di informatica (anzi, di Informatica), non voglo assistere a questa involuzione.
  • - Scritto da: rockroll
    > - Scritto da: prova123
    > > "cloud, gadget mobile e IoT"
    > > allora la cosa migliore che possono fare è di
    > > laciare la sabbia lì dove si trova ... è molto
    > > più utile!
    > >A bocca aperta
    >
    > Condivido: se i presupposti sono questi smetterò
    > di interessarmi di informatica (anzi, di
    > I nformatica), non voglo assistere a questa
    > involuzione.
    >

    L'informatica evolve e questa è la direzione, client mobile e server.
    Chi si ferma è perduto.
    non+autenticato
  • quersta e' la direzione che il grande fratello sta prendendo. assolutamente vero
    non+autenticato
  • - Scritto da: Mario
    > - Scritto da: rockroll
    > > - Scritto da: prova123
    > > > "cloud, gadget mobile e IoT"
    >

    >
    > > > allora la cosa migliore che possono
    > fare è
    > di
    > > > laciare la sabbia lì dove si trova ...
    > è
    > molto
    > > > più utile!
    > > >A bocca aperta
    > >
    > > Condivido: se i presupposti sono questi
    > smetterò
    > > di interessarmi di informatica (anzi, di
    > > I nformatica), non
    > voglo assistere a
    > questa
    > > involuzione.
    > >
    >
    > L'informatica evolve e questa è la direzione,
    > client mobile e server.
    >
    > Chi si ferma è perduto.

    Come se voi con facebukk vi siete mai evoluti! Ha dimenticavo si, voi siete gente all'avanguardia. Come no.
    non+autenticato
  • Oggi si parla di un limite quando saremmo arrivati verso i 7nm , anche se TSMC ha dichiarato che arriverà verso i 7-8 nm vero la fine del 2016-2017 e 5nm verso il 2020, oltre quello a meno di una tecnologia rivoluzionaria non si andrà. Intel e AMD per esempio hanno detto che si spingeranno molto sull'efficienza energetica, quindi anche se non usciranno CPU dalla forza bruta mostruosa almeno caleranno i consumi, per il resto ci si spingerà verso una maggiore efficienza computazionale ,un più alto IPC e altre cosette di contorno.

    Poi comunque per quanto riguarda il computer completo non è l'unica via, ci sono molti miglioramenti anche per SSD, RAM, nuove connessione,ecc.

    Da un lato non è che è una cattiva notizia, quantomeno arrivati a quel punto magari si realizzeranno programmi più efficienti come avveniva una volta.
    non+autenticato
  • Speriamo non salgano ancora di frequenza col WiFi.

    Nessuno sente acufeni nelle orecchie quando vive in città e ha una decina di access point nelle vicinanze che gli entrano in casa?

    Io quando spengo il wifi del mio router sento ronzare le orecchie circa il 40% in meno.

    Nessuno si è mai accorto?
    Non son solo io perché diversi amici ed amiche hanno le stesse sensazioni specie da quando si va a 2,5 e 5Ghz e i +150Mbit/s
    iRoby
    6605
  • Come le scie chimiche vegane ?
  • eh si sono proprio delle invenzioni guardaA bocca aperta
    non+autenticato
  • - Scritto da: Etype
    > eh si sono proprio delle invenzioni guardaA bocca aperta

    Bhè le scie chimiche non sono "provate".
  • NoooooooooA bocca aperta
    non+autenticato
  • - Scritto da: iRoby
    > Speriamo non salgano ancora di frequenza col WiFi.
    >
    > Nessuno sente acufeni nelle orecchie quando vive
    > in città e ha una decina di access point nelle
    > vicinanze che gli entrano in
    > casa?
    I pipistrelli?A bocca aperta
    non+autenticato
  • - Scritto da: iRoby
    > Speriamo non salgano ancora di frequenza col WiFi.

    Invece credo proprio di si.

    > Nessuno sente acufeni nelle orecchie quando vive
    > in città e ha una decina di access point nelle
    > vicinanze che gli entrano in
    > casa?

    Di sicuro non è sano

    > Io quando spengo il wifi del mio router sento
    > ronzare le orecchie circa il 40% in
    > meno.
    >
    > Nessuno si è mai accorto?
    > Non son solo io perché diversi amici ed amiche
    > hanno le stesse sensazioni specie da quando si va
    > a 2,5 e 5Ghz e i
    > +150Mbit/s

    So che ci sono persone più sensibili di altre, per esempio mi ricordo di una signora che al tempo degli schermi CRT aveva seri problemi...
    non+autenticato
  • Refresh 60 Hz ?
  • Non era quello, se non ricordo male era dei Paesi nordici e lavorava in ufficio, stava male fisicamente
    non+autenticato
  • - Scritto da: Etype
    > Non era quello, se non ricordo male era dei Paesi
    > nordici e lavorava in ufficio, stava male
    > fisicamente

    Ah sì, pure Charles "Chuck" McGill (il fratello di Saul Goodman) ha lo stesso problema.
    Prozac
    4978
  • La legge di Moore non è più valida solo per chi vede l'evoluzione come un progresso continuo.
    In realtà l'evoluzione, sia biologica che tecnologica, procede a salti: scommettiamo che il chip quantistico oppure ottico zittirà quelli che dicono "Non c'è più margine per la potenza".
    Che poi alcuni software "moderni" girano bene su PC di venti o trent'anni fa, nessun dubbio: rivolgersi a Linux, per questo.
    Inoltre puoi avere il 4G, 5G o tutta connesione che vuoi, se il processore non regge avrai comunque un dispositivo LENTO.
    non+autenticato
  • Progresso, ma anche periodi di "regresso".

    Amiga fu progresso, coprocessori dedicati che sgravavano la CPU da molti lavori, lasciandola libera del solo compito di calcolo.

    Col PC si tornò a case vuoti da riempire con schede collegate da un bus dati connesso direttamente alla CPU. Niente DMA o comunque opzione molto castrata da parte dei coprocessori sugli slot.
    Niente software che li sfruttava a dovere.

    Oggi non è cambiato tantissimo... E possiamo anche sprecare le risorse.

    Si sta abbandonando la potenza pura per il risparmio energetico.

    Io sono d'accordo, e avere la potenza per fare tutto, in computer di 13x13cm come il NUC e spesso anche senza parti meccaniche, è un punto a favore della miniaturizzazione e l'efficienza.
    iRoby
    6605
  • Si dovrebbe lavorare molto sulle schede video, che sono oggi dei mostri di dimensioni e di calore.
  • - Scritto da: Sg@bbio
    > Si dovrebbe lavorare molto sulle schede video,
    > che sono oggi dei mostri di dimensioni e di
    > calore.

    A che scopo, per giocare?

    Le SK video discrete sono diventate dei mostri inutili, ne hai d'avanzo di un'integrata se non giochi, basta che sia stutturata per servire le elaborazioni parallele eventualmente richieste dalla CPU.
  • - Scritto da: rockroll
    > - Scritto da: Sg@bbio
    > > Si dovrebbe lavorare molto sulle schede video,
    > > che sono oggi dei mostri di dimensioni e di
    > > calore.
    >
    > A che scopo, per giocare?

    Sì, più o meno, serviranno schede video 10 volte più potenti di quelle attuali solo per portare la realtà virtuale ai livelli a cui oggi siamo abituati con i videogiochi, che sono realistici ma nemmeno troppo. La VR sarà centrale nei prossimi anni (anche perché qualcosa bisogna vendere... Telefonini? Tablet? Tutta roba al capolinea)
  • Specchietti per allodole, le schede video che ci sono oggi sono già abbastanza potenti, meglio puntare su linguaggi di programmazione più efficienti che schede video che consumano più di un intero PC.
    non+autenticato
  • - Scritto da: Etype
    > Specchietti per allodole, le schede video che ci
    > sono oggi sono già abbastanza potenti, meglio
    > puntare su linguaggi di programmazione più
    > efficienti che schede video che consumano più di
    > un intero PC.

    E chi spenderebbe 300 euro per un singolo videogioco scritto interamente in assembly? Soprattutto se all'atto pratico saltasse fuori che i colli di bottiglia sono gli stessi, perché i punti critici sono già ottimizzati oggi.
    Io vedo dei miglioramenti strepitosi in tempi brevi. Ho ripreso in mano Dishonored per giocare con i DLC che ho acquistato, e ho scoperto che la grafica sembra roba di dieci anni fa, se lo confronto con Far Cry 4.
    Certo, le schede grafiche di oggi vanno bene per gestire i videogiochi di oggi. Con le prossime generazioni si potrà gestire roba ancora più spettacolare.
    Necessario? No, si parla di giochi. Peccato che l'aggettivo "superfluo" si applichi anche al 90% di ciò che facciamo o possediamo, quindi io investo con gioia in hardware videoludico perché ciò che ne traggo mi ripaga ampiamente della spesa. Se per altri non è così, faranno a meno di aggiornare il loro sistema, che problema c'è? È il bello di poter scegliereSorride
    Izio01
    3808
  • - Scritto da: Izio01

    > E chi spenderebbe 300 euro per un singolo
    > videogioco scritto interamente in assembly?

    Chi ha detto che devi prendere l'assembly ?

    Mi pare che OpenGL (o una sua alternativa futura) sia più efficiente di DX ,Ms è uscita dal letargo solo dopo che AMD era uscita con Mantle.
    Quindi si possono avere miglioramenti senza aumenti spaventosi di hardware, l'importante è scegliere una strada che ti darà i maggiori benefici possibili.

    > Soprattutto se all'atto pratico saltasse fuori
    > che i colli di bottiglia sono gli stessi, perché
    > i punti critici sono già ottimizzati
    > oggi.

    Non credo, puoi sempre implementare tecnologie software più performanti e più a stretto contatto con l'hardware che hai già in possesso.

    > Certo, le schede grafiche di oggi vanno bene per
    > gestire i videogiochi di oggi. Con le prossime
    > generazioni si potrà gestire roba ancora più
    > spettacolare.

    Siamo già sullo spettacolare,se ti adagi sul fatto che tanto puoi contare su una GPU mostruosa creerai una softwate bloatware ed inefficiente.

    > Necessario? No, si parla di giochi. Peccato che
    > l'aggettivo "superfluo" si applichi anche al 90%
    > di ciò che facciamo o possediamo, quindi io
    > investo con gioia in hardware videoludico perché
    > ciò che ne traggo mi ripaga ampiamente della
    > spesa.

    Si ma non farti diventare obsoleta la tua GPU in breve tempo.

    > Se per altri non è così, faranno a meno di
    > aggiornare il loro sistema, che problema c'è?
    > È il bello di poter scegliere
    >Sorride

    Il problema è che dovrai gettare periodicamente la tua GPU ed il resto perché i suddetti giochi richiedono sempre più potenza hardware, inquinerai anche di più. Il software invece lo puoi modificare tantissime volte senza produrre sprechi.
    non+autenticato
  • - Scritto da: Etype
    > - Scritto da: Izio01
    >
    > > E chi spenderebbe 300 euro per un singolo
    > > videogioco scritto interamente in assembly?
    >
    > Chi ha detto che devi prendere l'assembly ?
    >
    > Mi pare che OpenGL (o una sua alternativa futura)
    > sia più efficiente di DX ,Ms è uscita dal letargo
    > solo dopo che AMD era uscita con Mantle.
    > Quindi si possono avere miglioramenti senza
    > aumenti spaventosi di hardware, l'importante è
    > scegliere una strada che ti darà i maggiori
    > benefici possibili.
    >

    Tutto molto ipotetico. Soprattutto, occorre capire se questi presunti miglioramenti possano essere del 50%, del 5% o dello 0,5%.

    > > Soprattutto se all'atto pratico saltasse
    > fuori
    > > che i colli di bottiglia sono gli stessi,
    > perché
    > > i punti critici sono già ottimizzati
    > > oggi.
    >
    > Non credo, puoi sempre implementare tecnologie
    > software più performanti e più a stretto contatto
    > con l'hardware che hai già in possesso.
    >

    Più a stretto contatto con l'hardware vai, più costa sviluppare il software. In assenza di uno strato di astrazione e dovendo interfacciare direttamente ogni possibile scheda grafica che vuoi gestire, il costo diventa proibitivo.
    Scendere più a basso livello di DirectX con API semi-native ma pur sempre flessibili, tipo Mantle, è invece una cosa che mi ispira. Tanti anni fa, i giochi che usavano Glide andavano nettamente meglio di quelli che usavano Direct3D.

    > > Certo, le schede grafiche di oggi vanno bene
    > per
    > > gestire i videogiochi di oggi. Con le
    > prossime
    > > generazioni si potrà gestire roba ancora più
    > > spettacolare.
    >
    > Siamo già sullo spettacolare,se ti adagi sul
    > fatto che tanto puoi contare su una GPU mostruosa
    > creerai una softwate bloatware ed
    > inefficiente.
    >

    No, puoi creare un gioco altrettanto efficiente, che quindi è più spettacolare. Nota che più spettacolare non vuol dire automaticamente migliore, ma personalmente apprezzo i miglioramenti progressivi che ho visto dai tempi degli 8 bit.

    > > Necessario? No, si parla di giochi. Peccato
    > che
    > > l'aggettivo "superfluo" si applichi anche al
    > 90%
    > > di ciò che facciamo o possediamo, quindi io
    > > investo con gioia in hardware videoludico
    > perché
    > > ciò che ne traggo mi ripaga ampiamente della
    > > spesa.
    >
    > Si ma non farti diventare obsoleta la tua GPU in
    > breve tempo.
    >

    Basta abbassare un po' i vari effetti speciali, basta giocare con un monitor 1680x1050, e sospetto che una "vecchia" GTX 570 sia ancora perfettamente in grado di far girare la maggior parte dei giochi odierni.
    Finché questa obsolescenza porta a differenze come quelle tra Dishonored e Far Cry 4, io sono contento di aggiornare.

    > > Se per altri non è così, faranno a meno di
    > > aggiornare il loro sistema, che problema c'è?
    > > È il bello di poter scegliere
    > >Sorride
    >
    > Il problema è che dovrai gettare periodicamente
    > la tua GPU ed il resto perché i suddetti giochi
    > richiedono sempre più potenza hardware,
    > inquinerai anche di più. Il software invece lo
    > puoi modificare tantissime volte senza produrre
    > sprechi.

    Gettare? Più probabilmente rivendere, a chi è contento di giocare titoli di un paio d'anni prima. Se vogliamo vedere l'inquinamento, credo che i videogiochi siano ancora un passatempo molto pulito, se confrontato a tutto ciò che implica andare in giro in veicoli a motore (non parliamo poi di aeroplani!). Tutto considerato, credo di inquinare meno della media, lo vedo anche dalle bollette moderate.
    Izio01
    3808
  • - Scritto da: Izio01

    > Tutto molto ipotetico. Soprattutto, occorre
    > capire se questi presunti miglioramenti possano
    > essere del 50%, del 5% o dello
    > 0,5%.

    Fossero anche del 20% ti converrebbe comunque.

    > Più a stretto contatto con l'hardware vai, più
    > costa sviluppare il software. In assenza di uno
    > strato di astrazione e dovendo interfacciare
    > direttamente ogni possibile scheda grafica che
    > vuoi gestire, il costo diventa
    > proibitivo.
    > Scendere più a basso livello di DirectX con API
    > semi-native ma pur sempre flessibili, tipo
    > Mantle, è invece una cosa che mi ispira. Tanti
    > anni fa, i giochi che usavano Glide andavano
    > nettamente meglio di quelli che usavano
    > Direct3D.

    Non è che le GPU te le regalino eh, poi così è anche un modo per avere più software di qualità ottimizzato che scrivere un bloatware perché tanto c'è la potenza bruta dell'hardware che ti para il deretano.

    > No, puoi creare un gioco altrettanto efficiente,
    > che quindi è più spettacolare. Nota che più
    > spettacolare non vuol dire automaticamente
    > migliore, ma personalmente apprezzo i
    > miglioramenti progressivi che ho visto dai tempi
    > degli 8
    > bit.

    Io tendo sempre ad eliminare il superfluo e i miglioramenti impercettibili, specie in una fase concitata di un videogioco che difficilmente uno può apprezzare.

    > Basta abbassare un po' i vari effetti speciali,
    > basta giocare con un monitor 1680x1050, e
    > sospetto che una "vecchia" GTX 570 sia ancora
    > perfettamente in grado di far girare la maggior
    > parte dei giochi
    > odierni.
    > Finché questa obsolescenza porta a differenze
    > come quelle tra Dishonored e Far Cry 4, io sono
    > contento di
    > aggiornare.

    Dipende sempre dal titolo, su alcuni se non hai un hardware moderno non vai.

    > Gettare? Più probabilmente rivendere, a chi è
    > contento di giocare titoli di un paio d'anni
    > prima. Se vogliamo vedere l'inquinamento, credo
    > che i videogiochi siano ancora un passatempo
    > molto pulito, se confrontato a tutto ciò che
    > implica andare in giro in veicoli a motore (non
    > parliamo poi di aeroplani!). Tutto considerato,
    > credo di inquinare meno della media, lo vedo
    > anche dalle bollette
    > moderate.

    Chi ti comprerà mai un scheda di 5 anni fa ? Anche se sei fortunato ci hai perso una parte del denaro.
    Credo che la maggiore fonte di inquinamento sia dovuto a smartphone e tablet, visto che non puoi aggiornare l'interno e sono anche assai poco riparabili.
    non+autenticato
  • - Scritto da: Etype
    > - Scritto da: Izio01

    > Fossero anche del 20% ti converrebbe comunque.

    Se chi sviluppa un gioco sapesse come farlo andare il 20% più veloce lo farebbe senza bisogno del tuo suggerimento, non trovi? Non è che se tu gli dici "ottimizzare" loro ti rispondono "genio, non ci avevamo pensato". Molti giochi si suppone avranno un boost del 20% passando alle DirectX 12, solo che devi farli funzionare prima, e pare non sia semplice, tutto deve adeguarsi, il software, le librerie, i driver, ma lo faranno, senza bisogno che qualcuno glielo ricordi.

    Detto questo... Che me ne faccio del 20% se mi servono 180fps costanti con 20ms di latenza quando ne faccio 30, non sempre costanti, e con la latenza che fa quello che le pare? (ARK Survival - GTX 980 - I5 4Ghz ... questo è il mio sistema e quelle sopra le prestazioni che faccio e quelle che invece dovrei fare per usarlo con un visore VR )
CONTINUA A LEGGERE I COMMENTI
Successiva
(pagina 1/2 - 8 discussioni)