Alfonso Maruccia

Intel, addio al tick-tock

Il maggior produttore di chip al mondo riconosce ufficialmente di non poter più procedere agli stessi ritmi in fatto di evoluzione tecnologica dei processi produttivi. Il "vantaggio competitivo" continuerà a sussistere in ogni caso

Roma - In occasione del suo ultimo rapporto alla SEC (Securities and Exchange Commission) americana, Intel Corporation ha messo nero su bianco quello che molti vanno sostenendo già da tempo: i ritmi di evoluzione dei processi produttivi per i chip dovranno necessariamente rilassarsi, perché la miniaturizzazione si è spinta in territori difficili da controllare o anche da sfruttare a livello industriale.

Muore ufficialmente il processo "tick-tock" di Intel, ovverosia l'alternarsi dell'introduzione di un nuovo processo produttivo ("tick") e una nuova architettura di processore ("tock") a cadenze regolari, e con esso viene definitivamente pensionata la legge di Moore.

Intel ammette di avere difficoltà significative a passare alla produzione di transistor da 10 nanometri, e di voler continuare a utilizzare l'attuale processo a 14nm su un periodo temporale più lungo come già era emerso dalla presentazione di Kaby Lake. Lo stesso varrà per il futuro e per i 10nm, quando verranno finalmente completati.
Il focus di Chipzilla si sposterà piuttosto sulla "ottimizzazione" dei processi produttivi, così come verranno ancora rispettate le cadenze annuali per la distribuzione di nuove CPU. Il processo tick-tock verrà quindi sostituito da una nuova convenzione chiamata "process, architecture, optimization (PAO)".

Quello che non cambierà, almeno a sentire Intel, è il vantaggio competitivo del produttore americano sul resto del mondo: i costi per realizzare le strutture necessarie per la miniaturizzazione spinta dei transistor aumenteranno notevolmente, dice Intel, e solo pochi produttori al mondo potranno permettersi di investire le risorse necessarie.

Alfonso Maruccia
Notizie collegate
  • BusinessIntel si trasforma, in attesa dei 10nmChipzilla comunica i risultati finanziari per il secondo trimestre dell'anno, numeri superiori alle aspettative nonostante le geremiadi del mercato PC. Windows 10 favorirà la ripresa, dice il CEO, mentre la miniaturizzazione rallenta
  • TecnologiaLegge di Moore, la fine di un'eraLa fine della validità dello storico enunciato si avvicina, e le ragioni saranno economiche prima che tecnologiche. L'industria si prepara al cambio di paradigma, concentrata su cloud, gadget mobile e IoT
23 Commenti alla Notizia Intel, addio al tick-tock
Ordina
  • "Quello che non cambierà, almeno a sentire Intel, è il vantaggio competitivo del produttore americano sul resto del mondo"

    questa è una amena corbelleria: se Intel sta ferma a 14 nm lungo e AMD riesce finalmente a scendere a 14 nm potrebbe colmare un gap che fa delle sue CPU un prodotto meno attraente per il calore dissipato.
    Una CPU AMD con grafica integrata e scala a 14 nm sarebbe un prodotto molto interessante e competitivo visto che la GPU sarebbe superiore, e il consumo energetico confrontabile. Poco importerebbe a quel punto se l'unita FP desse ancora poco vantaggio alla Intel.
    non+autenticato
  • - Scritto da: TRex
    > "Quello che non cambierà, almeno a sentire Intel,
    > è il vantaggio competitivo del produttore
    > americano sul resto del
    > mondo"
    >
    > questa è una amena corbelleria: se Intel sta
    > ferma a 14 nm lungo e AMD riesce finalmente a
    > scendere a 14 nm potrebbe colmare un gap che fa
    > delle sue CPU un prodotto meno attraente per il
    > calore
    > dissipato.
    > Una CPU AMD con grafica integrata e scala a 14 nm
    > sarebbe un prodotto molto interessante e
    > competitivo visto che la GPU sarebbe superiore, e
    > il consumo energetico confrontabile. Poco
    > importerebbe a quel punto se l'unita FP desse
    > ancora poco vantaggio alla
    > Intel.

    Ha senso ma non tieni in considerazione un fattore importante.

    Ammesso e non concesso che sia possibile scendere sotto i 14 nm e che per farlo servano investimenti di X denaro, il mercato oggi come oggi (sopratutto il lato domanda) permette di poter ammortizzare gli investimenti stessi in un tempo accettabile e generare redditività?

    Io ho miei forti dubbi a riguardo.
    maxsix
    8600
  • Quelle canagliette che gestiscono intel potrebbero accelerare a dismisura il tick-tock.
    Basterebbe che puntassero sulla tecnologia ottica già in loro possesso (parlo di cristalli dal reticolo quasi perfetto, iniettato con laser multiplati, già disponibili ed utilizzati per le fibre ottiche).
    Ma essendo canagliette furbe, deviano l'attenzione degli allocchiti utenti lontano dalla faccenda, perché devono ricavare il massimo dai loro investimenti, come è giusto che sia.
    Addirittura parlano di arseniuro di gallio, un materiale costosissimo usato da decenni dai militari, pur di ritardare la tecnologia ottica.
    Da intel non ci si può mai aspettare niente di onesto, come AMD sa bene.
    non+autenticato
  • - Scritto da: zelazney
    > Quelle canagliette che gestiscono intel
    > potrebbero accelerare a dismisura il
    > tick-tock.
    > Basterebbe che puntassero sulla tecnologia ottica
    > già in loro possesso (parlo di cristalli dal
    > reticolo quasi perfetto, iniettato con laser
    > multiplati, già disponibili ed utilizzati per le
    > fibre
    > ottiche).
    > Ma essendo canagliette furbe, deviano
    > l'attenzione degli allocchiti utenti lontano
    > dalla faccenda, perché devono ricavare il massimo
    > dai loro investimenti, come è giusto che
    > sia.
    > Addirittura parlano di arseniuro di gallio, un
    > materiale costosissimo usato da decenni dai
    > militari, pur di ritardare la tecnologia
    > ottica.
    > Da intel non ci si può mai aspettare niente di
    > onesto, come AMD sa
    > bene.

    E il passaggio attraverso tanti gates come lo fanno?

    Quando gli ARM cresceranno anche nel settore PC e inizieranno a dargli fastidio Intel sarà costretta a tirare fuori qualcosa di nuovo.
    A quel punto vedremo che tecnologie hanno a disposizione.
    non+autenticato
  • Allo stato attuale per competere con una CPU Intel non ti basterebbe una scheda madre multiprocessore con 4 cpu ARM. ARM punta al risparmio energetico non al calcolo intensivo come l'x86 (da qui la semplicità di design e il risparmio energetico conseguente). Poi mi pare che ARM non supporti strutturalmente schede madri multiprocessore mentre nelle farm di calcolo è normale trovare schede madri con 4 CPU (intel xeon o in passato anche amd opteron)
    Comunque AMD ha già fatto gli Opteron-A per i datacenter che sono basati su ARM. Stanno avendo poco successo.
    non+autenticato
  • - Scritto da: Pino
    > Allo stato attuale per competere con una CPU
    > Intel non ti basterebbe una scheda madre
    > multiprocessore con 4 cpu ARM. ARM punta al
    > risparmio energetico non al calcolo intensivo
    > come l'x86 (da qui la semplicità di design e il
    > risparmio energetico conseguente). Poi mi pare
    > che ARM non supporti strutturalmente schede madri
    > multiprocessore mentre nelle farm di calcolo è
    > normale trovare schede madri con 4 CPU (intel
    > xeon o in passato anche amd
    > opteron)
    > Comunque AMD ha già fatto gli Opteron-A per i
    > datacenter che sono basati su ARM. Stanno avendo
    > poco
    > successo.
    probabilmente l'evoluzione futura invece di avere processori sempre più performanti sarà quella di avere solo più processori anche sui desktop.
    non+autenticato
  • IBM non ha tecnologie a 7nm?
    Aanche a me sa tanto di una manovra per sfruttare di più quello che hanno già.
  • - Scritto da: Zucca Vuota
    > IBM non ha tecnologie a 7nm?
    > Aanche a me sa tanto di una manovra per sfruttare
    > di più quello che hanno
    > già.
    ci sono anche le fabbriche da ammortizzare, in periodo di stasi del settore i tempi necessari all'ammortamento si allungano e potrebbe anche non convenire più dal punto di vista economico proseguire con la miniaturizzazione a meno di un nuovo boom del settore.
    non+autenticato
  • > Da intel non ci si può mai aspettare niente di
    > onesto, come AMD sa
    > bene.

    E pensa, AMD potrebbe lanciare la tecnologia ottica oggi, facendo sfracelli ma non lo fa... strano, gomblotto. Fossi in te pubblicherei il business case che dimostra come l'investimento per produrre chip ottici sia profittevole gia da ora, è chiaro che sei un esperto di processi produttivi e conosci bene l'economia di mercato.
    Oh pare anche che ci sia una nuova fonte di energia chiamata antimateria, ma le multinazionali cattive vogliono farci esaurire prima il petrolio, poi il gas, poi il carbone ed infine la tireranno fuori.
    non+autenticato
  • - Scritto da: zelazney

    > Basterebbe che puntassero sulla tecnologia ottica
    > già in loro possesso (parlo di cristalli dal
    > reticolo quasi perfetto, iniettato con laser
    > multiplati, già disponibili ed utilizzati per le
    > fibre ottiche).
    HAi qualche riferimento, ho sentito parlare di memlrie con questa tecnologia, non di processori.
    non+autenticato
  • che un pc invece di tenerlo 8 anni lo terremo per 15 anni.
  • Che poi non è neanche un male.
    G%2cG
    339
  • - Scritto da: G,G
    > Che poi non è neanche un male.


    convintissimo.

    Come altrettanto convinto sono del fatto che non l'ha ordinato il dottore di procedere a miniaturizzazioni estreme: siamo già al limite oltre il quale, ammesso che si possa, non c'è più convenienza a spingere ne' per il produttore ne' per il consumatore.
  • - Scritto da: G,G
    > Che poi non è neanche un male.

    Esatto: era l'ora!!

    Un po' come la risoluzione dei display degli smartphone: dopo aver surclassato tv e pc desktop, ha poco senso pratico aumentarla ancora.
  • - Scritto da: bradipao
    > - Scritto da: G,G
    > > Che poi non è neanche un male.
    >
    > Esatto: era l'ora!!
    >
    > Un po' come la risoluzione dei display degli
    > smartphone: dopo aver surclassato tv e pc
    > desktop, ha poco senso pratico aumentarla
    > ancora.

    Come per parere personalissimo non hanno senso i 4k.
    non+autenticato
  • Concordo. Spendere di più per il 4k IMHO è tutto denaro sprecato.
    non+autenticato
  • I 4K hanno senso, ma non nelle TV che non hanno facilmente dimensioni da giustifare quella risoluzione per la distanza da cui leguardi, ma nei monitor sì, da vicino i 4K li sfrutti.
    Un monitor 3840x2160 da 24" è "retina" a circa 50 cm, quindi i pixel li vedi tutti e ci leggi un PDF molto, ma molto bene.
    non+autenticato
  • Concordo.
    Adesso però dovrebbero aumentarla sui PC, perché nel 2016 i notebook a 768p sono inguardabili.
    Aumentare i DPI sarebbe un vantaggio per tutti, a partire dal miglioramento nel subpixel rendering.
    non+autenticato
  • - Scritto da: G,G
    > Che poi non è neanche un male.
    insomma.... vorrei vedere come una cpu di fascia medio-bassa di ora fa girare software o audio/video o grafica del futuro.
    Infatti, ora un Athlon del 2004 a stento visualizza l'attuale web o app.
    non+autenticato
  • e si possono continuare ad utilizzare tutte le vecchie licenze open e closed...
    PS: Padella, hai sentito o non ti piace il panettone aziendale? A bocca aperta
    non+autenticato
  • - Scritto da: user_
    > che un pc invece di tenerlo 8 anni lo terremo
    > per 15
    > anni.

    tranquillo, spingeranno al massimo l'obsolescenza programmata. cosi il tuo PC dopo 2 anni si romperà, e tu, invece che comprare il modello nuovo, ricomprerai quello vecchio.
    -----------------------------------------------------------
    Modificato dall' autore il 24 marzo 2016 09.22
    -----------------------------------------------------------