Alfonso Maruccia

Intel, nuovi chipset per vecchie CPU

Santa Clara presenta i nuovi chipset per PC desktop e laptop, un aggiornamento incrementale che si accompagna al "refresh" delle CPU Haswell già presenti sul mercato. Le performance crescono anche se di poco

Roma - Intel lancia i suoi nuovi chipset "Serie 9" per PC fissi e portatili, destinati a divenire il nuovo standard del mercato x86 nei mesi a venire. Per le CPU, invece, l'architettura Broadwell ancora latita, quindi produttori e utenti di sistemi personalizzati dovranno accontentarsi del "refresh" dell'architettura Haswell già presente sul mercato.

Non che i chipset Serie 9 contengano tutte queste novità rispetto al recente passato, beninteso: la nuova circuiteria di base sarà disponibile nelle due diverse versioni H97 e Z97, a indicare la presenza (Z97) o meno (H97) del supporto all'overclocking nel caso in cui venga montata una CPU con moltiplicatore sbloccato.
intel

I chipset Serie 9 offrono miglioramenti soprattutto sul fronte delle memorie di massa, con supporto integrato al nuovo formato M.2 per l'uso di dischi SSD su bus PCI-Express e limite teorico di banda da 1 GBps. Garantito anche il supporto per SATA Express, anch'esso capace di sfruttare il bus PCIe ma retrocompatibile con le precedenti versioni dello standard SATA.

Una ulteriore novità dei chipset Z97 e H97 è la tecnologia Intel Smart Response Technology, capace di sfruttare meglio le unità di storage ibride SSHD (HDD+memoria cache SSD) o di utilizzare una piccola unità SSD come cache per velocizzare le operazioni di routine sui tradizionali dischi magnetici. Sul fronte sicurezza i chipset Serie 9 includono Boot Guard, sistema di protezione del boot (opzionale) che fa uso del Trusted Platform Module e della crittografia per verificare il sistema operativo nelle fasi di avvio.
Se i nuovi chipset x86 di Intel non puntano esattamente sulle prestazioni, la situazione con le CPU "Haswell Refresh" è ancora più bigia: i 42 nuovi processori - 24 dei quali destinati ai PC desktop - offrono qualche Megahertz in più e un prezzo leggermente inferiore (soprattutto per le CPU di fascia alta come il Core i7-4790T) ma nessuna novità concreta sul fronte microarchitetturale.

Alfonso Maruccia

fonte immagine
Notizie collegate
  • HardwareIntel, il futuro dei PC desktopSanta Clara annuncia nuovi processori per i sistemi informatici domestici tutti votati alle performance - con o senza overclock. Presentata anche una versione speciale del processore Pentium per il ventesimo anniversario del brand
31 Commenti alla Notizia Intel, nuovi chipset per vecchie CPU
Ordina
  • La "spiegazione" di questi cosiddetti "upgrade" è che risolvono un "bug" presente in alcuni vecchie accoppiate CPU+CHIPSET e, allo stesso tempo, introducono nuove "feauture" per le accoppiate presenti e future...

    NSA backdoor now included
    non+autenticato
  • La corsa ai megahertz... ma questo già da un pezzo.
    Ora ci raccontano le storie che la velocità è sufficente per la maggior parte delle applicazioni, che si deve guardare al risparmio energetico, che bisogna aumentare i core per aumentare le unità di elaborazione.... TUTTE BALLE !!!
    La realtà è che per sviluppare nuovi paradigmi, serve maggiore velocità, e per quella servono i giga e i terahertz !!
    I core e le multi cpu sono, si necessari, ma non tutti i problemi possono essere parellelizzati... anzi... a parte trattamento di immagini e virtualizzazione, credo che i problemi realmente parellelizzabili non siano così tanti.
    La realtà è che il silicio è arrivato a fine corsa, non è fisicamente possibile andare oltre (a costi accettabili), e non c'è nulla pronto alle porte per poterlo sostituire... tutti i nuovi modelli di cpu sono solo marketing per continuare a vendere roba che non serve e che già abbiamo.
    -----------------------------------------------------------
    Modificato dall' autore il 13 maggio 2014 10.23
    -----------------------------------------------------------
  • assolutamente non vero, la velocità non è affatto un metro di valutazione delle cpu.
    se proprio vuoi valutare la "potenza di calcolo", puoi usare i Cycles Per Instructions, ma anche quello sarebbe riduttivo. Aumentare la velocità è il modo peggiore per far evolvere una CPU. È praticamente un "trucco". È come insistere nel mettere motori di aerei in piccole utilitarie. La soluzione è progettare motori ad hoc (come le nuove cpu, Haswell è tecnologicamente favolosa).
    Il Gigaherz è il trucco del progettista incapace. Sei costretto ad aumentare gli stadi di pipeline, con tutte le conseguenze del caso. Oltre ai vari problemi fisici delle singole componenti (wire delay, accoppiamenti capacitivi, bla bla bla). Si, l'hardware ha i suoi limiti, ma la scienza li ha sempre aggirati egregiamente. Basti pensare all'architettura dual cluster dell'Alpha 21264, che in un attimo ha spazzato via il passato inventando un nuovo modo di progettare il back-end mantenendo intatte le dimensioni dei componenti.
    non+autenticato
  • L' Alpha 21264 è stato fatto in un periodo storico (mi pare metà anni '90) quando gli x86 erano ancora a 32 bit e non erano ottimizzati come quelli odierni.
    Allo stato attuale delle cose, non vedo molte alternative... se vuoi aumentare le prestazioni, o ottimizzi quello che hai (ma mi pare che già adesso non siano messi male) introducendo appunto pipelines, branch prediction etc.etc. tutte belle cose che aiutano, ma non in tutte le situazioni (ci sarà sempre l'eccezione o un problema in cui una data ottimizzazione non giova) o vai sù di frequenza operativa... che è l'unica con la quale, aumentano tutte le operazioni di una cpu.
    Ok c'è il discorso istruzioni per ciclo... ma anche in quel caso, a parità di cpu, aumentando la frequenza operativa, aumenti le prestazioni.
    La ricerca atta ad usare la fotonica, piuttosto dell'elettronica, mi pare sia fatta proprio per poter aumentare la frequenza. Se ci fossero le cpu fotoniche non avremmo il problema di correnti, indotte, parassite, dissipazione del calore, etc.etc. che purtroppo abbiamo con le cpu elettroniche basate sul silicio, quando vai oltre certe frequenze.
  • ma infatti imho in haswell esiste un simile sistema duale per int e fp, basti guardarsi il grafico dei delay sul manuale Intel. Le operazioni che spendono clock sono perlopiù quelle intra-cluster , e tale spesa non supera di solito il singolo ciclo. Questo lascia presumere un accoppiamento delle code di issue, così che neanche le LOAD/STORE soffrano la suddivisione. Ovviamente sono solo congetture della comunità, visto che gli internals sono ormai nascosti da anni. Le tecniche di miglioramento del CPI sono state vagliate proprio perché aumentare la frequenza è sempre stata la soluzione meno scalabile (e la ricerca scientifica fino al 2005 ne è piena, di tali problematiche). Altrimenti non avremmo avuto la genialata delle microOP, della uop cache, delle macrofusion e microfusion, del TAGE nel branch predictor, e tutte queste chicche che hanno fatto fare salti enormi alle architetture in pochi anni. La legge di Amdahl è rimasta valida in questi anni e non ha nessuna intenzione di essere scalfita dalla corsa all'hertz o ancor peggio al multithreadingA bocca aperta
    non+autenticato
  • - Scritto da: anon

    > quelle intra-cluster , e tale spesa non supera di

    sorry, volevo dire inter-cluster
    non+autenticato
  • - Scritto da: sisko212
    >
    > La ricerca atta ad usare la fotonica, piuttosto
    > dell'elettronica, mi pare sia fatta proprio per
    > poter aumentare la frequenza. Se ci fossero le
    > cpu fotoniche non avremmo il problema di
    > correnti, indotte, parassite, dissipazione del
    > calore, etc.etc. che purtroppo abbiamo con le cpu
    > elettroniche basate sul silicio, quando vai oltre
    > certe
    > frequenze.


    aggiungerei, a frequenze molto spinte, anche l'elettromigrazione.

    Il problema non è in realtà creato direttamente da limiti imposti dal silicio (almeno al momento), ma dall'elevato numero degli strati di metallizzazione e dalla (ormai datata) tecnologia applicata alle attuali interconnessioni usate: sono ancora in rame.

    Attualmente lo sviluppo più avanzato (ed accreditato) per tamponare la situazione è relativo all'uso di una tecnologia che prevede l'applicazione di una guaina strutturalmente di cobalto che sia in grado di incorporare le piste in rame.

    Dovrebbe aiutare per il transito a tecnologie produttive sino ~10nm.

    Per quanto riguarda la fotonica applicata, in via commerciale, alla produzione massiva di cpu, gpu e quant'altro, dovremmo verosimilmente attendere, purtroppo, ancora almeno un decennio.
  • - Scritto da: sisko212
    > La corsa ai megahertz... ma questo già da un
    > pezzo.
    > Ora ci raccontano le storie che la velocità è
    > sufficente per la maggior parte delle
    > applicazioni, che si deve guardare al risparmio
    > energetico, che bisogna aumentare i core per
    > aumentare le unità di elaborazione.... TUTTE
    > BALLE
    > !!!
    > La realtà è che per sviluppare nuovi paradigmi,
    > serve maggiore velocità, e per quella servono i
    > giga e i terahertz
    > !!
    > I core e le multi cpu sono, si necessari, ma non
    > tutti i problemi possono essere parellelizzati...
    > anzi... a parte trattamento di immagini e
    > virtualizzazione, credo che i problemi realmente
    > parellelizzabili non siano così
    > tanti.
    > La realtà è che il silicio è arrivato a fine
    > corsa, non è fisicamente possibile andare oltre
    > (a costi accettabili), e non c'è nulla pronto
    > alle porte per poterlo sostituire... tutti i
    > nuovi modelli di cpu sono solo marketing per
    > continuare a vendere roba che non serve e che già
    > abbiamo.
    > --------------------------------------------------
    > Modificato dall' autore il 13 maggio 2014 10.23
    > --------------------------------------------------
    Su una cosa sono d'accordo, se hai una cpu 2500/2600k te la tieni stretta, perché negli ultimi tre anni non è uscito niente di nuovo. La cosa triste è che nonostante ciò AMD non sia ancora riuscita a mettersi alla pari.
    non+autenticato
  • - Scritto da: sisko212
    > La corsa ai megahertz... ma questo già da un
    > pezzo.
    > Ora ci raccontano le storie che la velocità è
    > sufficente per la maggior parte delle
    > applicazioni, che si deve guardare al risparmio
    > energetico, che bisogna aumentare i core per
    > aumentare le unità di elaborazione.... TUTTE
    > BALLE !!!

    prima isistevano sul clock, ora sul multi-core. Ovviamente il marketing esalta solo quello che la tacnica puo' fare, perche solo quello puo' vendere.


    > La realtà è che per sviluppare nuovi paradigmi,
    > serve maggiore velocità, e per quella servono i
    > giga e i terahertz !!

    e quali sono le necessita' che richiedono TeraHerz di clock? sono curioso.

    > I core e le multi cpu sono, si necessari, ma non
    > tutti i problemi possono essere parellelizzati...
    > anzi... a parte trattamento di immagini e
    > virtualizzazione, credo che i problemi realmente
    > parellelizzabili non siano così tanti.
    > La realtà è che il silicio è arrivato a fine
    > corsa, non è fisicamente possibile andare oltre
    > (a costi accettabili), e non c'è nulla pronto
    > alle porte per poterlo sostituire... tutti i
    > nuovi modelli di cpu sono solo marketing per
    > continuare a vendere roba che non serve e che già
    > abbiamo.

    infatti basta non comprarla.
    non+autenticato
  • > e quali sono le necessita' che richiedono
    > TeraHerz di clock? sono
    > curioso.

    C'è n'era un altro, tempo fà, che diceva che 4,77 mhz e 640 kbyte, erano sufficenti per qualsiasi applicazione...
  • > > e quali sono le necessita' che richiedono
    > > TeraHerz di clock? sono
    > > curioso.
    >
    > C'è n'era un altro, tempo fà, che diceva che 4,77
    > mhz e 640 kbyte, erano sufficenti per qualsiasi
    > applicazione...

    È una leggenda urbana:

    http://www.computerworld.com/s/article/9101699/The...

    Forse qualcuno la ha anche detto, ma non era un imprenditore di successo come lui.
  • - Scritto da: Leguleio

    > È una leggenda urbana:
    >
    > http://www.computerworld.com/s/article/9101699/The

    "Bill Gates denies making 1981 comment about limits of RAM needs..."

    Della serie: prima lo dico, e poi lo nego. Rotola dal ridere
    non+autenticato