Intel prepara le CPU nex gen

Il chipmaker rivela nuovi dettagli sulle sue CPU di prossima generazione. Tra queste anche quelle basate sulla futura architettura Nehalem

Santa Clara (USA) - Con un po' di anticipo rispetto al Developer Forum primaverile, che quest'anno si terrà all'inizio di aprile a Shanghai, Intel ha svelato nuovi dettagli sulla futura generazione di processori per server, workstation e desktop, e sulle GPU multicore.

Intel prepara le CPU nex genDi particolare interesse, per gli utenti consumer, le nuove informazioni relative a Nehalem, una nuova microarchitettura che, al pari di quella AMD, adotterà un controller di memoria integrato e un bus point-to-point. Nella strategia tick-tock di Intel, che nella fase tick prevede l'introduzione di un nuovo processo produttivo e nella fase tock di una nuova microarchitettura, Nehalem rappresenta il tock: il processo produttivo resta quello a 45 nanometri introdotto con Penryn, ma la microarchitettura cambia quasi completamente.

Nehalem supporterà da 2 fino a 8 core, ciascuno capace di eseguire contemporaneamente due thread: ciò significa che un singolo processore potrà macinare da 4 a 16 thread simultaneamente. Questa caratteristica è resa possibile dalla tecnologia Simultaneous Multi-threading, che, a differenza di quella Hyper-Threading, è effettivamente in grado di elaborare i due thread paralleli in tempo reale.
L'altra grande miglioria che verrà introdotta da Nehalem sarà QuickPath Interconnect (v. white paper in PDF), un bus seriale che per molti versi si pone in concorrenza con la tecnologia HyperTransport di AMD. QuickPath Interconnect segnerà l'abbandono del classico front-side bus per fare spazio ad una connessione punto-a-punto che permetterà al processore di comunicare direttamente con chipset e memoria RAM, beneficiando quindi di una banda passante maggiore e di latenze più ridotte.

Altra caratteristica degna di nota sarà la Dynamically Scalable Architecture, che permetterà ad Intel di progettare CPU con un numero variabile di core (anche dispari) e una quantità altrettanto variabile di cache, così da soddisfare le esigenze di una più ampia varietà di sistemi e segmenti di mercato.

Le CPU basate su Nehalem potranno contenere fino a 731 milioni di transistor, e integreranno le istruzioni estese SSE 4.2, che rispetto a Penryn (che include le SSE 4.1) forniscono alcune istruzioni in più; fino a 8 MB di cache L3 e 256 KB di cache L2; e il supporto alle memorie DDR3-800/1066/1333.

I primi processori ad adottare la nuova microarchitettura saranno commercializzati da Intel nel corso del quarto trimestre dell'anno.

Intel è tornata anche a parlare di Larrabee, nome in codice della prima famiglia di GPU discrete prodotte dal colosso californiano.

Prima dell'introduzione di questa nuova generazione di chip, Intel lancerà Dunnington, una nuova CPU Xeon a 45 nm che, seppure basata sull'attuale architettura Penryn, includerà 6 core di calcolo. Questo processore, che vedrà la luce questa estate, integrerà fino a 16 MB di cache L3 e sarà compatibile con la piattaforma Caneland.

Se Intel oggi domina nel settore dei chipset grafici integrati, con Larrabee potrà fare il suo ingresso anche in quello delle GPU destinate alle schede video PCI Express, andando così a scontrarsi direttamente con Nvidia e AMD/ATI. Larrabee è stato progettato anche per l'utilizzo all'interno di soluzioni GP-GPU o di stream processing, dove potrà essere utilizzato per accelerare vari tipi di applicazioni scientifiche o finanziarie ed eventualmente formare un supercomputer.
44 Commenti alla Notizia Intel prepara le CPU nex gen
Ordina
  • e costano di meno?

    e chi li produce viene pagato bene?

    e chi li assembla?

    e chi li smaltisce si ammala?

    io non oso nemmeno dire che i computer che ho visto in 12 anni fanno esattamente le stesse cose nello stesso modo e nello stesso tempo

    perché saranno anche più veloci, ma i "consumer" hanno delle belle pretese, solo che pretendono di ottenere quello che hanno sempre avuto

    come consumer potrei fare decine di esempi, ma magari un'altra volta
    non+autenticato
  • Giusto un altro spunto per la discussione.

    Perlomeno nel mondo server, non ha piu' molto senso pensare al sistema operativo installato sul server. Nella maggior parte dei casi, tra il sistema operativo e il ferro c'e' un hypervisor, che sia un vmware o qualche altro (addirittura ora con il VMware ESX 3i mi pare, e' caricato direttamente nell'hardware).

    Ma cosi', il problema non solo si sposta, ma si moltiplica. In effetti trovare un sistema operativo che scali bene oltre 8 processori e' davvero improbabile; mettendo un hypervisor in mezzo, a questo punto il problema si sposta a quest'ultimo: se ammettiamo che le immagini di SO basta che abbiano un paio di processori virtuali, il virtualizzatore pero' deve lui gestire il dispatching dei core virtuali sui core fisici. E nessun virtualizzatore riesce a farlo bene: la stessa VMware che non mi pare l'ultima arrivata, arriva nominalmente a 16, ma la strategia non prevede che andra' mai bene oltre le 4 per vari motivi.

    E poi c'e' un problema ancora piu' spinoso: l'SO dispatcha il lavoro sui core virtuali, e poi l'hypervisor dispatcha i core virtuali su quelli fisici: ma tra i due non c'e' alcun coordinamento, e la cpu affinity tra task e cpu fisica e' utopia. In questa situazione, pensare che una architettura ancorche' virtualizzata scali bene oltre i 16 processori fa un po' sorridere.

    Provate a dare un'occhiata ai maestri del campo, i mainframe. Gli ultimi che ha prodotto l'IBM hanno 64 core, e per risolvere questo arcano problema hanno creato la tecnologia dell'Hyper Dispatch: un sistema di scheduling che coordina il dispatching dei task da parte del sistema operativo (li c'e' lo z/OS) con il dispatching fatto dall'hypervisor (PR/SM, embeddato nell'hw), in modo da avere la coerenza tra i task e le cpu logiche. Solo cosi' i mainframe riescono a scalare a 64 processori in architettura NUMA in modo abbastanza efficiente (anche se non ancora certamente lineare). E l'IBM ci e' riuscita solo perche' z/OS, PR/SM e HW sono tutti fatti da loro, quindi sono altamente integrati. Integrazione che nel mondo x86 non esiste.

    Quindi ho idea che pensare ad una macchina x86 con piu' di 8/16 core, e pensare che funzioni anche, sia almeno per un po' ancora una utopia, e, in sostanza, molto marketing e poco "arrosto". Comunque la virtualizzazione su x86 e i multicore x86 stanno muovendo i primi passi su strade gia' battute da altri... vedremo dove, se e quando ci arriveranno! Sorride

    Ciau!
    non+autenticato
  • Condivido con chi sostiene che la INTEL produce oggetti con cartatteristiche tese solo a far cassa.
    Il mercato e' comandato da chi produce invece che da chi fruisce,in questo modo strampalato di operare si finisce per avere sul mercato cose particolari che attirano la massa,per lo piu' incompetente, secondo modalita' ben collaudate:
    1)quelli che spendono senza ritegno pur di avere le novita'.
    2)Finiti quelli sopra,si passa a quelli che spendono ma non troppo e possono/sanno aspettare.
    3)quando sono finiti anche questi si passa allo zoccolo successivo sino ad arrivare alla MASSA.
    E il ciclo riparte...altri oggetti, altre FEATURES che erano gia' possibili PRIMA ma che verranno sfornate CASUALMENTE al momento giusto per far ripartire la ruota dei guadagni OTTIMIZZATI.
    Questo SENZA una reale necessita' di mercato,chi lavora con prodotti standard non ha bisogno nemmeno dei 2 core, figuriamoci di 8!
    Se sali di profilo e vai tra i professionisti della grafica o del calcolo distribuito e via dicendo in teoria piu' potenza hai e meglio stai,fatto salvo di avere il software adatto per gestirla e di solito e' cosi'.
    Credo pero' che una buona parte di questi sarebbe piu' contenta se le performances fossero solo un ciccino piu' elevate a fronte di un RISPARMIO energetico elevato.
    E si puo' fare visto che si pensa gia' ora di montare degli 8 core su portatili...
    Comubque sia anche il gaming genera un bel mercato, CPU sempre piu' veloci e con sempre piu' core, VPU stesso trend... pero' con una differenza:le CPU al momento sono sfruttate assai poco dai giochi, anche se multiprocessore mentre le VPU rendono molto meglio.
    Quindi perche' spendere 1000 euro per un 8 core che userai molto meno di una VPU dual o quad core!?
    In definitiva,se vogliamo che i produttori NON facciano il mercato , dobbiamo imporci noi.
    Acquistare SOLO quello che realmente serve, senza rincorrere le novita' e chiedendo al mercato di agire su ottimizzazione e risparmio piuttosto che su potenza di calcolo inutile alla massa.
    Se il mio portatile facesse quello che fa ora consumando 1/4 sarei molto piu' felice cxhe vedere word caricare in 2 secondi piuttosto di 3...
    non+autenticato
  • Come fa un core ad eseguire 2 thread in parallelo? Utilizza parallelamente le varie unità di elaborazione a sua disposizione? Ma allora HyperThreading a cosa serviva? Solo a ottimizzare il fetching?
    non+autenticato
  • come facevano i processori monocore ad eseguire più di un processo alla volta?
    time slicingOcchiolino
    non+autenticato
  • - Scritto da: gino
    > come facevano i processori monocore ad eseguire
    > più di un processo alla
    > volta?
    > time slicingOcchiolino

    Quindi non eseguivano mai due processi contemporaneamente.

    Con Multithreading si parla di vero parallelismo. Credo che riescano ad utilizzare le varie parti del core che l'altro processo non sta usando nello stesso ciclo di clock. In questa ottica il compilatore deve fare la sua parte, possibilmente cambiando l'ordine delle istruzioni quando non sono legate da una sequenza logica (tipo intercambiando un'istruzione matematica con una di spostamento da/per memoria o I/O).
    -----------------------------------------------------------
    Modificato dall' autore il 20 marzo 2008 16.32
    -----------------------------------------------------------
  • Ottimo lavoro scientifico, ma fatto per il bene dell'azienda, non per il consumatore. Aspettavo di piu' la riduzione dei consumi e l'abbassamento del prezzo che la crescita delle performance. Dubbio seriamente che il nuovo processore sara' utile per la stragrande maggioranza degli utenti. La capra (commercio) sara' sempre pronta nutrirsi di verza (risultati della ricerca scientifica). Intel, AMD e qualsiasi altro produttore non e' un'istituto di ricerca, ma un'azienda a scopo di lucro, quindi mirata a fare profito ad ogni costo sociale, ambientale o morale. Esempio: anche se per te va bene la bici, qualcuno cerchera' sempre convincerti che hai bisogno di una Ferrari. Ciascuno deve fare le sue scelte. Se ti serve l'ultimissima macchina e te la permetti, la compri, se no...

                                 F I N E
    non+autenticato
  • Straquoto! La penso esattamente allo stesso modo.
    non+autenticato
CONTINUA A LEGGERE I COMMENTI
Successiva
(pagina 1/2 - 9 discussioni)