CPU, dove porta la febbre del multicore?

A. Di Domizio - L'hardware dei PC si evolve a ritmi assai più veloci di quelli del software, ma se la potenza di calcolo cresce e le applicazioni restano sostanzialmente ferme, qual è il senso di questa corsa alle performance?

Roma - La definizione di "personal computer" è stata coniata ormai quasi 30 anni fa ma mai, come oggi, cadono sotto questo nome sistemi diversissimi in quanto a potenza di calcolo, su cui però girano molto spesso le identiche applicazioni. Se la potenza di calcolo cresce e le applicazioni restano sostanzialmente ferme, qual è il senso di questa corsa alle performance?

Fin dall'alba dell'informatica, i settori hardware e software hanno svolto un ruolo complementare e sinergico nella crescita del mercato informatico. Ripercorrendo al volo la nascita e l'evoluzione del PC, cercherò di approfondire il legame fra le evoluzioni hardware e software per interpretare in una prospettiva storica la situazione attuale e cercare di gettare uno sguardo agli scenari futuri. Le conclusioni che seguiranno non intendono orientare le preferenze del consumatore finale, che presto potrà acquistare solo processori multicore, quanto piuttosto immaginare i possibili risvolti di questa transizione sul mercato informatico (in particolare dei sistemi Wintel).

Solo pochi decenni ci separano dalla nascita del PC, dal momento cioè in cui un hardware economico e compatto incontrò un software capace di risolvere problemi, a casa e in ufficio. Risolvere problemi quotidiani a persone ed aziende è fin da allora reason why del PC, indipendentemente dalla enorme varietà ed evoluzione che hardware e software hanno conosciuto negli anni.
Se le applicazioni software, e in particolare quelle office, hanno il merito di aver creato le premesse per la diffusione del PC nelle aziende e nelle case di tutto il mondo, l'interfaccia grafica ha accelerato questo processo, rendendo il software ancora più facile e intuitivo da utilizzare. Il prezzo da pagare è stato un aumento dei requisiti hardware necessari, ampiamente giustificato dalla più semplice interazione uomo-macchina. In termini economici spiccioli, prima l'hardware ha creato un mercato per il software, poi il software ha creato un'occasione di crescita per il mercato hardware. Fin da allora hardware e software sviluppano una sinergia (una sorta di ping pong) che anno dopo anno, assieme al naturale abbassamento dei prezzi, propelle la crescita del settore.

Queste considerazioni, che nel 2006 suonano scontate, qualche decennio fa hanno scatenato una rivoluzione tecnologica che ha trasformato schiere di capelloni, occhialuti o barbuti geek in una nuova generazione di miliardari.

Dopo la fallimentare corsa al megahertz, in cui i cambiamenti architetturali hanno seguito più le direzioni marketing che quelle ingegneristiche, la competizione si è spostata su un fronte nuovo, ben noto al mondo server: la parallelizzazione delle CPU. Concentrando più unità di calcolo su uno stesso die, sono state messe sul mercato, a prezzi abbordabili, piattaforme biprocessore o quadriprocessore, su un singolo o doppio socket. Si tratta di veri mostri di potenza, con un piccolo problema: il modo di sfruttarne le potenzialità al di fuori di specifici settori professionali (e, in parte, videoludici) è in buona parte ancora da inventare. I motivi sono pochi, semplici e di non facile soluzione: l'hardware multicore è largamente sovradimensionato rispetto ai requisiti della maggioranza del software consumer esistente, il software è quasi sempre scritto per girare su sistemi monoprocessore. Se questo non bastasse, lo sviluppo per architetture multicore è, malgrado le spinte di Intel e AMD, difficile e molto costoso (problema ben noto a chi sviluppa software per PlayStation 3).

Alla complessità di questa situazione, gli ingegnosi uffici marketing dei produttori hardware rispondono proponendo nuove e fantasiose forme di fruizione del PC, come se giocare a 1.600 x 1.200 pixel con FSAA 16x mentre si rippa un DVD e nel contempo si fa un rendering con 3D Studio fosse da sempre il sogno proibito di ogni smanettone. Il tutto quando solo una quindicina d'anni fa, per avere una generica idea delle prestazioni di una nuova CPU, bastava verificare il tempo di risposta e la velocità di scorrimento all'invio del comando dir. O in altri termini, quando questo articolo, compreso il reperimento delle fonti su Internet, potrebbe essere stato scritto (e non è detto che non lo sia stato) con un sistema del 1997.

A questo punto la domanda, che poi è il centro di questo articolo, non è "ma i nuovi processori multicore venderanno?", perché fra poco non ci saranno alternative. Piuttosto c'è da chiedersi: "Quanto venderanno se oggi non offrono incrementi significativi di performance?". Oppure: "Ha senso comprarli in anticipo se si rischia che siano obsoleti prima che esista software in grado trarne vantaggio"?. Un esempio pratico: chi nel 1989 ha venduto l'auto per comprare un PC 386 a 16 MHz, due anni dopo, ipotecando la casa, ha potuto acquistare un fiammante 486 DX a 33 MHz, che lo ha probabilmente traghettato sano e salvo nell'era delle finestre. O ancora, chi nel 1999 ha comprato un Celeron 333, nel 2001 lo ha potuto cambiare con un Athlon XP, col quale magari ha salutato i BSOD (blue screen of death) di Windows 98 per approdare a Windows 2000. Chi invece nel 2004 ha comprato un processore di ultima generazione, potrebbe non riscontrare grosse differenze installando oggi una CPU dual-core della stessa fascia di prezzo. La potenza è di certo aumentata, ma fra il processore e chi lo ha comprato c'è di mezzo il software: a molti utenti non basta sapere che la nuova CPU rispetta la Legge di Moore per esserne soddisfatti.

Si potrebbe argomentare contro questa tesi ricordando il successo delle CPU a 64 bit nel mercato consumer. La latitanza di Windows 64 non ha però creato problemi all'Athlon 64, CPU capace di solide performance nei 32 bit; al contrario, benchmark alla mano, è più difficile accorgersi dei vantaggi che una CPU multicore porta oggi.

In conclusione, se all'alba del PC è stato il software a fornire un buon motivo per acquistare o rinnovare l'hardware, oggi (a parte i videogiochi) il paradigma sembra invertito: l'hardware è molto più avanti. Questo fenomeno è probabilmente il più visibile risultato del confronto fra un mercato per lo più monopolistico - quello OS e applicazioni, dominato da Microsoft - e uno molto più tonico e competitivo, animato dalle fiere battaglie di Intel e AMD per lo scettro delle performance. Intanto il mercato consumer attende, se non una killer application, perlomeno che applicazioni e OS maturino fino a giustificare il salto generazionale. Una cosa è certa: se Microsoft è diventata troppo lenta per questa partita, qualcun altro continuerà il ping pong. Intel lo ha capito, ed ha già pronta una via d'uscita.

Alessio Di Domizio
122 Commenti alla Notizia CPU, dove porta la febbre del multicore?
Ordina
  • però, a parte ovvie eccezioni, io vedo hardware che non reggono.

    in fondo il 90% degli utenti usa posta elettronica, office, un po' di multimedialità.

    cose che non dovrebbero richiedere granchè, eppure i rallentamenti, anche coi migiori processori, sono all'ordine del giorno. e quando uno lavora se ne accorge parecchio.

    solo con gli ultimi dual core si vedono dei windows xp andare finalmente VELOCI: veloce significa che non devi aspettare mezzo secondo perché si apra una cartella o il pulsante start...

    è indecente, imho, che proprio ora esca Vista, un sistema operativo pesantissimo, proprio ora che i processori cominciavano ad esserne all'altezza.

    poi che l'hardware sia all'altezza (anzi molto oltre) e xp sia un inutile mangiarisorse è un altro discorso.

    però che tristezza.
    non+autenticato
  • il pc come un televisore, non voglio aspettare 30 secondi quando accendo un televisore...
    per questo l'hardware deve essere molto piu avanti del software...
    non voglio aspettare 30 secondi per compilare un documento in LaTeX
    non+autenticato
  • E' sempre la solita storia , ogni tanto torna fuori "i megahertz non servono" , "Questi processori vanno troppo veloci".
    Mi ricordo un bel po' di anni fa un articolo su Microcomputer in cui si accusavano le macchine Alpha di essere inutilmente esagerate ad avere 150Mhz !
    Io a quel tempo avevo parecchi dubbi ed ora penso nessuno direbbe che 150Mhz sono troppi.
    La potenza dei processori attuali è grossa se confrontata con quelli vecchi ma è ridicola se confrontata con l' esigenza posta da parecchi problemi informatici.
    Processori più potenti aprono la strada allo sviluppo di nuovi strumenti che altrimenti non potrebbero esistere!
    Un esempio passato è stato il 3d , ambienti 3d real time sono stati possibili solo dopo una certa potenza di calcolo e più aumenta la potenza e più migliorano gli ambienti 3d e non siamo giunti alla fine dell' evoluzione da questo punto di vista , io voglio vedere renderizzazioni raytracing real-time , quando questo sarà possibile? Aumentando la potenza di calcolo magari qualche sviluppatore ci fa un pensierino.
    I sistemi di sviluppo software attuali sono tutti deterministici , quando si diffonderanno tecniche di sviluppo software non deterministiche? Anche questo è un problema che richiede molta potenza di clalcolo.
    L' ultimo software che ho sviluppato riguardava elaborazione di cellular automata . Per effettuare delle elaborazioni e vederne il risultato ho dovuto lasciare il Pc acceso per mesi!! e non dopo aver messo le mani in assembler per ottimizzare le prestazioni del software! In assembler nel 2006 ! quando smetterò di scrivere in assembler perchè ho un processore decente?
    Quando sviluppo algoritmi di elaborazione geometrica devo sempre tener ben presente che i double che utilizzo hanno solo 80 bit quindi devo stare attento a compiere determinate operazioni . Quando potrò scordarmi di queste peculiarità tecniche ? La risposta è sempre la stessa servono processori più potenti.
    Ancora quando si vedrà un sistema operativo con un' interfaccia 3d?? Sto ancora aspettando da più di 10 anni!
    Potrei andare avanti parecchio con esempi in cui servirebbero processori più potenti , lascio la cosa a voi ed alla vostra immaginazione ...
    Insomma finiamola con questa storia dei processori che sono troppo potenti.
    -----------------------------------------------------------
    Modificato dall' autore il 02 dicembre 2006 07.54
    -----------------------------------------------------------
  • I MHz contano pochissimo per valutare la potenza di calcolo di un processore.Conta su tutto l'architettura e la tecnologia utilizzata.Vi invito a tal proposito a valutare le capacita' di un Power2 o del Parisc di riferimento in quel periodo,cosa riuscivano a fare con molti meno megaherz rispetto la concorrenza.
    Attualmente le CPU sono diventate estremamente complesse quindi la differenziazione fra' RISC e CISC non esiste praticamente piu' (Athlon si dice assomigli molto ad Alpha),tuttavia la semplicita' di design tipica dei RISC e' ancora sinonimo di efficienza.In questo Intel ha dimostrato di essere sempre un gradino sotto tutti.Con l'architettura Core2 sembra aver fatto finalmente qualcosa di buono.Vedremo in futuro se sara' vero,quando anche altri avranno a disposizione quantitativi simili di cache.
    non+autenticato
  • è un po’ come il discorso di è nato prima l'uovo o la gallina??....

    si fa prima il software che gira sull'hardware o prima l'hardware che sfrutti il software ??
    (anche se all'inizio venivano fatti insieme)

    nei punti di svolta ci sarà chiaramente uno dei due che rimane dietro rispetto all'altro, d’altronde nella realtà le due cose sono distinte... o meglio intel e microsoft cercano comunque di guardare ognuno la propria strada...

    dovremo metterci l'animo in pace ed aspettare che i programmatori imparino a "parallelizzarsi" un pò... dopodichè credo che un buon os e software multithreading possano soddisfare le esigenze dell'uomo del futuro che nel frattempo si è fatto crescere altre 2 braccia 2 occhi 2 orecchie 2 pa.......

    ora mi chiedo cosa intendeva l'autore con la frase:
    "Una cosa è certa: se Microsoft è diventata troppo lenta per questa partita, qualcun altro continuerà il ping pong. Intel lo ha capito, ed ha già pronta una via d'uscita."

    Vuole dire che intel vuole fare un sistema operativo per il grande pubblico ??

    bye Xed
CONTINUA A LEGGERE I COMMENTI
1 | 2 | 3 | 4 | 5 | 6 | 7 | Successiva
(pagina 1/7 - 31 discussioni)