La definizione di “personal computer” è stata coniata ormai quasi 30 anni fa ma mai, come oggi, cadono sotto questo nome sistemi diversissimi in quanto a potenza di calcolo, su cui però girano molto spesso le identiche applicazioni. Se la potenza di calcolo cresce e le applicazioni restano sostanzialmente ferme, qual è il senso di questa corsa alle performance?
Fin dall’alba dell’informatica, i settori hardware e software hanno svolto un ruolo complementare e sinergico nella crescita del mercato informatico. Ripercorrendo al volo la nascita e l’evoluzione del PC, cercherò di approfondire il legame fra le evoluzioni hardware e software per interpretare in una prospettiva storica la situazione attuale e cercare di gettare uno sguardo agli scenari futuri. Le conclusioni che seguiranno non intendono orientare le preferenze del consumatore finale, che presto potrà acquistare solo processori multicore, quanto piuttosto immaginare i possibili risvolti di questa transizione sul mercato informatico (in particolare dei sistemi Wintel).
Solo pochi decenni ci separano dalla nascita del PC, dal momento cioè in cui un hardware economico e compatto incontrò un software capace di risolvere problemi, a casa e in ufficio. Risolvere problemi quotidiani a persone ed aziende è fin da allora reason why del PC, indipendentemente dalla enorme varietà ed evoluzione che hardware e software hanno conosciuto negli anni.
Se le applicazioni software, e in particolare quelle office , hanno il merito di aver creato le premesse per la diffusione del PC nelle aziende e nelle case di tutto il mondo, l’interfaccia grafica ha accelerato questo processo, rendendo il software ancora più facile e intuitivo da utilizzare. Il prezzo da pagare è stato un aumento dei requisiti hardware necessari, ampiamente giustificato dalla più semplice interazione uomo-macchina. In termini economici spiccioli, prima l’hardware ha creato un mercato per il software, poi il software ha creato un’occasione di crescita per il mercato hardware. Fin da allora hardware e software sviluppano una sinergia (una sorta di ping pong) che anno dopo anno, assieme al naturale abbassamento dei prezzi, propelle la crescita del settore.
Queste considerazioni, che nel 2006 suonano scontate, qualche decennio fa hanno scatenato una rivoluzione tecnologica che ha trasformato schiere di capelloni, occhialuti o barbuti geek in una nuova generazione di miliardari.
Dopo la fallimentare corsa al megahertz, in cui i cambiamenti architetturali hanno seguito più le direzioni marketing che quelle ingegneristiche, la competizione si è spostata su un fronte nuovo, ben noto al mondo server: la parallelizzazione delle CPU. Concentrando più unità di calcolo su uno stesso die, sono state messe sul mercato, a prezzi abbordabili, piattaforme biprocessore o quadriprocessore, su un singolo o doppio socket. Si tratta di veri mostri di potenza, con un piccolo problema: il modo di sfruttarne le potenzialità al di fuori di specifici settori professionali (e, in parte, videoludici) è in buona parte ancora da inventare. I motivi sono pochi, semplici e di non facile soluzione: l’hardware multicore è largamente sovradimensionato rispetto ai requisiti della maggioranza del software consumer esistente, il software è quasi sempre scritto per girare su sistemi monoprocessore. Se questo non bastasse, lo sviluppo per architetture multicore è, malgrado le spinte di Intel e AMD, difficile e molto costoso (problema ben noto a chi sviluppa software per PlayStation 3).
Alla complessità di questa situazione, gli ingegnosi uffici marketing dei produttori hardware rispondono proponendo nuove e fantasiose forme di fruizione del PC, come se giocare a 1.600 x 1.200 pixel con FSAA 16x mentre si rippa un DVD e nel contempo si fa un rendering con 3D Studio fosse da sempre il sogno proibito di ogni smanettone. Il tutto quando solo una quindicina d’anni fa, per avere una generica idea delle prestazioni di una nuova CPU, bastava verificare il tempo di risposta e la velocità di scorrimento all’invio del comando dir . O in altri termini, quando questo articolo, compreso il reperimento delle fonti su Internet, potrebbe essere stato scritto (e non è detto che non lo sia stato) con un sistema del 1997.
A questo punto la domanda, che poi è il centro di questo articolo, non è “ma i nuovi processori multicore venderanno?”, perché fra poco non ci saranno alternative. Piuttosto c’è da chiedersi: “Quanto venderanno se oggi non offrono incrementi significativi di performance?”. Oppure: “Ha senso comprarli in anticipo se si rischia che siano obsoleti prima che esista software in grado trarne vantaggio”?. Un esempio pratico: chi nel 1989 ha venduto l’auto per comprare un PC 386 a 16 MHz, due anni dopo, ipotecando la casa, ha potuto acquistare un fiammante 486 DX a 33 MHz, che lo ha probabilmente traghettato sano e salvo nell’era delle finestre. O ancora, chi nel 1999 ha comprato un Celeron 333, nel 2001 lo ha potuto cambiare con un Athlon XP, col quale magari ha salutato i BSOD (blue screen of death) di Windows 98 per approdare a Windows 2000. Chi invece nel 2004 ha comprato un processore di ultima generazione, potrebbe non riscontrare grosse differenze installando oggi una CPU dual-core della stessa fascia di prezzo. La potenza è di certo aumentata, ma fra il processore e chi lo ha comprato c’è di mezzo il software: a molti utenti non basta sapere che la nuova CPU rispetta la Legge di Moore per esserne soddisfatti.
Si potrebbe argomentare contro questa tesi ricordando il successo delle CPU a 64 bit nel mercato consumer. La latitanza di Windows 64 non ha però creato problemi all’Athlon 64, CPU capace di solide performance nei 32 bit; al contrario, benchmark alla mano, è più difficile accorgersi dei vantaggi che una CPU multicore porta oggi.
In conclusione, se all’alba del PC è stato il software a fornire un buon motivo per acquistare o rinnovare l’hardware, oggi (a parte i videogiochi) il paradigma sembra invertito: l’hardware è molto più avanti. Questo fenomeno è probabilmente il più visibile risultato del confronto fra un mercato per lo più monopolistico – quello OS e applicazioni, dominato da Microsoft – e uno molto più tonico e competitivo, animato dalle fiere battaglie di Intel e AMD per lo scettro delle performance. Intanto il mercato consumer attende, se non una killer application, perlomeno che applicazioni e OS maturino fino a giustificare il salto generazionale. Una cosa è certa: se Microsoft è diventata troppo lenta per questa partita, qualcun altro continuerà il ping pong . Intel lo ha capito, ed ha già pronta una via d’uscita.
Alessio Di Domizio