Nel mio precedente intervento – CPU, dove porta la febbre del multicore? – ho cercato di far luce su alcuni trend che stanno cambiando il mercato del PC, tanto dal lato hardware che da quello software. In particolare ho ritenuto notevole e molto significativo il rallentamento del mercato software e in particolare di Microsoft: quella stessa azienda che ha contribuito in modo determinante a propellere la nascita e la diffusione del Personal Computer nell’ultimo ventennio.
Ho affermato che l’affanno di Microsoft (basti pensare al ritardo nel rilascio di Vista) stride con la rinnovata vitalità del mercato hardware, propulso da un duopolio molto dinamico nel settore CPU. Ho argomentato che la conseguenza più visibile di questo contrasto è rappresentata dalla nascita di una generazione di processori le cui potenzialità sono poco o per nulla sfruttate dai sistemi operativi e dalle applicazioni più comuni nel mercato consumer.
Nelle settimane successive alla pubblicazione dell’articolo ho avuto modo di leggere numerosi e autorevoli approfondimenti, che ne hanno fondamentalmente confermato e rafforzato la tesi. In sintesi, è ben nota agli sviluppatori la generale incapacità del software consumer di trarre vantaggio dei processori multicore di ultima generazione (v. Missing The Boat On Multithreading? ).
È altrettanto noto e riscontrabile il rallentamento di tutto il settore informatico (non ultime le vendite di AMD e Intel), che molti ritengono causato dal ritardo nel rilascio di Windows Vista (v. Chip sales stutter as Vista fails to ignite ). È infine la stessa AMD, ansiosa di mettere la fusione con ATI a buon frutto, a riconoscere che l’aggiunta di core “omogenei” (ossia dediti alla medesima funzione) nello stesso die porta vantaggi sempre più esigui nella gran parte delle applicazioni software di uso quotidiano (v. AMD questions current multi-core trend ). D’altro canto l’integrazione di CPU e GPU nello stesso die porta forti vantaggi in fatto di consumi energetici e miniaturizzazione, cruciali in un’epoca in cui le vendite sono dominate dai portatili.
Davanti al peso di queste constatazioni, e alla volontà di AMD di non replicare gli errori della battaglia del megahertz in una molto più costosa battaglia del multicore, è inevitabile presagire profondi mutamenti nell’hardware che renderanno il PC qualcosa di molto diverso da quello che è ora. Un esempio di questi mutamenti è AMD Fusion , che proprio attraverso la “fusione” di CPU e GPU potrebbe trasformare l’attuale epoca del multicore in una tappa, anche piuttosto infelice, verso un nuovo paradigma hardware.
Intel dal canto suo non è ferma, e, con tutto il peso della sua quota di mercato, spinge la sua visione dell’hardware, sviluppando proprie rivisitazioni degli standard PC che tenterà di imporre sul mercato.
Se storicamente è stata proprio la standardizzazione dell’hardware a incentivare la diffusione del PC, l’idea di un sempre più profondo “forking” degli standard hardware pone grossi dubbi sul futuro dell’intero settore. AMD Hyper-Transport contro Intel Common System Interface (CSI), AMD Torrenza (che potrebbe riaprire l’era dei coprocessori), lo stream computing di AMD, i differenti approcci sulla virtualizzazione hardware con Pacifica contro Vanderpool, sono tutti fronti caldi di uno scontro che potrebbe non avere un vincitore, ma che quasi certamente lascerà sul campo una vittima: gli attuali standard hardware per PC.
Mentre la rivoluzione messa in moto sul fronte hardware dal duopolio Intel-AMD sembra essere appena iniziata, il futuro del mercato software appare indeterminato ma molto fluido. Negli ultimi anni abbiamo osservato Microsoft entrare in crisi e non riuscire a reagire con prontezza tanto all’introduzione dei 64 bit nel mercato desktop, quanto a quella dei processori multicore; in un futuro non molto prossimo è possibile che il suddetto “forking” delle architetture hardware richiederà una profonda revisione del modus operandi di Microsoft (resa urgente anche dai competitor del Web, primo fra tutti Google).
Ma fermiamoci al futuro prossimo: presto sarà introdotto sul mercato mainstream Windows Vista, contemporaneamente in versione a 32 e a 64 bit. La versione a 32 bit sarà probabilmente quella più venduta, in quanto capace di far girare la gran parte del software sviluppato per Windows XP. Con un requisito minimo ufficiale di 512 MB di RAM, il nuovo OS di casa Microsoft diventa fruibile e piuttosto reattivo nel multitasking con non meno di 2 GB installati. La vicinanza di questo dato con il limite fisico di 4 GB, dettato da un indirizzamento della memoria a 32 bit, rende di fatto Vista a 32 bit una semplice (e molto onerosa) tappa intermedia verso la versione a 64 bit, la quale a sua volta porrà seri problemi di compatibilità col parco applicazioni esistente e richiederà (stando a quello che si sa oggi) l’acquisto di una nuova licenza.
Inutile ricordare, a un mese dal lancio, che un rispetto della roadmap da parte di Microsoft avrebbe reso anche la transizione da 32 bit a 64 bit molto più fluida. Queste condizioni sul fronte OS potrebbero ostacolare i vantaggi offerti dalle CPU: per fare il “megatasking” ( termine coniato da AMD ), specialmente con Vista, oltre ai core – forse più che i core – serve la memoria. Con il limite dei 32 bit così vicino, l’intera operazione multicore – mega/ultra/gigatasking, ammesso che sia questo il futuro del PC – rischia di rimanere in stand-by fino alla diffusione di massa di Vista a 64 bit. Insomma, se 32 bit vs 64 bit e single thread vs multithread non bastassero a complicare la vita di Microsoft nello sviluppo dei prossimi OS, un possibile e futuribile sviluppo “anarchico” degli standard hardware PC potrebbe davvero portare alla fine del “PC 1.0”. La domanda sorge spontanea: come sarà il PC 2.0?
Dopo che la lunga ubriacatura di PC “aperti” ha reso anarchico il panorama hardware e messo in crisi i produttori di software, potrebbero essere maturi i tempi per un tendenziale ritorno alle piattaforme chiuse: un insieme finito di componenti, ben noto a priori, con un differente ma comunque più profondo modo di integrazione col software. Questa idea, di cui Apple è una tradizionale sostenitrice (in quanto anche produttrice di software), viene ultimamente abbracciata dai produttori di console di ultima generazione, capaci di prestazioni uguali o superiori al migliore dei PC. Sony, per esempio, è impegnatissima nelle ultime settimane a promuovere la PlayStation 3 come molto di più di una semplice console da gioco .
Avendo un certo numero di piattaforme hardware a disposizione, starebbe dunque allo specifico sviluppatore di OS o applicazioni scegliere quella/e di riferimento e scrivere codice altamente ottimizzato. Proviamo ad immaginare alcune conseguenze di questo cambio di paradigma:
1) i produttori di software potrebbero confrontarsi su campo “neutro” e ben definito, come già oggi accade sui Mac Intel con la compresenza di OSX, Windows e Linux;
2) i produttori di console potrebbero vendere i propri prodotti come computer, quindi a prezzi più elevati, uscendo dall’attuale schema basato su n mesi di vendita sottocosto dell’hardware;
3) i produttori di hardware manterrebbero comunque vivo il proprio mercato con dei cicli di aggiornamento, parziale o totale, che darebbero anche ai più incalliti smanettoni opportunità di sfogo;
4) gli stessi produttori di hardware potrebbero perseguire strategie di innovazione molto più aggressive, per non dover adeguarsi ad un ecosistema paralizzato da moltissimi e spesso divergenti interessi;
5) i grandi OEM come Dell, HP e Lenovo proporrebbero una o più linee specifiche di hardware, con percorsi di aggiornamento e personalizzazione ben definiti;
6) gli utenti si avvantaggerebbero di software molto più stabile e performante.
Un simile scenario vedrebbe alcuni operatori subito pronti a trarre grossi benefici:
1) Apple, unico alfiere delle piattaforme chiuse sopravvissuto all’avvento del PC Wintel;
2) Intel, che in forza dell’alleanza con Apple potrebbe rendere disponibili le proprie innovazioni architetturali attraverso il canale Apple senza paura che il software ritardi a supportarle;
3) IBM, che come fornitore delle CPU di tutte e tre le console di prossima generazione, potrebbe solo giovarsi di un’estensione del significato di console che invada il terreno del PC;
4) I produttori di console orientati ad invadere il mercato PC.
Linux sarebbe di certo pronto a saltare sul PC 2.0, ma questo non eliminerebbe i dubbi circa la capacità dell’OS del pinguino di adattarsi ad un pubblico più che ad un impiego “personal”.
Altri sarebbero costretti a mutare più o meno radicalmente le proprie strategie:
1) Microsoft, a cui si richiederebbe di sviluppare OS e applicazioni capaci di sfruttare non più un insieme virtualmente infinito di periferiche, ma poche “famiglie” di hardware molto diverse fra loro;
2) AMD, a cui si richiederebbe di trovare un canale preferenziale di sbocco per le proprie innovazioni architetturali (come Apple sarebbe e in parte è già per Intel) e mettere a frutto la fusione con ATI per definire una propria piattaforma;
3) Gli OEM e in minor misura i rivenditori, che dovrebbero rivedere le proprie linee di prodotto in funzione delle nuove piattaforme o sceglierne una e legarsi al suo destino.
Tutto quanto detto rappresenta, ad oggi, poco più che fantascienza: Apple ha una quota di mercato ampiamente insufficiente per assorbire il volume di fuoco di Intel, AMD-ATI ha tante idee ma non ancora una propria piattaforma e soprattutto Microsoft è ancora saldamente leader del mercato software. Un simile cambio di paradigma probabilmente porrebbe in discussione la sua stessa leadership, e già per questo, quand’anche rischiasse di accadere, verrebbe da Microsoft avversato quanto più possibile. D’altronde i limiti dell’architettura PC sono ormai evidenti, e complicano molto la vita a chi sviluppa software, il che a sua volta mette Microsoft nell’urgenza di rivedere il proprio approccio al mercato.
Se questa è fantascienza o meno saranno i prossimi mesi a dirlo. Di certo nel calderone PC, con Apple passata ad Intel, Microsoft alla vigilia del rilascio della più costosa e discussa release di Windows, AMD che si fonde con ATI e guadagna quote presso i grandi OEM tra cui Dell, c’è ormai tutto l’occorrente per un grande cambiamento.
Alessio Di Domizio