Negli ultimi anni si è assistito a un fenomeno curioso: la corsa al megahertz , che aveva caratterizzato gli anni ’90 e poi la prima parte del primo decennio del nuovo secolo, si è andata spegnendo di pari passo con il graduale rallentamento dell’evoluzione in questo senso dei microprocessori per PC. Esaurita la vena della velocità pura, tutti i grandi produttori di CPU si sono impegnati innanzi tutto nell’adozione di nuovi meccanismi per l’esecuzione parallela dei thread, poi nella creazione di CPU multi-core, e infine nell’integrazione sul die della CPU stessa di funzioni e transistor che in precedenza erano collocati altrove. L’ultima tendenza è quella dell’efficienza: stesse prestazioni, minori consumi.
L’approccio tenuto dai due principali attori di questo mercato, AMD e Intel, è stato leggermente diverso e ha avuto risultati molto differenti: le due aziende hanno scelto di privilegiare in ordine diverso la miniaturizzazione del processo, la scalabilità delle frequenze e soprattutto nel caso di AMD l’integrazione tra le unità di calcolo proprie della CPU con quelle della GPU. Da molti anni Sunnyvale pone l’accento sul proprio concetto di APU , un’ unità di elaborazione accelerata (Accelerated Processing Unit) che costituisce il mattone base per il concetto di architettura moderna di AMD: la compresenza sullo stesso die di silicio di CPU e GPU, e l’impiego di quest’ultima con funzioni di GPGPU, mostrano in modo evidente la distanza che esiste tra quanto approntato dal chipmaker rispetto alle soluzioni dei concorrenti.
“Il tema è l’evoluzione architetturale – spiega a Punto Informatico Roberto Dognini , director of Commercial Sales EMEA di AMD – Le architetture di oggi sono eterogenee, non si tratta semplicemente di due core molto simili affiancati su una CPU, e non è questione solo di frequenza: ci sono architetture diverse in campo, come le nostre APU, che implicano funzionamenti diversi che impongono un’evoluzione anche all’ecosistema software. Oggi molti sistemi operativi e molte applicazioni riconoscono questi motori di elaborazione evoluti, sono in grado di approfittare dei vantaggi offerti per esempio sfruttando le doti di elaborazione della GPU”.
Il punto secondo Dognini è che oggi è difficile scegliere un PC solo in base alla frequenza del processore o al numero di core della CPU : “Per chi non è addentro ai dettagli tecnici delle architetture, e magari compra PC per la pubblica amministrazione o una grande azienda, il benchmark può essere uno degli strumenti che può aiutare a fare la scelta giusta” continua il manager di AMD. Qui però si apre un altro capitolo, quello dei benchmark, che è un potenziale vaso di Pandora: la scelta di un benchmark in luogo di un altro può fare molta differenza nell’attribuire a una certa piattaforma determinate prestazioni superiori o inferiori a un’altra, senza contare che non mancano anche nel recente passato casi nei quali con un minimo di furbizia si possono “truccare” i risultati.
“Per questo motivo occorre badare a quale benchmark si sceglie, selezionare un prodotto serio e indipendente che tenga conto di tutte le moderne evoluzioni architetturali dei diversi vendor e non faccia favoritismi: è il caso di Futuremark con la sua suite di benchmark”. Nello sviluppo di prodotti come PcMark, spiega Dognini, tutti i produttori sono rappresentati e possono fornire indicazioni per ottimizzare al meglio il codice per la propria architettura, in modo tale da rappresentare al meglio le capacità del proprio hardware. “Anche il mercato sta utilizzando questo benchmark, come nel caso della Commissione Europea che utilizzerà un punteggio base per definire i requisiti nelle sue gare d’appalto ( è una notizia dello scorso luglio , ndr )”: in questo senso, l’utilizzo di un numero di questo tipo può costituire un punto di partenza per iniziare la ricerca e non rischiare errori madornali nella selezione del prodotto .
In ogni caso, sempre secondo Dognini, il benchmark non è tutto: “È il cliente finale che sa davvero a cosa servirà il PC che si accinge ad acquistare: è un laptop che deve svolgere semplici complici da ufficio? Si tratta di una stazione che dovrà elaborare materiale multimediale? È l’equipaggiamento di un tecnico che si occupa di modellazione CAD?”. Il benchmark è un punto di partenza , che serve a orientare anche un profano che non sia avvezzo a valutare nel dettaglio l’architettura di un calcolatore: “Come quando vogliamo acquistare un’automobile: guardiamo i dépliant con alcune specifiche, che ci aiutano a farci un’idea del motore che equipaggia l’auto che stiamo comprando, anche se poi quelle informazioni non riflettono l’uso reale che si farà del mezzo”. Il benchmark per AMD, insomma, è un po’ come l’indicazione su quanti chilometri fa con un litro un’automobile: ma non è solo con questo parametro che si effettua quel tipo di acquisto.
Dognini stesso ammette però alcuni limiti di questo approccio: “Il mercato dell’automobile è stato oggetto di seria regolamentazione per quanto riguarda la misura di valori caratteristici come quelli citati: il mondo dei personal computer si evolve e si è evoluto molto rapidamente, rendendo pressoché impossibile un’operazione simile. I benchmark però si sono evoluti e si continuano a evolvere di conseguenza, e dunque idealmente sono la soluzione perfetta per offrire a chi si occupa di acquisti un metro di paragone utile per confrontare le diverse architetture”.
Ovviamente quello che accade da questo momento in avanti, ovvero dalla prima scrematura effettuata grazie ai benchmark, non è un procedimento univoco o immediato: in un’azienda medio-grande ci sarà senz’altro del personale IT qualificato in grado di stabilire quale sia il prodotto giusto per l’utente, nei casi del mercato consumer o nelle piccole imprese si tratta di valutare caso per caso. Individuare quali sono i compiti da svolgere, e valutare quali sono le prestazioni delle proprie applicazioni preferite sulle diverse piattaforme in ballo, è un compito che un solo benchmark non può svolgere e per il quale serve l’intervento dell’uomo . “Le nostre APU offrono vantaggi notevoli in determinate condizioni, alcune applicazioni le sfruttano al meglio e altre meno: noi però siamo convinti della direzione che abbiamo intrapreso, pensiamo di avere un’architettura molto ben bilanciata e di poter offrire le migliori prestazioni con la migliore efficienza energetica” conclude Dognini.
a cura di Luca Annunziata