Supercomputer, il Giappone trionfa

NEC supera IBM e agguanta il primato del supercomputer più veloce al mondo grazie ad un sistemone capace di macinare 65 Tflops. La sfida per la prima posizione non era mai stata così calda

Milano - NEC sembra decisa a conservare strettamente nelle proprie mani la palma per il computer più veloce al mondo, un primato che IBM aveva tentato di strapparle, lo scorso mese, con l'annuncio di un supercomputer Blue Gene/L da 36 teraflops. Sembra tuttavia che Big Blue non farà in tempo a vedere il proprio monster in vetta alla classifica di Top500.org visto che, nella giornata di ieri, NEC ha presentato un nuovo monster da record.

Si tratta di SX-8, supercomputer vettoriale capace, secondo NEC, di fornire una prestazione di picco pari a 65 Tflops o, cifra sicuramente più suggestiva, di 65mila miliardi di operazioni in virgola mobile al secondo.

Basato su di un'architettura già utilizzata da NEC nell'ormai celebre Earth Simulator, il sistema che ha dominato la classifica dei supercomputer più veloci per oltre due anni, SX-8 è stato progettato per essere utilizzato in tutti i settori dove sia necessaria l'elaborazione di grandi quantità di dati a velocità elevatissime, come le previsioni meteorologiche, le simulazioni ambientali e i crash test in campo automobilistico.
Il nome SX-8 non identifica un solo modello ma un'architettura di supercomputing che può essere utilizzata per dar vita a sistemi a singolo nodo, con un massimo di 8 CPU e una performance di picco di 128 Gflops, fino ad arrivare a mostri di calcolo costituiti da 512 nodi e oltre 4.000 CPU: in questo caso la potenza massima può raggiungere, come dimostrato da NEC, i 65 Tflops.

NEC ha spiegato che se le prestazioni del proprio bolide vengono misurate con lo stesso benchmark utilizzato da IBM per il suo ultimo modello di Blue Gene/L, SX-8 fornisce un valore di 58,5 Tflops: un risultato che rimane in ogni caso ben al di sopra dei 36,1 Tflops fatti segnare da Blue Gene.

Il fulcro della nuova architettura SX di NEC è costituito da un processore vettoriale a singolo chip costituito da un'unità vettoriale da 16 Gflops e due unità scalari da 2 Gflops: la prima funziona ad una frequenza di 2 GHz, il doppio rispetto al precedente modello SX-6. Il produttore giapponese afferma che la propria architettura raggiunge una velocità di trasferimento dati tra CPU e memoria di 262 TB/s, inoltre è ora in grado di supportare una capacità di memoria fino a 64 TB.

Ma la sfida con IBM non si gioca solo sul piano delle prestazioni, bensì anche su quello dei consumi e dell'ingombro. A tal proposito NEC sostiene che SX-8 consente di ottenere, rispetto a non meglio precisati "modelli tradizionali", una riduzione in termini di spazio occupato del 25% e di consumo energetico del 50%.

"Questo risultato - ha spiegato il colosso - è stato raggiunto grazie all'impiego di tecnologie di packaging ad alta densità che consentono di implementare processore/i e memoria su un unico modulo".

Il prezzo di noleggio mensile di SX-8 parte da circa 1.170.000 yen, pari a circa 8.570 euro, e le consegne inizieranno a dicembre 2004. L'obiettivo di NEC è vendere nel mondo oltre 700 unità SX-8 nei prossimi tre anni.

Il produttore nipponico è entrato sul mercato dei supercomputer nel 1983 con il lancio dello SX-2, a suo dire il primo sistema ad aver superato una performance di 1 Gflops.

Come noto, i supercomputer hanno via via assunto un ruolo sempre più centrale perché vengono utilizzati in diversi settori, tra cui lo sviluppo di tecnologie avanzate come i materiali funzionali per le nanotecnologie, il calcolo scientifico su ampia scala, la simulazione in campo energetico (come la fusione nucleare), e per vari compiti in campo aeronautico, spaziale e ingegneristico, come nella progettazione di automobili e nello sviluppo di prodotti elettronici.

Sebbene 65 Tflops non siano pochi, NEC non avrà vita facile nel conservare il primato per il supercomputer più veloce al mondo. IBM ha infatti disoterrato l'ascia di guerra e si è detta pronta a lanciare versioni di Blue Gene capaci di sfiorare, entro pochi anni, i 400 Tflops. La sfida è aperta.
TAG: hw
43 Commenti alla Notizia Supercomputer, il Giappone trionfa
Ordina
  • dopo trent'anni di informatic personale, quando leggo queste notizie mi sembra di essere tornati indietro di 40anni, almeno secondo i racconti di chi a quel tempo c'era.
    I primi sistemi di calcolo di IBM arrivati in Italia venivano affittati e non venduti e l'affitto medio annuo era pari al costo d'acquisto di un appartamento. Ora la storia si ripete: certo, c'è stato il caro mattone e lo svalutamento dell'informatica, con 100 mila euro più che un appartamento prendi un monolocale, tuttavia il concetto non è cambiato. La differenza è la verticalizzazione di questi mostri: mentre 40 anni fa i sistemi di calcolo in affitto servivano per compiti relaivamente semplici, oggi svolti più che egregiamente dai personal computer, il sistema presentato oggi va ad interessare un numero decisamente più ristretto di persone. Dubito vedremo mai uno di questi "cosi" in Italia, eppure le previsioni del tempo si continueranno a fare anche da noi.
    C'è un'ultima cosa che mi preme dire. Quando 15 anni fa si passo dal 286 al 386 in molti provarono a fare questo esperimento: preso un programmino DOS sviluppato per 8088, lo hanno lanciato così com'era sul 386 e lo hanno ricompilato ed ottimizzato per il 286. Il risultato è stato che il software ottimizzato per la CPU era nettamente più veloce nonostante sulla carta la macchina fosse più lenta. Questo per dire che oggi, dove la maggior parte del software è ancora ottimizzata 486, stiamo buttando via una quantità di risorse di calcolo veramente elevata. In questa panoramica di sprechi i pochi a portare la luce dell'ottimizzazione sono i Linari, con le distribuzioni ottimizzate per le diverse CPU. Forse potrebbero sfruttare ulteriormente questo vantaggio e magari, per le piattaforme più nuove, non limitarsi solamente a ricompilare il codice con il compilatore nativo della CPU, ma provare anche ad ottimizzare il sorgente. Potremmo avere sistemi dalle prestazioni sino ad ora sconosciute!!! Io purtroppo non mi reputo in grado di fare ciò, altrimenti ci proverei, anche solo per curiosità!!!
    non+autenticato
  • Questo vale per programmi classici.
    Ora sul mio PC sta girando un programma scientifico di grid computing e sul mio AthXP 1600+ mobile gira molto più veloce rispetto all'Ath 900. Unica differenza sostanziale: il primo ha le SSE che probabilmente sono sfruttate dal codice.
    I supercomputer sicuramente spremono ogni singolo Gflop dei processori visto il loro costo. Può esserci un'inefficienza dello 0,1% ma è sempre un discorso costi-benefici.
    Per i PC essendoci altre priorità ovviamente il codice più inefficiente.
    Linux permettendo la ricompilazione rende più facile avere programmi ottimizzati per la propria architettura. La distribuzione Gentoo offre ottime prestazioni proprio grazie a questo.
    Tuttavia ci sono altri aspetti da considerare. Una distribuzione linux usata come Server in un'azienda deve garantire soprattutto robustezza a eventuali attacchi e affidabilità. Questo va a scapito dell'efficienza del codice.

  • > Ora sul mio PC sta girando un programma
    > scientifico di grid computing e sul mio
    > AthXP 1600+ mobile gira molto più
    > veloce rispetto all'Ath 900.
    Ma il codice è lo stesso o è stato ricompilato per otimizzarlo su una delle due macchine.
    A parità di codice è evidente che una macchina più nuova lavori meglio, ci mancherebbe, non volevo di certo dire questo

    > I supercomputer sicuramente spremono ogni
    > singolo Gflop dei processori visto il loro
    > costo. Può esserci un'inefficienza
    > dello 0,1% ma è sempre un discorso
    > costi-benefici.
    Condivido questo tuo pensiero

    > Per i PC essendoci altre priorità
    > ovviamente il codice più
    > inefficiente.
    > Linux permettendo la ricompilazione rende
    > più facile avere programmi
    > ottimizzati per la propria architettura. La
    > distribuzione Gentoo offre ottime
    > prestazioni proprio grazie a questo.
    Conosco la distribuzione Gentoo ed infatti era ad essa che facevo riferimento quando parlavo di compilazione ottimizzata.

    > Tuttavia ci sono altri aspetti da
    > considerare. Una distribuzione linux usata
    > come Server in un'azienda deve garantire
    > soprattutto robustezza a eventuali attacchi
    > e affidabilità. Questo va a scapito
    > dell'efficienza del codice.
    Per chiarirsi: io non parlavo di ottimizazzione del codice nel senso di togliere o meno funzionalità! Sono concorde che le funzioni di sicurezza rallentano il codice e nello stesso tempo sono indispensabili.
    Quello che mi chiedo è quanto, in termini di prestazione, a parità di hardware, si potrebbe guadagnare usando invece del codice standard un codice che sia ottimizzato per chiamare sempre le funzioni preimpostate nella CPU per sfruttarne i punti di forza (SSE piuttosto che MMX o altre diavolerie del genere).
    Le prestazioni di una macchina sono imprescindibili dal software che ci gira sopra: io sinceramente non saperei dare una valutazione ad esempio sulle SPARC di SUN: con Solaris ottengono prestazioni superiori rispetto agli Opteron, ma se Solaris invece che ricompilato fosse anche riprogrammato nelle librerie per sfruttare le istruzioni che in Opteron ci sono e sulle SPARC no, la differenza in prestazioni ci sarebbe ancora??
    non+autenticato

  • - Scritto da: Anonimo
    > dopo trent'anni di informatic personale,
    > quando leggo queste notizie mi sembra di
    > essere tornati indietro di 40anni, almeno
    > secondo i racconti di chi a quel tempo
    > c'era.
    > I primi sistemi di calcolo di IBM arrivati
    > in Italia venivano affittati e non venduti e
    > l'affitto medio annuo era pari al costo
    > d'acquisto di un appartamento. Ora la storia
    > si ripete: certo, c'è stato il caro
    > mattone e lo svalutamento dell'informatica,
    > con 100 mila euro più che un
    > appartamento prendi un monolocale, tuttavia
    > il concetto non è cambiato. La
    > differenza è la verticalizzazione di
    > questi mostri: mentre 40 anni fa i sistemi
    > di calcolo in affitto servivano per compiti
    > relaivamente semplici, oggi svolti
    > più che egregiamente dai personal
    > computer, il sistema presentato oggi va ad
    > interessare un numero decisamente più
    > ristretto di persone. Dubito vedremo mai uno
    > di questi "cosi" in Italia, eppure le
    > previsioni del tempo si continueranno a fare
    > anche da noi.
    > C'è un'ultima cosa che mi preme dire.
    > Quando 15 anni fa si passo dal 286 al 386 in
    > molti provarono a fare questo esperimento:
    > preso un programmino DOS sviluppato per
    > 8088, lo hanno lanciato così com'era
    > sul 386 e lo hanno ricompilato ed
    > ottimizzato per il 286. Il risultato
    > è stato che il software ottimizzato
    > per la CPU era nettamente più veloce
    > nonostante sulla carta la macchina fosse
    > più lenta. Questo per dire che oggi,
    > dove la maggior parte del software è
    > ancora ottimizzata 486, stiamo buttando via
    > una quantità di risorse di calcolo
    > veramente elevata. In questa panoramica di
    > sprechi i pochi a portare la luce
    > dell'ottimizzazione sono i Linari, con le
    > distribuzioni ottimizzate per le diverse
    > CPU. Forse potrebbero sfruttare
    > ulteriormente questo vantaggio e magari, per
    > le piattaforme più nuove, non
    > limitarsi solamente a ricompilare il codice
    > con il compilatore nativo della CPU, ma
    > provare anche ad ottimizzare il sorgente.
    > Potremmo avere sistemi dalle prestazioni
    > sino ad ora sconosciute!!! Io purtroppo non
    > mi reputo in grado di fare ciò,
    > altrimenti ci proverei, anche solo per
    > curiosità!!!

    Ma per favore, quante idiozie in un solo post
    Tu sai cosa è ATLAS, vero ?
    http://math-atlas.sourceforge.net/timing/

    http://www.top500.org/lists/linpack.php
    http://www.netlib.org/utk/people/JackDongarra/faq-...
    non+autenticato
  • francamente non ho capito che cosa vorresti dimostrare con i link che hai aggiunto e dove sarebbero in contrasto con quanto scritto sopra... se per favore ti spieghi così posso capire
    non+autenticato

  • - Scritto da: Anonimo
    > francamente non ho capito che cosa vorresti
    > dimostrare con i link che hai aggiunto e
    > dove sarebbero in contrasto con quanto
    > scritto sopra... se per favore ti spieghi
    > così posso capire

    «Questo per dire che oggi, dove la maggior parte del software è ancora ottimizzata 486»

    Non è così

    «stiamo buttando via una quantità di risorse di calcolo veramente elevata. In questa panoramica di sprechi i pochi a portare la luce dell'ottimizzazione sono i Linari, con le distribuzioni ottimizzate per le diverse CPU. Forse potrebbero sfruttare ulteriormente questo vantaggio e magari, per le piattaforme più nuove, non limitarsi solamente a ricompilare il codice con il compilatore nativo della CPU, ma provare anche ad ottimizzare il sorgente.»

    ATLAS fa questo:
    ATLAS stands for Automatically Tuned Linear Algebra Software. ATLAS is both a research project and a software package. This FAQ describes the software package. ATLAS's purpose is to provide portably optimal linear algebra software. The current version provides a complete BLAS API (for both C and Fortran77), and a very small subset of the LAPACK API. For all supported operations, ATLAS achieves performance on par with machine-specific tuned libraries.

    Who uses ATLAS?
    ATLAS can be used by anyone needing fast linear algebra routines. ATLAS is used directly by a great many research scientists. Because of the open nature of ATLAS, we have no way of knowing how many users of ATLAS there are. In the following paragraphs, we indicate some of the users that we know about, but this is far from a complete list.

    «Potremmo avere sistemi dalle prestazioni sino ad ora sconosciute!!! Io purtroppo non mi reputo in grado di fare ciò, altrimenti ci proverei, anche solo per curiosità!!!»

    ATLAS è auto-ottimizzante, nel senso che quando la installi scegli le routine ottime (scritte spesso in ASM, SSE1/2/3 - 3dnow!) per la tua architettura, e nel caso in cui la tua CPU non è direttamente supportata esegue una serie di test per determinare i parametri migliori per sfruttare appieno il Theoretical Peak Performance della tua CPU (Clock/s * FP per ciclo * numero unità FP), cosa che ti garantisco non è banale.
    Se vuoi contribuire con tue routine puoi farlo qui
    http://math-atlas.sourceforge.net/devel/

    La notizia parla di Supercomputer, che non sono altro che mega-cluster tipo questo.
    Il benchmark è questo
    http://www.top500.org/lists/linpack.php
    http://www.netlib.org/utk/people/JackDongarra/faq-...

    quindi si tratta di risolvere sistemi di equazioni lineari in parallelo, come si fa ?

    Si usa ATLAS su ogni nodo e Scalapack, per distribuire il calcolo tramite MPI
    non+autenticato

  • - Scritto da: Anonimo

    > La notizia parla di Supercomputer, che non
    > sono altro che mega-cluster tipo questo.
    > Il benchmark è questo

    http://www.fz-juelich.de/portal/datapool/presse/20...
    non+autenticato
  • Non credo di essere in contrasto con quanto scrivi. Io parlavo di personal computer nella second parte del mio intervento e non più di supercalcolatori. Scusa, forse questo non s'è capito.
    Ed in effetti il tuo esempio va in qeusta direzione, ossia ottimizzando gli algoritmi in funzione delle CPU si possono ottenere prestazioni maggiori.
    Ciò nonostante converrai che ATLAS non è propriamente un progettto riciclabile nelle routine di tutti i giorni dove ci si trova a fronteggiare calcoli che mettono a dura prova le CPU per quantità e non per complessità.
    ATLAS è un bell'esempio di cosa si può fare, i cosa forse si dovrebbe fare, ma è l'eccezione che conferma la regola: se guardi su http://www.linuxiso.org/ scoprirai come la maggior parte delle distribuzioni punti come CPU di base addirittura alla compatiilità con il 386, mentre quelle ottimizzate 686 (credo siano i Pentium 2 o pentium Pro) siano ua neta minoranza. Delle stesse distribuzioni per Athlon 64 non ho capito se si tratta di una ricompilazione a 64bit oppure di un lavoro più profondo di ristrutturazione a 64 bit anche delle istruzioni.
    In sostanza stiamo dicendo la stessa cosa... mi pare!!!
    non+autenticato

  • - Scritto da: Anonimo
    > Non credo di essere in contrasto con quanto
    > scrivi. Io parlavo di personal computer
    > nella second parte del mio intervento e non
    > più di supercalcolatori. Scusa, forse
    > questo non s'è capito.
    > Ed in effetti il tuo esempio va in qeusta
    > direzione, ossia ottimizzando gli algoritmi
    > in funzione delle CPU si possono ottenere
    > prestazioni maggiori.
    > Ciò nonostante converrai che ATLAS
    > non è propriamente un progettto
    > riciclabile nelle routine di tutti i giorni
    > dove ci si trova a fronteggiare calcoli che
    > mettono a dura prova le CPU per
    > quantità e non per
    > complessità.

    In ambito scientifico le ATLAS rappresentano dei mattoni (a mo un framework) su cui si basano la maggior parte di problemi, CFD ad esempio, studio del clima, meteo, simulazioni nucleari (l'ascii red della IBM)
    http://www.cadcamforum.pl/4'99/gif/cad04077.gif
    è un supercomputer su cui fanno simulazioni nucleari

    > ATLAS è un bell'esempio di cosa si
    > può fare, i cosa forse si dovrebbe
    > fare, ma è l'eccezione che conferma
    > la regola: se guardi su www.linuxiso.org /
    > scoprirai come la maggior parte delle
    > distribuzioni punti come CPU di base
    > addirittura alla compatiilità con il
    > 386, mentre quelle ottimizzate 686 (credo
    > siano i Pentium 2 o pentium Pro) siano ua
    > neta minoranza. Delle stesse distribuzioni
    > per Athlon 64 non ho capito se si tratta di
    > una ricompilazione a 64bit oppure di un
    > lavoro più profondo di
    > ristrutturazione a 64 bit anche delle
    > istruzioni.
    > In sostanza stiamo dicendo la stessa cosa...
    > mi pare!!!

    TI posso dire che in questo hai ragione in quanto parecchi software non sono neanche facilmente ricompilabili per l'architettura athlon64, infatti cinerella non ne vuole proprio sapere di compilarsi, quindi peggio ancora.
    Ottimmizzare i sw per sfruttare questa architettura richiede un duro lavoro, soprattuto in software dove si è fatto uso di moduli in asm per x86 (quindi registri a 32 bit, eax, edx ecc) al posto di quelli a 64 bit:

    un esempio tratto da
    http://www.amd.com/us-en/assets/content_type/white...

    Optimization

    Use 64-bit registers for 64-bit integer arithmetic.

    Rationale
    Using 64-bit registers instead of their 32-bit equivalents can dramatically reduce the amount of code necessary to perform 64-bit integer arithmetic.

    Example 1
    This code performs 64-bit addition using 32-bit registers:
    ; Add ECX:EBX to EDX:EAX, and place sum in EDX:EAX.
    00000000 03 C3 add eax, ebx
    00000002 13 D1 adc edx, ecx

    Using 64-bit registers, the previous code can be replaced by one simple instruction (assuming that RAX and RBX contain the 64-bit integer values to add):
    00000000 48 03 C3 add rax, rbx

    Although the preceding instruction requires one additional byte for the REX prefix, it?s still one byte shorter than the original code. More importantly, this instruction still has a latency of only one cycle, uses two fewer registers, and occupies only one decode slot.


    Example 2
    To perform the low-order half of the product of two 64-bit integers using 32-bit registers, a procedure
    such as the following is necessary:
    ; In: [ESP+8]:[ESP+4] = multiplicand
    ; [ESP+16]:[ESP+12] = multiplier
    ; Out: EDX:EAX = (multiplicand * multiplier) % 2^64
    ; Destroys: EAX, ECX, EDX, EFlags
    llmul PROC
         mov edx, [esp+8] ; multiplicand_hi
         mov ecx, [esp+16] ; multiplier_hi
         or edx, ecx ; One operand >= 2^32?
         mov edx, [esp+12] ; multiplier_lo
         mov eax, [esp+4] ; multiplicand_lo
         jnz twomul ; Yes, need two multiplies.
         mul edx ; multiplicand_lo * multiplier_lo
         ret ; Done, return to caller.
    twomul:
         imul edx, [esp+8] ; p3_lo = multiplicand_hi * multiplier_lo
         imul ecx, eax ; p2_lo = multiplier_hi * multiplicand_lo
         add ecx, edx ; p2_lo + p3_lo
         mul dword ptr [esp+12] ; p1 = multiplicand_lo *       multiplier_lo
         add edx, ecx ; p1 + p2_lo + p3_lo = result in EDX:EAX
         ret ; Done, return to caller.
         llmul ENDP

    Using 64-bit registers, the entire product can be produced with only one instruction:
    ; Multiply RAX by RBX. The 128-bit product is stored in RDX:RAX.
    00000000 48 F7 EB imul rbx



    non+autenticato
  • Ma ci gira OSX?
    E lo potrei utilizzare con Final Cut Pro?Fan Apple
    non+autenticato

  • - Scritto da: Anonimo
    > Ma ci gira OSX?
    > E lo potrei utilizzare con Final Cut
    > Pro?Fan Apple

    In questo Nec non credo proprio, però se vuoi ci sono altri supercomputer dove puoi farlo!
    http://www.apple.com/science/profiles/colsa/

    Ovviamente non puoi farci girare WindowsXP e MS Office

    :D

    capito trollino ?
    non+autenticato

  • - Scritto da: Anonimo
    >
    > - Scritto da: Anonimo
    > > Ma ci gira OSX?
    > > E lo potrei utilizzare con Final Cut
    > > Pro?Fan Apple
    >
    > In questo Nec non credo proprio, però
    > se vuoi ci sono altri supercomputer dove
    > puoi farlo!
    > www.apple.com/science/profiles/colsa /
    >
    > Ovviamente non puoi farci girare WindowsXP e
    > MS Office
    >
    >A bocca aperta
    >
    > capito trollino ?

    Beh, quello che dici non è vero...

    http://www.microsoft.com/mac/products/virtualpc/vi...
    http://www.microsoft.com/italy/mac/default.mspx

    capito macaco?
    non+autenticato

  • - Scritto da: Anonimo

    > Beh, quello che dici non è vero...
    >
    > www.microsoft.com/mac/products/virtualpc/virt
    > www.microsoft.com/italy/mac/default.mspx
    >
    > capito macaco?

    come la maggior parte degli utonti MS hai poca fantasia...
    http://pearpc.sourceforge.net/

    e fai girare quello che desideri....
    capito wintont ?

    non+autenticato

  • - Scritto da: Anonimo
    >
    > - Scritto da: Anonimo
    > >
    > > - Scritto da: Anonimo
    > > > Ma ci gira OSX?
    > > > E lo potrei utilizzare con Final
    > Cut
    > > > Pro?Fan Apple
    > >
    > > In questo Nec non credo proprio,
    > però
    > > se vuoi ci sono altri supercomputer dove
    > > puoi farlo!
    > > www.apple.com/science/profiles/colsa /
    > >
    > > Ovviamente non puoi farci girare
    > WindowsXP e
    > > MS Office
    > >
    > >A bocca aperta
    > >
    > > capito trollino ?
    >
    > Beh, quello che dici non è vero...
    >
    > www.microsoft.com/mac/products/virtualpc/virt
    > www.microsoft.com/italy/mac/default.mspx
    >
    > capito macaco?
    bravo prova XP in emulazione con VPC poi ne riparliamo trollone
    non+autenticato

  • - Scritto da: Anonimo
    >
    > - Scritto da: Anonimo
    > >
    > > - Scritto da: Anonimo
    > > >
    > > > - Scritto da: Anonimo
    > > > > Ma ci gira OSX?
    > > > > E lo potrei utilizzare con
    > Final
    > > Cut
    > > > > Pro?Fan Apple
    > > >
    > > > In questo Nec non credo proprio,
    > > però
    > > > se vuoi ci sono altri
    > supercomputer dove
    > > > puoi farlo!
    > > >
    > www.apple.com/science/profiles/colsa /
    > > >
    > > > Ovviamente non puoi farci girare
    > > WindowsXP e
    > > > MS Office
    > > >
    > > >A bocca aperta
    > > >
    > > > capito trollino ?
    > >
    > > Beh, quello che dici non è
    > vero...
    > >
    > >
    > www.microsoft.com/mac/products/virtualpc/virt
    > >
    > www.microsoft.com/italy/mac/default.mspx
    > >
    > > capito macaco?
    > bravo prova XP in emulazione con VPC poi ne
    > riparliamo trollone

    Non è colpa del software , ma del penoso hardware Apple, ottimizzato per i giochini dei macachi!Fan Windows
    non+autenticato

  • - Scritto da: Anonimo

    > Non è colpa del software, ma del
    > penoso hardware Apple, ottimizzato per i
    > giochini dei macachi!Fan Windows

    non sai di cosa parli...confondi le prestazioni di un emulatore, con l'HW.

    ...per fortuna che gli espertoni come nel tuo caso hanno il coraggio di definirsi PROFESSIONISTI!
    :|
    non+autenticato

  • >
    > ...per fortuna che gli espertoni come nel
    > tuo caso hanno il coraggio di definirsi
    > PROFESSIONISTI!
    >Deluso

    E mi danno pure 3000? al mese, grazie al Certficate of Excellence MIcrosoft....
    Vai, vai, macaco, torna ad impaginare i tuoi biglietti da visita nella tua lurida tipografia da quattro soldi....Fan WindowsFan WindowsFan Windows
    non+autenticato

  • - Scritto da: Anonimo
    >
    > >
    > > ...per fortuna che gli espertoni come
    > nel
    > > tuo caso hanno il coraggio di definirsi
    > > PROFESSIONISTI!
    > >Deluso
    >
    > E mi danno pure 3000? al mese, grazie al
    > Certficate of Excellence MIcrosoft....

    come se ciò implicasse essere esperti in tutto....tuttologo mi faccia il piacere



    > Vai, vai, macaco, torna ad impaginare i tuoi
    > biglietti da visita nella tua lurida
    > tipografia da quattro
    > soldi....Fan WindowsFan WindowsFan Windows
    certo certo....CERTIFICATE OF EXCELLENCE per farci che? pulirsi il c...? o semplicemente spillare soldi alla gente per operazioni che non necessitano titoli cepu del genere?
    non+autenticato

  • - Scritto da: Anonimo
    >
    > >
    > > ...per fortuna che gli espertoni come
    > nel
    > > tuo caso hanno il coraggio di definirsi
    > > PROFESSIONISTI!
    > >Deluso
    >



    > E mi danno pure 3000? al mese, grazie al
    > Certficate of Excellence MIcrosoft....

    MS e Excellence già sono antitetici..figuriamoci un certificate.



    > Vai, vai, macaco, torna ad impaginare i tuoi
    > biglietti da visita nella tua lurida
    > tipografia da quattro
    > soldi....Fan WindowsFan WindowsFan Windows

    eh si hai ragione...macaco (nel senso di primata)
    non+autenticato

  • - Scritto da: Anonimo

    > E mi danno pure 3000? al mese, grazie al
    > Certficate of Excellence MIcrosoft....

    l'hanno creato per te questo certificato???? probabilmente l'hai ottenuto CEPU!!!!

    Questi sono i certificati Microcess....

    Microsoft Certified Professional (MCP)
    Microsoft Certified Trainer (MCT)
    Microsoft Office Specialist (MOS)

    http://www.microsoft.com/italy/traincert/mcp/certi...

    come si spiega che sei uno schiavo di Bill e non conosci neanche la spazzatura che vende a caro prezzo ????
    non+autenticato