Alfonso Maruccia

CPU e GPU, unite per la prestazione

Una ricerca parzialmente finanziata da AMD tratteggia nuovi scenari di utilizzo congiunto delle unità CPU e GPU dei processori moderni. La collaborazione porterebbe a vantaggi notevoli

Roma - Usare la CPU come componente "acceleratrice" del lavoro di calcolo deputato alla GPU in applicazioni GPGPU: è questo lo scenario descritto dai ricercatori della North Carolina State University, i quali, lavorando con fondi parzialmente concessi da AMD, sono riusciti a ottenere un aumento di prestazioni del 20 per cento quando le due componenti (CPU e GPU) vengono usate di concerto.

Naturalmente lo scenario appena descritto è valido solo per i nuovi super-processori commercializzati da Intel e AMD (APU), vale a dire quelli contenenti sia l'unità elaborativi centrale che la componente per la grafica accelerata sullo stesso die.

"Il nostro approccio consiste nel permettere ai core della GPU di eseguire funzioni computazionali - spiega il professore associato di ingegneria informatica Huiyang Zhou - e usare i core della CPU per fare il pre-fetch dei dati di cui la GPU avrà bisogno a partire dai chip periferici della memoria di sistema principale".
In tal modo si applica un principio più efficiente, spiega ancora Zhou, "perché permette a CPU e a GPU di fare quello per cui sono tagliate". Le GPU sono specializzate nell'eseguire i calcoli, mentre le CPU sono specializzate nel prendere decisioni e nel recuperare informazioni in maniera flessibile.

Alfonso Maruccia
Notizie collegate
  • HardwareAMD, dalle APU ai SoC Il chipmaker di Sunnyvale cambia strategia e cerca alleati per lasciare il segno anche sui nuovi mercati. Aggiornate le roadmap
8 Commenti alla Notizia CPU e GPU, unite per la prestazione
Ordina
  • una volta era la GPU ad accelerare la CPU, adesso fanno il contrario? lol
    non+autenticato
  • io non capisco proprio dove vogliono arrivare

    imho, nel prossimo futuro ci sarà una fortissima convergenza tra cpu e gpu, amd ha già iniziato con fusion e presto nvidia seguirà

    proprio ieri, dovendo metter su un cluster, stavo analizzando la diatriba cpu vs. gpu

    ho letto un pò di robe di amd, nvidia, intel, la stanford university e qualche altro e ho scoperto molte cosine interessanti, tra cui il fatto che le gpu non hanno 800 processori ma al massimo 16

    insomma, un pò di smarkettizzazione del settore

    però proprio riguardo ai 16 core delle moderne fermi, mi è venuto in mente che in fondo intel è rimasta a 6

    cioè nvidia mi offre 16 core REALI, con tanto di logiche per la gestione del branching, mmu e compagnia, quindi parliamo di 16 processori, ognuno con 64 unità vettoriali

    insomma una bella roba pure per applicazioni MIMD, mica solo le SIMD

    quindi perchè tiriamo in ballo ancora una volta la cpu? al massimo nei supercomputer attuali può fare il vigile urbano
    non+autenticato
  • Il chip GF100 (il base dell'architettura Fermi) ha 4 Graphics Processing Clusters (GPCs) ed ognuno di questi ha 4 Streaming Multiprocessors (SMs). Ogni SM ha 32 Stream Processors (o CUDA cores) per un totale di 4*4*32=512 SMs. Gli SMs sono le unità fondamentali di elaborazione in grado di eseguire un operazione elementare, ed ogni SM si occupa dell'esecuzione di 1 CUDA thread. Quindi hai 512 threads in esecuzione parallelamente, considera che, dato che i tempi di context switch sono pari a 0 per la leggerezza dei threads, una scheda video permette l'esecuzione di migliaia di threads senza risentirne, anzi...
    non+autenticato
  • Aspetta che esca il modello Tesla... e poi vedrai che goduria!
    non+autenticato
  • 16 x 50
    non+autenticato
  • che c'è quest'altalena Annoiato
    non+autenticato
  • non è che il principio sia poi così nuovo è dagli anni 70 che l'idea di accoppiare unità specializzate è stata applicata.

    Ad esempio molti mainframe impiegati in ambiente scientifico avevano all'epoca unità specializzate per il calcolo vettoriale.

    Non mi pare una idea "rivoluzionaria".
    non+autenticato
  • - Scritto da: tucumcari
    > non è che il principio sia poi così nuovo è dagli
    > anni 70 che l'idea di accoppiare unità
    > specializzate è stata
    > applicata.
    >
    > Ad esempio molti mainframe impiegati in ambiente
    > scientifico avevano all'epoca unità specializzate
    > per il calcolo
    > vettoriale.
    >
    > Non mi pare una idea "rivoluzionaria".

    Per smartphone fanno già questo se non sbaglio con i giochi.
    non+autenticato