Parhelia vuole schiacciare GeForce e Radeon

Parhelia vuole schiacciare GeForce e RadeonMontreal (Canada) - Entro la fine dell'anno il mercato dei processori grafici 3D sembra destinato a vivacizzarsi parecchio, e questo grazie all'arrivo sul segmento consumer di concorrenti che, stando a quanto annunciato, potrebbero seriamente minacciare il semi-duopolio che ATI e Nvidia hanno creato nel settore.

Dopo il recente annuncio di Creative/3DLabs, è ora il momento di Matrox, una società che fino ad oggi si era tenuta alla larga dalla sfida "tutticontrotutti" nel mercato degli hardcore gamer ma che oggi, grazie al suo nuovo chippone Parhelia-512, sembra decisamente pronta a sfidare le ultime incarnazioni di GeForce e Radeon.

Di Parhelia-512 salta subito all'occhio l'elevato numero di transistor, ben 80 milioni (contro i 63 milioni del GeForce 4), e la nuova architettura a 512 bit. Il chip è costruito con una tecnologia a 0.15 micron ed integra un'interfaccia con la memoria DDR di 256 bit, in grado di fornire un'ampiezza di banda di oltre 20 GB/s.
Dotata del supporto all'AGP 8x, Parhelia-512 supporta un frame buffer contiguo di dimensioni fino a 256 MB ed integra due RAMDAC, un encoder TV e supporto per due transmitter DVI. Il chip viene dichiarato compatibile con le OpenGL 1.3 e le DirectX 8.0, tuttavia Matrox sostiene che esso integrerà anche il supporto ai vertex shader array delle DirectX 9.

Matrox afferma che con questa GPU intende rivolgersi sia agli utenti professionali che agli appassionati di tecnologia e di videogiochi, perseguendo tre obiettivi principali: "portare ai massimi livelli di qualità ogni aspetto della visualizzazione (Highest-Fidelity Graphics), sostenere prestazioni sempre elevate anche nel corso di rendering complessi ed offrire un numero significativo di innovazioni sostanziali".

"Per High Fidelity intendiamo una riproduzione superba, confondibile con l'originale," ha dichiarato il Presidente di Matrox, Lorne Trottier. "Dietro il progetto di Matrox Parhelia-512 c'è l'intento di perseguire nuovi livelli di qualità grafica - the Highest Fidelity Graphics - attraverso la rappresentazione altamente realistica di colori, scene 3D, testi ed immagini, il tutto scaturente da un'unica fonte di qualità, prestazioni e funzionalità senza pari."
TAG: hw
22 Commenti alla Notizia Parhelia vuole schiacciare GeForce e Radeon
Ordina
  • Il nuovo chipset supporta immagini a 30bit per pixel, con 1024 livelli possibili per rosso, verde e blu.... Ma visto che l'occhio umano è appurato che riconosca sui 4 milioni di colori dei 16milioni che gia' le immagini a 24bit offrono.... a che serve tutto cio'??????

    Risposta: Puro marketing....
    non+autenticato
  • e a che servono i 300 fps a quake3 con la geforce 4 quando l'occhio umano ne può percepire al massimo 30?
    non+autenticato


  • - Scritto da: Davide
    > Il nuovo chipset supporta immagini a 30bit
    > per pixel, con 1024 livelli possibili per
    > rosso, verde e blu.... Ma visto che l'occhio
    > umano è appurato che riconosca sui 4 milioni
    > di colori dei 16milioni che gia' le immagini
    > a 24bit offrono.... a che serve tutto
    > cio'??????
    >
    > Risposta: Puro marketing....

    a che serve campionare la musica a 192 kbits quando l'orecchio umano arriva al massimo a 22 e 50?

    serve a non perdere qualita' nei passaggi, nell'applicare filtri etc.. etc..

    il marketing c'entra poco... se fosse per il marketing si produerrebbero schede che fanno 8mila fps a 256 colori...

    tra l'altro un monitor non puo' visualizzare che una piccola percentuale di quei colori
    a 1024x768, al massimo, si possono visualizzare 786.432 colori, mettendone uno per ogni pixel...

    ciao
    non+autenticato
  • Ragazzi, quanti errori... 192kbits non sono la frequenza di campionamento, ma la quantità di dati al secondo, la storia dei 30 fps è una leggenda e basta 3DMark per vedere che la sensazione di maggiore fluidità continua a crescere oltre i 30 (non sono sincroni i refresh del pc e del nostro sistema nervoso-ottico!, il true color serve ad avere palette più ampie, visualizzando un'immagine il più vicina possibile al dato di origine. Come scegliere tra S,M e L o tra 46, 48, 50, 52, 54 ecc...

    - Scritto da: maks
    >
    >
    > - Scritto da: Davide
    > > Il nuovo chipset supporta immagini a 30bit
    > > per pixel, con 1024 livelli possibili per
    > > rosso, verde e blu.... Ma visto che
    > l'occhio
    > > umano è appurato che riconosca sui 4
    > milioni
    > > di colori dei 16milioni che gia' le
    > immagini
    > > a 24bit offrono.... a che serve tutto
    > > cio'??????
    > >
    > > Risposta: Puro marketing....
    >
    > a che serve campionare la musica a 192 kbits
    > quando l'orecchio umano arriva al massimo a
    > 22 e 50?
    >
    > serve a non perdere qualita' nei passaggi,
    > nell'applicare filtri etc.. etc..
    >
    > il marketing c'entra poco... se fosse per il
    > marketing si produerrebbero schede che fanno
    > 8mila fps a 256 colori...
    >
    > tra l'altro un monitor non puo' visualizzare
    > che una piccola percentuale di quei colori
    > a 1024x768, al massimo, si possono
    > visualizzare 786.432 colori, mettendone uno
    > per ogni pixel...
    >
    > ciao
    non+autenticato
  • > Ragazzi, quanti errori... 192kbits non sono

    si ho sbagliato.... volevo dire 96 kilohertz...
    mi sono confuso con le sigle...

    > la frequenza di campionamento, ma la
    > quantità di dati al secondo, la storia dei
    > 30 fps è una leggenda e basta 3DMark per
    > vedere che la sensazione di maggiore
    > fluidità continua a crescere oltre i 30 (non
    > sono sincroni i refresh del pc e del nostro
    > sistema nervoso-ottico!, il true color serve
    > ad avere palette più ampie, visualizzando
    > un'immagine il più vicina possibile al dato
    > di origine. Come scegliere tra S,M e L o tra
    > 46, 48, 50, 52, 54 ecc...
    >

    e io che ho detto?Sorride)

    ciao
    non+autenticato
  • Se... se.... (leggi "...si.. si..")
    Matrox dice sempre così ma poi alla fine ci si ritrova semrpe che delle buone schede per applicazioni descktop ma che, soprattutto con i giochi, finisce con il prendere la polvere dalle altre schede 3d.

    sara' ma io di matrox non mi fido piùCon la lingua fuori
    non+autenticato
  • Leggendo alcune delle opinioni, non posso che concordare.

    La qualita' delle matrox mediamente e' buona (sopratutto da quando hanno introdotto il bump mapping hardware). La qualita' dell'immagine sia che si tratti di 2d che di 3d, e' veramente molto buona, perche' il ramdac e' di ottima qualita'.

    Il problema, veramente spinoso, e' il supporto. Matrox fa tutto in casa: progettazione, progettazione, supporto. Si finisce per rimanere ingolfati, e bisogna dare delle priorita'.

    Ecco che i prodotti vecchi vengono abbandonati a se stessi, e i nuovi hanno bisogndo di tempi lunghi per essere supportati degnamente.

    Cosi' com'e' strutturata, Matrox non ha vere possibilita' di crearsi il suo spazio.

    Anche sulla effettiva utilita' di questa scheda ho i miei dubbi: e' una fascia strana. E' a meta' tra l'hobbista "ninja", e il professionista "wannabe". Ha funzioni che servono esclusivamente per il gioco, ma ha un prezzo che veramente pochi sarebbero disposti a sborsare... per un prodotto che poi non e' certificato per tutti i giochi...

    Insomma, le prospettive non sembrano affatto buone...
    non+autenticato
  • Acquistai un'ottima (per l'epoca) Mystique 220 + modulo Rainbow Runner per acquisire filmati. Mi sono sempre parse schede oneste, ma quanto a drivers... Si sono fermati a Windows 98! Ho letto il loro forum e ho visto la rabbia di tantissimi altri loro ex acquirenti! Certamente non comprerò mai più una scheda Matrox!
    non+autenticato
  • Se vendono ora a mezzo milione scheda che fanno
    pena dal punto di vista ludico, figuriamoci a
    quanto venderanno questa !
    2000 eu ? mah...

    non+autenticato
CONTINUA A LEGGERE I COMMENTI
Successiva
(pagina 1/2 - 8 discussioni)