Carmack: non comprate il Geforce4 MX

Il boss di id Software boccia la versione economica del Geforce4 e ne sconsiglia l'acquisto a tutti i fan dell'imminente Doom 3

Web - Il nuovo Geforce4 MX non è un buon acquisto per gli amanti di Doom 3. Questo è quanto ha sentenziato John Carmack, leader di id Software, in merito alla versione "depotenziata" del nuovo chipset grafico Geforce4 lanciato sul mercato da Nvidia.

L'affermazione di Carmack conferma opinioni e giudizi già circolati negli scorsi giorni in Rete, e si abbatte fragorosa fra le sponde dei soleggiati lidi di Nvidia.

"Nvidia ha davvero fatto un pasticcio - ha scritto Carmack - nella denominazione dei suoi chip. E' già abbastanza brutto che il Geforce2 sia solo un Geforce1 più pompato, mentre il Geforce3 ha delle significative migliorie architetturali rispetto alla Geforce2. Io mi ero aspettato che il Geforce4 fosse un Geforce3 più pompato, ma chiamando l'NV17 Geforce4 MX (il Geforce4 standard è l'NV25, NdR) non va davvero bene".
Riferendosi alle prestazioni con Doom 3, Carmack sostiene che "un Geforce3 o un Radeon 8500 offriranno prestazioni superiori" rispetto a quanto non potrà fare il Geforce4 MX, e questo perché il nuovo chip di Nvidia, come sostengono anche gli esperti di Tom's Hardware, è in pratica soltanto un Geforce2 MX "pompato" che, con il vero Geforce4, sembra avere davvero ben poco a che fare.

È per questo motivo che Carmack depreca il sistema di denominazione che Nvidia utilizza per le sue schede, uno schema che creerebbe spesso confusione senza rispecchiare le reali innovazioni che un chip porta o non porta con sé. Secondo alcuni, infatti, il Geforce4 MX si dovrebbe chiamare più onestamente Geforce2 MX Ultra o qualcosa del genere.

Critiche, queste, che erano già circolate nelle scorse settimane fra la comunità Mac: la prima, lo scorso mese, ad aver potuto testare le primissime schede Geforce4 MX integrate nei nuovi PowerMac G4.

"Il Geforce4 MX - ha concluso Carmack - potrebbe essere, a seconda del suo prezzo, la giusta scheda per molte persone, soprattutto considerando che molti giochi non usano quattro texture e programmi di vertex, ma dannazione, avrei davvero preferito che la chiamassero in qualche altro modo".
TAG: hw
50 Commenti alla Notizia Carmack: non comprate il Geforce4 MX
Ordina
  • lo trovate qui:

    http://finger.planetquake.com/plan.asp?userid=john...

    JC non e' certo uno dei denigratori di NVidia, non lo e' mai stato, infatto lui steso scrive nel messaggio:

    ''Nvidia's OpenGL drivers are my "gold standard", and it has been quite a while
    since I have had to report a problem to them, and even their brand new
    extensions work as documented the first time I try them. When I have a
    problem on an Nvidia, I assume that it is my fault. With anyone else's
    drivers, I assume it is their fault.''


    non+autenticato
  • A titolo informativo, prima di postare link alle fonti originali, date un'occhiata ai riferimenti che si trovano sotto la notizia... In questo caso avresti notato che il link c'era già.

    - Scritto da: dee
    > lo trovate qui:
    >
    non+autenticato
  • Tanto per essere banali.....a pensar male si fa peccato, ma........
    Se io fossi uno dei produttori dell'hardware in questione avrei un pochino da ridire sulle affermazioni del sig.Carmack, che non si capisce in base a quale titolo pretende di avere voce in capitolo sulla policy aziendale e di marketing di una societa' non sua. A quel che ricordo dovrebbe funzionare cosi' : i produttori hardware sfornano componenti ed i programmatori cercano di sfruttare al massimo quel che offre il mercato, non mi risulta che il processo si sia invertito....o sono rimasto indietro ?? Non so, come dire, mi viene il dubbio che magari gli interessi di Carmack sono altri e che poi alla fin fine tra i finanziatori e partners della ID spunta qualche altra compagnia che guarda caso produce chip grafici....chissa'....mi sbagliero'....
    Saluti
    non+autenticato
  • E' come se vendessero un k6-2 overcloccato come un Athlonxp chiamandolo Athlonxp mx....

    - Scritto da: Paolo Dell'Unto
    > Tanto per essere banali.....a pensar male si
    > fa peccato, ma........
    > Se io fossi uno dei produttori dell'hardware
    > in questione avrei un pochino da ridire
    > sulle affermazioni del sig.Carmack, che non
    > si capisce in base a quale titolo pretende
    > di avere voce in capitolo sulla policy
    > aziendale e di marketing di una societa' non
    > sua. A quel che ricordo dovrebbe funzionare
    > cosi' : i produttori hardware sfornano
    > componenti ed i programmatori cercano di
    > sfruttare al massimo quel che offre il
    > mercato, non mi risulta che il processo si
    > sia invertito....o sono rimasto indietro ??
    > Non so, come dire, mi viene il dubbio che
    > magari gli interessi di Carmack sono altri
    > e che poi alla fin fine tra i finanziatori
    > e partners della ID spunta qualche altra
    > compagnia che guarda caso produce chip
    > grafici....chissa'....mi sbagliero'....
    > Saluti
    non+autenticato
  • - Scritto da: Paolo Dell'Unto
    > Tanto per essere banali.....a pensar male si
    > fa peccato, ma........
    > Se io fossi uno dei produttori dell'hardware
    > in questione avrei un pochino da ridire
    > sulle affermazioni del sig.Carmack, che non
    > si capisce in base a quale titolo pretende
    > di avere voce in capitolo sulla policy
    > aziendale e di marketing di una societa' non
    > sua.
    > A quel che ricordo dovrebbe funzionare
    > cosi' : i produttori hardware sfornano
    > componenti ed i programmatori cercano di
    > sfruttare al massimo quel che offre il
    > mercato, non mi risulta che il processo si
    > sia invertito....o sono rimasto indietro ??
    > Non so, come dire, mi viene il dubbio che
    > magari gli interessi di Carmack sono altri
    > e che poi alla fin fine tra i finanziatori
    > e partners della ID spunta qualche altra
    > compagnia che guarda caso produce chip
    > grafici....chissa'....mi sbagliero'....
    > Saluti

    Personalmente ritengo che Carmak abbia tutto i diritto diesprimere opinioni sulla qualita' di un genere di prodotti che alcune volte ha dimostrato conoscere meglio lui che non i produttori stessi; non dimentichiamo che a lui si devono alcune estensioni OpenGL, ed e' stato comunque il primo ad utilizzare il linguaggio privato della GForce3 in Return to Wolftein.

    Inoltre che piu' che una diretta critica verso l'azienda, mi sembra abbia teso di piu' a consigliare i SUOI clienti, ovvero quelli che giocheranno a Doom III, onde evitare che aquistino un prodotto sul quale poi il gioco non girera' bene, o peggio possano pensare che il gioco non gira bene sulle GeForce 4.
    non+autenticato

  • Il problema è questo, sicuramente il motore grafico di doom3 non è all'altezza di quello di quake3, da quanto ho sentito il giro non sia il top, molto simile al quake3 ma meno performante, sopratutto con le nuove specifiche in hardware.

    Bisogna dare la colpa a qualcuno, dato che il top di invidia sarà la serie 4, si punta su quello più debole appunto la mx dove le prestazioni non sono il massimo.



    >
    > Personalmente ritengo che Carmak abbia tutto
    > i diritto diesprimere opinioni sulla
    > qualita' di un genere di prodotti che alcune
    > volte ha dimostrato conoscere meglio lui che
    > non i produttori stessi; non dimentichiamo
    > che a lui si devono alcune estensioni
    > OpenGL, ed e' stato comunque il primo ad
    > utilizzare il linguaggio privato della
    > GForce3 in Return to Wolftein.
    >
    > Inoltre che piu' che una diretta critica
    > verso l'azienda, mi sembra abbia teso di
    > piu' a consigliare i SUOI clienti, ovvero
    > quelli che giocheranno a Doom III, onde
    > evitare che aquistino un prodotto sul quale
    > poi il gioco non girera' bene, o peggio
    > possano pensare che il gioco non gira bene
    > sulle GeForce 4.
    non+autenticato
  • Scusami sai, io invece penso male rispetto al
    *TUO* posting che di fatti non ne contiene nessuno, contrariamente all' articolo di
    Carmack che spiega il perche` ed il percome
    non bisogna comprare la geforce 4.

    Carmack (tu sai di stiamo parlando vero ?),
    seppur pieno di soldi da far schifo,
    passa la sua vita a scrivere motori grafici
    per videogiochi, motori che appunto usano
    i chip grafici spingendoli per cosi` dire
    al massimo delle loro possibilita`.
    Quindi, nessuno piu` di lui puo` dirsi veramente
    utente di un chip grafico e di conseguenza
    esprimere una opinione, peraltro basata
    su dati concreti.

    Inoltre, la separazione hardware/software,
    mai come nel caso delle schede grafiche e`
    cosi` labile; l' utente finale e` utente
    del mix software_driver/chip_grafico, del chip
    non ci capisce una cippa di niente, quello
    che vede sono i frame secondo e basta.
    Quindi anche la tua idea per cui prima viene
    l' hardware e poi i programmatori mi pare
    perlomeno datata se non completamente fuori
    dal mondo.

    Scusami ma non ho resistito, odio il "confusopolio" markettingaro per cui alla
    fine va' sembre bene tutto; non e` vero che
    alla fine tutto va' bene
    e difendo la voce di chi magari contro i suoi
    stessi interessi dice che una cosa e` una
    ciofeca, basandosi su motivazioni tecniche.

    Saluti, Roberto.


    - Scritto da: Paolo Dell'Unto
    > Tanto per essere banali.....a pensar male si
    > fa peccato, ma........
    > Se io fossi uno dei produttori dell'hardware
    > in questione avrei un pochino da ridire
    > sulle affermazioni del sig.Carmack, che non
    > si capisce in base a quale titolo pretende
    > di avere voce in capitolo sulla policy
    > aziendale e di marketing di una societa' non
    > sua. A quel che ricordo dovrebbe funzionare
    > cosi' : i produttori hardware sfornano
    > componenti ed i programmatori cercano di
    > sfruttare al massimo quel che offre il
    > mercato, non mi risulta che il processo si
    > sia invertito....o sono rimasto indietro ??
    > Non so, come dire, mi viene il dubbio che
    > magari gli interessi di Carmack sono altri
    > e che poi alla fin fine tra i finanziatori
    > e partners della ID spunta qualche altra
    > compagnia che guarda caso produce chip
    > grafici....chissa'....mi sbagliero'....
    > Saluti
    non+autenticato

  • - Scritto da: Roberto
    > Scusami sai, io invece penso male rispetto al
    > *TUO* posting

    Non ho esattamente capito in cosa pensi male.

    > Carmack (tu sai di stiamo parlando vero ?),

    --te la potevi risparmiare--

    > seppur pieno di soldi da far schifo,
    > passa la sua vita a scrivere motori grafici
    > per videogiochi,

    Si, con i quali fa altri soldi, non mi risulta lavori per beneficenza, quindi non capisco per quale motivo il fatto costituisca per te una cosa strana o degna di elogi.....

    > Inoltre, la separazione hardware/software,
    > mai come nel caso delle schede grafiche e`
    > cosi` labile; l' utente finale e` utente
    > del mix software_driver/chip_grafico, del
    > chip
    > non ci capisce una cippa di niente, quello
    > che vede sono i frame secondo e basta.
    > Quindi anche la tua idea per cui prima viene
    > l' hardware e poi i programmatori mi pare
    > perlomeno datata se non completamente fuori
    > dal mondo.

    Scusa, ma non capisco l'assunto ne' le conclusioni....gli fps come dici tu sono ovviamente il risultato di quello che i programmatori riescono a tirar fuori dal chip grafico, ma il limite superiore e' ovviamente imposto dal chip, non dal programmatore, che puo' appunto come tu dici solo spingerlo al massimo....non vedo come possa essere il viceversa, se me lo spieghi....

    > Scusami ma non ho resistito, odio il
    > "confusopolio" markettingaro per cui alla
    > fine va' sembre bene tutto; non e` vero che
    > alla fine tutto va' bene
    > e difendo la voce di chi magari contro i suoi
    > stessi interessi dice che una cosa e` una
    > ciofeca, basandosi su motivazioni tecniche.

    Credo ci sia stato un fraintendimento di fondo..io NON ho detto che Carmack non abbia ragione, ho detto che non e' compito suo esprimere opinioni sulle politiche aziendali, per cui se lo fa mi viene il dubbio ci siano altri interessi dietro...tutto qui. Esistono per ogni motore grafico i minimum requirements, non capisco perche' Carmack abbia sentito il bisogno di fare altro oltre a scrivere SVGA GEForceeccetera o superiore(Non GE MX), aggiungo che non e' corretto da parte di uno che lavora tutto sommato sui prodotti che queste case sviluppano.
    non+autenticato
  • E' una policy che tende a trarre in inganno l'acquirente e Carmack ha tutte le ragioni per lamentarsene.
    non+autenticato
  • ma che ci farete poi con queste schedone, i giochini?

    bah...

    non era meglio una consolle?
    non+autenticato
  • La console (ps2) seppure MIGLIORE qualitativamente in termini di gameplay ed accessibilità, non ha multiplayer, ahimè, in italia.

    Il pc è comunque una valida piattaforma di gioco in MOLTISSIMI versi. Soprattutto nel campo delle simulazioni di qualsiasi tipo.

    Comunque, chiaramente, schede con i calibri di cui si discute qui, servono ESCLUSIVAMENTE per giocare.

    Chi ha bisogno di accellerazione desktop per il disegno od il design professionale, deve ripiegare su MATROX.
    non+autenticato
  • o ATI
    non+autenticato
  • infatti le quadro con 3dsmax vanno alla grande...
    :)

    - Scritto da: Altare
    > La console (ps2) seppure MIGLIORE
    > qualitativamente in termini di gameplay ed
    > accessibilità, non ha multiplayer, ahimè, in
    > italia.
    >
    > Il pc è comunque una valida piattaforma di
    > gioco in MOLTISSIMI versi. Soprattutto nel
    > campo delle simulazioni di qualsiasi tipo.
    >
    > Comunque, chiaramente, schede con i calibri
    > di cui si discute qui, servono
    > ESCLUSIVAMENTE per giocare.
    >
    > Chi ha bisogno di accellerazione desktop per
    > il disegno od il design professionale, deve
    > ripiegare su MATROX.
    non+autenticato
  • Buaaahhh! Ridateci le 3dfx!

    chipset: NVidia vs 3dfx
    Vi ricordate?

    Dal primo momento in cui è stato commercializzato, il nefasto chipset nvidia costava il doppio ed aveva prestazioni persino INFERIORI rispetto al 3dfx (il directx è una M***a in confronto al glide) ma, ahimè, grazie all'ignoranza dei rivenditori ed alle spinte del mondo microsoft, directx e d3d sono stati ossannati ed elevati al modello grafico piu alto raggiungibile... mentre io, dietro l'oscuro velo dell'assemblatore, le provavo, le installavo e testavo, e tristemente verificavo che seppure convenissero di piu, le 3dfx perdevano terreno!

    E' insindacabile il confronto fondamentale:
    3dfx v3 2000 (versus) geforce 2
    16mb                 32mb
    127 mhz               133 mhz
    agp 2x                agp 4x
    Prestazioni generali desktop e gaming a parità di cpu
        <-----------|---------->
    Costo circa
       110?(220000£)| 220? (440000£) F*CK NVIDIA!

    opengl                directx
    glide                 software
    directx
    software

    Praticamente, si pagava il doppio... per ottenere la metà con le NVIDIA! Adesso si paga il doppio e basta... MUAHAHAHAHA!
    non+autenticato
  • eheh mitika 3dfx! bei tempi quelli! quando avevamo dei driver stabili e performanti, mai nu problema, le glide..
    I clienti 3dfx non si sentivano mai presi per il culo!

    bye
    ----------------
    da uno che sta ancora tranquillamente giocando a tutti i giochi 3d + recenti con una 3dfx v3 3500TV!
    non+autenticato
  • - Scritto da: Altare
    > chipset: NVidia vs 3dfx
    > Vi ricordate?

    Si, mi ricordo.

    3dfx si è suicidata. Era leader del mercato, poi ha deciso di mettersi a produrre schede in proprio, e ovviamente i suoi vecchi clienti hanno dovuto usare i chipset della concorrenza. La differenza è che loro avevano già il canale distributivo, mentre 3dfx no.

    Inoltre 3dfx ha smesso di fare ricerca ad un certo punto, quando si è trovata ad essere leader incontrastata. Da lì in avanti, ha basato la sua strategia sul multiprocessore, vivendo sugli allori della tecnologia Voodoo2. Guardati (a ritrovarle) le specifiche tecniche della Voodoo5, che avrebbe dovuto spaccare tutti, ma in realtà aveva più processori che spazio sulla scheda, e problemi di surriscaldamento a non finire.

    Se fai un grafico comparato del valore azionario di 3dfx e Nvidia, vedrai che i valori azionari nel tempo sono inversamente proporzionali. Nvidia si è mossa molto meglio.

    Oltretutto le glide sono rimaste proprietarie per troppo tempo. Solo quando ormai è stato troppo tardi 3dfx si è decisa a rilasciarle. Ti ricordi quando fece causa alla concorrenza che cercava di fare dei wrapper delle Glide con le DirectX? Non è sicuramente il modo giusto di rendersi simpatici.

    non+autenticato
  • Il taccone è stato propriamente la strategia.

    Le questioni di mercato sono state molto precise e bisogna riconoscere l'assurda efficacia del sistema di marketing di nvidia, che dopotutto non si è vista piovere addosso il successo commerciale.

    Ad ogni modo, rimpiango amaramente la differenza qualitativa del sistema 3dfx.
    non+autenticato
  • Con il limite di 256x256 pixel per le texture, rendering solo 16 bit (niente 24/32), niente possibilità di accelerare in finestra la grafica 3d...
    Sveglia!! Inoltre le API proprietarie sono state la mossa più idiota che potevano pensare.
    non+autenticato
  • Premetto che sono un fan sfegatato 3dfx e che sarei stato pronto a difendere 3dfx fino all'ultimo. Ho avuto tutte le voodoo dalla prima (voodoo1) all'ultima (v5 5500), che ho abbandonato circa un mese e mezzo fa.
    Le ragioni che hanno portato 3dfx al fallimento a mio avviso sono state molteplici, ma nelle affermazioni dell'hardwarista dubbioso colgo delle grossolane semplificazioni.

    Partiamo dall'inizio. OpenGL non venne preso in considerazione perche' sovradimensionato rispetto a quanto era necessario e con limiti che in quel periodo (si parla del 96) erano colli di bottiglia troppo grossi per un piccolo acceleratore grafico (parlo sempre della necessita' di passare dalla memoria centrale per i vertex array). DirectX era poco piu' di un guazzabuglio di funzioni... sporche e poco funzionali/veloci. La piccola compagnia di fuoriusciti da sgi tira fuori un chipset veloce e di qualita' che vende ad assemblatori di tutto il mondo e per supportare questa meraviglia si rende necessario scrivere un api specifica ispirata ad opengl (i fuoriusciti ci devono aver messo mano pesantemente) ma cucita addosso a quel piccolo chip. Una volta raggiunto il successo su scala mondiale, 3dfx ha commesso due errori fondamentali. Il primo e' stato concentrarsi solo sulla velcoita', tirando fuori la voodoo2 che rimaneva sempre una scheda solo 3d al contrario di soluzioni tutte integrate. Il secondo errore, a conti fatti molto piu' grave, e' stato quello di non aggiornare le glide in quanto la nuova scheda non doveva avere nuove funzionalita'.
    Ora con uno standard de facto come le glide tra le mani puoi tenere una mano sotto il cavallo dei pantaloni a chiunque, ma 3dfx ha ben pensato di non stringere la presa.
    Mentre nvidia partiva con la sua serie riva tnt, ha cercato (e trovato) il supporto di Microsoft che non vedeva di buon occhio quell'api proprietaria che stracciava su ogni benchmarch direct3d. Tenetelo a mente, perche' microsoft non dimentica e 3dfx la paghera' a caro prezzo.
    Nel momento in cui nvidia e' diventata un suo competitor, 3dfx ha ben pensato di fare il passo in avanti che la banshee (penalizzata da una singola tmu) non poteva fare: la voodoo3.
    In questo momento 3dfx si e' giocata tutta la sua vita su una scheda che a conti fatti andava piu' che bene ma che in realta' non ha portato altro che debiti. In primo luogo si e' cercato di proteggersi, aumentando i guadagni sui pezzi venduti. L'acquisizione di stb si e' pero' rivelata fallimentare evidentemente perche' non c'erano le risorse per sostenere due sforzi assieme di punto in bianco (voodoo3 e produzione completa di schede video).
    In quel momento nvidia doveva fare la prima mossa ed acquisire stb, non 3dfx che era in posizione dominante.
    nVidia ha puntato tutto sui 32 bit che a conti fatti con schede da 16 mega SENZA SUPPORTO PER LA COMPRESSIONE DELLE TEXTURES erano PURA FANTASCIENZA. 3dfx adottava yiq (3-3-2) dal chip voodoo1 e potenzialmente poteva tenere in memoria quattro volte tante textures rispetto ad una tnt2 con pari memoria. Lo standard glide nel frattempo vacillava sotto i colpi di un opengl sempre piu' presente in killer applications di casa id e di un DirectX che stava maturando ad una velocita' spaventosa. Invece di chiudere definitivamente lo standard, come insegna Microsoft ed aggiungere features come il fake bump o smili (inutili ma costrittivi nei confronti delgi sviluppatori) e COSTRINGERE chiunque a continuare ad usare glide, 3dfx ha seguito l'ultimo grido e ha iniziato a mettere i suoi programmatori al lavoro su un driver opengl che era buggato come pochi altri.
    Gli standard chiusi si chiudono con minimo 4 mandate, come fa M$, o si apronodel tutto.
    Arrivata la gf nvidia, 3dfx ha ben pensato di riorganizzarsi e dare l'ultimo assalto al competitor che oramai come pezzi venduti l'aveva affiancata. Abbiamo dovuto aspettare gf3 per vedere il mercato assimilare al 100% il t&l, ed il passo di nvidia con l'nv0x e' stato molto piu' lungo della gamba.... nvidia aveva sbagliato a spingere cosi' tanto e ci avrebbe lasciato le penne. 3dfx si e' trovata pero' nella brutta situazione di non poter piu' controbattere in casa glide con nuove features come il tbuffer, l'fxt1 o l'fsaa 4x, perche' si era fatta soffiare il primo posto di api supportata da direct3d.
    Sviluppate 3 estensioni opengl ad hoc e aggiunto il supporto per glide, che oramai era gia' con piu' di un piede nella fossa, 3dfx doveva solo andare a bussare alla porta di M$ chiedendo che
    Directx 7.0 integrasse il supporto per il t-buffer della voodoo5, visto che le 6.0 supportavano il bump della matrox. La "vendetta" della microsoft non si e' fatta attendere e se qualcuno ha visto o pensa di vedere il supporto per il tbuffer in directx (almeno finche' una nv3x non integrera' tecnologia ex-3dfx) me lo faccia sapere...
    Con l'80% dei giochi che non potevano avvantaggiarsi delle potenzialita' della voodoo5 e' parso chiaro sin da subito che 3dfx stava scivolando nell'oblio, con il solo brand a tenerla a galla. Il colpo di coda e' stato tentato comuqnue, sottoforma dell'acquisizione di gigapixel(misconosciuta produttrice di innovativi chipset 3d che nessuno aveva mai visto) per 300mln di $ (!!!!).
    Gigapixel prometteva di portare la sua tecnologia dopo l'arrivo di rampage (voodoo6?) e 3dfx era pronta a prendersi il rischio di accelerare lo sviluppo di rampage (che sarebbe cmq stato una svolta notevole, sopratutto per quanto riguarda la possibilita' dell'npr) e pagare 300 milioni di $ per gigapixel. Ma cosa aveva di tanto attraente gigapixel per 3dfx? Perche' 3dfx ha rischiato il tutto e per tutto accelerando lo sviluppo di rampage (e in parte "bruciando" la scheda eliminando il t&l che era riservato alla generazione successiva) e contemporaneamente buttandosi a pesce su gigapixel? A quel tempo (estate 2000) gigapixel aveva un accordo per lo sviluppo di una console che sarebbe stata distribuita a fine 2001 e che si basava su un pc 80x86...vi dice niente?Sorride
    Beh.. dopo una settimana dall'acquisizione di gigapixel, microsoft ha ben pensato di farla finita con 3dfx una volta per tutte e ha scelto nvidia (che deve aver abbassato i prezzi considerando che il competitor per l'xbox era 3dfx e non gigapixel). Passano 4 mesi e 3dfx fallisce... niente rampage, niente npr, niente di niente.... che tristezza!!!!!!Triste


    - Scritto da: Hardwarista Dubbioso
    > Si, mi ricordo.
    >
    > 3dfx si è suicidata. Era leader del mercato,
    > poi ha deciso di mettersi a produrre schede
    > in proprio, e ovviamente i suoi vecchi
    > clienti hanno dovuto usare i chipset della
    > concorrenza. La differenza è che loro
    > avevano già il canale distributivo, mentre
    > 3dfx no.
    >
    > Inoltre 3dfx ha smesso di fare ricerca ad un
    > certo punto, quando si è trovata ad essere
    > leader incontrastata. Da lì in avanti, ha
    > basato la sua strategia sul multiprocessore,
    > vivendo sugli allori della tecnologia
    > Voodoo2. Guardati (a ritrovarle) le
    > specifiche tecniche de
    non+autenticato

  • - Scritto da: Predator
    > nelle affermazioni
    > dell'hardwarista dubbioso colgo delle
    > grossolane semplificazioni.
    Ti ho letto volentieri, e quando è giusto è giusto: rispetto al tuo messaggio il mio era effettivamente grossolanamente semplificato.
    Permettimi solo due aggiunte.

    > 3dfx ha commesso due errori fondamentali. Il
    > primo e' stato concentrarsi solo sulla
    > velcita' [...] Il secondo errore [...]
    > e' stato quello di non aggiornare le
    > glide

    Secondo me passare a produrre schede in proprio è stato l'errore maggiore, visto che ha aperto il mercato ad nVidia lasciando scoperti tutti i produttori che usavano il suo chipset.
    L'aspetto tecnico passa in secondo piano se le tue schede non stanno bene in vista sugli scaffali.

    > nVidia ha puntato tutto sui 32 bit che a
    > conti fatti con schede da 16 mega SENZA
    > SUPPORTO PER LA COMPRESSIONE DELLE TEXTURES
    > erano PURA FANTASCIENZA. 3dfx [...]
    > nuove features come il tbuffer,
    > l'fxt1 o l'fsaa 4x

    nVidia ha usato ancora una volta meglio l'arma commerciale accontentando il pubblico.
    Quelli che volevano il massimo della resa grafica, non si sono lasciati convincere da 3dFx che ripeteva fino alla nausea che i 32 bit non servivano a niente, non hanno capito a cosa servisse il tbuffer (pochi l'hanno capito a dire il vero), e hanno visto l'antialiasing 4x come una perdita di velocità inaccettabile (la qualità finale era ottima, ma il frame rate scendeva a picco).

    Oltretutto neppure il supporto nei confronti della base dei fan funzionava bene, come dimostrano la chiusura della 3dFx Brotherhood, o la conversione in sito generalista di voodooextreme.com, avvenute in tempi non sospetti.
    non+autenticato

  • nvidia non da' i sorgenti dei driver per debian ergo e' un pupazzo nelle mani del monopolista di redmond una volta le schede video erano documentate infatti la mia ega 16 colori funziona egregiamente e con staroffice non ho bisogno di nientaltro
    non+autenticato
  • Ma datemi una Hercules ISA con monitor a fosfori verdi! ahah
    non+autenticato
  • > Ma datemi una Hercules ISA con monitor a
    > fosfori verdi! ahah

    fai un pensierino su un'as400...
    non+autenticato
  • Scritto da: vertigo
    > > Ma datemi una Hercules ISA con monitor a
    > > fosfori verdi! ahah
    >
    > fai un pensierino su un'as400...

    Hey io ho giusto un S/36 senza terminale sul gobbone, se qualcuno lo volesse....

    il Conte
    non+autenticato
CONTINUA A LEGGERE I COMMENTI
Successiva
(pagina 1/2 - 9 discussioni)