Alfonso Maruccia

NVIDIA gioca alla grande al CES

La casa delle GeForce presenta una novità allettante per gli appassionati di gaming sul grande, anzi grandissimo schermo, con una nuova linea di display capaci di offrire prestazioni da "scrivania" su form factor tipici di un televisore

Roma - Al CES di quest'anno NVIDIA ha fatto le cose in grande, sfruttando il palco della fiera di Las Vegas per presentare un nuovo "brand" di display per i fan del gioco sul maxi-schermo. I Big Format Gaming Display (BFGD), questo il nome della nuova linea di monitor, sono pensati per garantire le prestazioni tipiche di un monitor per computer su un televisore da ben 65" che non sfigura nel salotto domestico.

I monitor BFGD da 65" sono infatti caratterizzati da una risoluzione Ultra HD/4K e refresh da 120Hz, la presenza di un modulo G-Sync per l'aggiornamento variabile del refresh, supporto a una gamma di colori dinamica (HDR), elementi quantum-dot per migliorare la retroilluminazione.

Non bastasse tutto questo, un display BFGD integra l'hardware del set-top box Shield, una "mini-console" Android che permette al monitor di gestire l'intrattenimento 4K (streaming e non solo) quando l'utente si è stancato di giocare in ultra-risoluzione.

Nel caso dell'home video, NVIDIA promette una gestione "nativa" della frequenza di refresh dei contenuti (che si tratti di 24 Hz, 48 Hz o 23.976 Hz poco importa) con in più tutti i vantaggi derivanti da una risoluzione Ultra HD con supporto HDR.

In arrivo questa estate da tre partner storici della corporation (Asus, Acer, HP) a un prezzo ancora ignoto, i monitor BFGD sono per NVIDIA la risposta ai giocatori che vorrebbero sperimentare la stessa esperienza ludica priva di lag, tearing o stuttering oggi disponibile sui monitor da scrivania di fascia alta (e ovviamente basati su G-Sync) con un display di dimensioni maxi.

Per quanto riguarda i giocatori più tradizionali, invece, che continuano a preferire la scrivania al divano del salotto per le loro sessioni ludiche, NVIDIA ha cucinato una serie di novità forse non appariscenti come un monitor BFGD ma di sicuro interesse dal punto di vista grafico e non solo.

L'ultima versione dei driver "Game Ready" rilasciata in questi giorni (390.65 WHQL), infatti, include un gran numero di bugfix - incluso uno per Spectre - ma anche una funzionalità come Freestyle capace di alterare la grafica di un gioco applicando filtri di post-processing personalizzati in tempo reale. Sui giochi supportati è infatti possibile cambiare il "mood" della grafica 3D, o persino modificare i colori per renderli più riconoscibili da parte dei daltonici.


Una ulteriore novità dei nuovi driver è poi ShadowPlay Highlights, un sistema per salvare in automatico spezzoni video delle ultime azioni di gioco per vantarsi con gli amici e sui social. Sia Freestyle che ShadowPlay Highlights sono parte integrante del tool opzionale GeForce Experience, mentre un'altra funzionalità potenzialmente molto interessante per gli utenti - l'aggiunta del supporto alle GPU esterne (GPU) collegate tramite porta Thunderbolt - è disponibile senza l'obbligo di installare il suddetto tool.

Alfonso Maruccia
Notizie collegate
  • AttualitàNVIDIA, futuro e passato da GPUIndiscrezioni anticipano quella che dovrebbe essere la prossima architettura di GPU annunciata da NVIDIA, mentre quelle presenti continuano a macinare numeri in quanto a popolarità (soprattutto in ambito HPC) e ricavi
  • AttualitàMeltdown e Spectre, i super-bug dell'hi-techQuello che all'inizio sembrava un problema dei chip di Intel si è rivelato essere una falla "sistemica" dell'intero mercato delle CPU. I bug sono tre, le aziende coinvolte innumerevoli e gli effetti a lungo termine difficili da calcolare
17 Commenti alla Notizia NVIDIA gioca alla grande al CES
Ordina
  • Già un quarto di secolo fa si giocava sui 50 pollici, oggi 2017 addirittura al CES portano un 65 pollici ... è proprio il posto giusto! Rotola dal ridereRotola dal ridereRotola dal ridere
    non+autenticato
  • Eh ... certamente ... però dovresti saperloSorride in 320 x 200, con scanlines, e un refresh da buciarti gli occhi in pochi minuti !

    I giochi erano più belli, peròOcchiolino
  • I 320x200 erano pixelloni già sui 14" CRT anni 80...
    io ricordo sul mio 17" CRT 1280x1024 ... essendo il monitor crt mi aspetto che ci puoi mettere la risoluzione che vuoi pur vedendo molto piccolo.
    non+autenticato
  • Ma per l'esperienza che ho io Nvidia è la peggiore in termini di affidabilità costruttiva.
    Dopo qualche anno, le schede si rompono o si deve rifare il reballing.
    Idem con i notebook che montano nvidia. Non si contano dopo 2-3-4 anni i problemi che hanno e che si risolvono solo con il reballing.
    Con gli Amd, che saranno anche meno performanti non ho mai avuto di questi problemi.
    non+autenticato
  • - Scritto da: Sisko212
    > Ma per l'esperienza che ho io Nvidia è la
    > peggiore in termini di affidabilità
    > costruttiva.
    > Dopo qualche anno, le schede si rompono o si deve
    > rifare il
    > reballing.
    > Idem con i notebook che montano nvidia. Non si
    > contano dopo 2-3-4 anni i problemi che hanno e
    > che si risolvono solo con il
    > reballing.
    > Con gli Amd, che saranno anche meno performanti
    > non ho mai avuto di questi
    > problemi.

    a me con amd sono partite 2 schede video in 3 anni
    non+autenticato
  • > a me con amd sono partite 2 schede video in 3 anni

    Che ti devo dire... sarò stato sfortunato.
    Io le uniche rogne le ho avute con Nvidia.
    Con Ati solo una volta.
    non+autenticato
  • Confermo che sei stato sfigato. Uso Nvidia da decenni e non ho mai avuto una rogna che fosse una. L'unica volta che ho provato ATI, ho avuto problemi di compatibilità e stabilità continui.
    non+autenticato
  • - Scritto da: Sisko212
    > Ma per l'esperienza che ho io Nvidia è la
    > peggiore in termini di affidabilità
    > costruttiva.
    > Dopo qualche anno, le schede si rompono o si deve
    > rifare il reballing.

    Ma questo dipende da nVidia, che fornisce i chip, o dai costruttori OEM, che producono le schede? Se si parla delle palle di stagno, dovrebbe dipendere dai singoli produttori, non da nVidia.
    A meno che non c'entrino le temperature del chip di elaborazione, non so.

    > Idem con i notebook che montano nvidia. Non si
    > contano dopo 2-3-4 anni i problemi che hanno e
    > che si risolvono solo con il reballing.
    > Con gli Amd, che saranno anche meno performanti
    > non ho mai avuto di questi problemi.

    Ma a parità di produttore di scheda video, es. Asus per entrambe le soluzioni?
    Izio01
    4765
  • > Ma a parità di produttore di scheda video, es.
    > Asus per entrambe le
    > soluzioni?

    No no... Nvidia originali.
    Sulle workstation che ho (avevo) montavano solo componenti originali Nvidia o Ati.
    Per i notebook ovviamente può dipendere dal costruttore.
    In linea di massima ho avuto a che fare con HP e Asus (e qualche Dell), ma alla lunga entrambi quei modelli che montavano nvidisa soffrivano dello stesso problema.
    non+autenticato
  • - Scritto da: Sisko212
    > > Ma a parità di produttore di scheda video, es.
    > > Asus per entrambe le
    > > soluzioni?
    >
    > No no... Nvidia originali.

    Ah, io ho quasi sempre avuto Asus o Gigabyte.
    Va anche detto che mi piace tenere aggiornato il PC, di solito cambio ogni due anni o giù di lì Imbarazzato

    > Sulle workstation che ho (avevo) montavano solo
    > componenti originali Nvidia o Ati.
    > Per i notebook ovviamente può dipendere dal
    > costruttore.
    > In linea di massima ho avuto a che fare con HP e
    > Asus (e qualche Dell), ma alla lunga entrambi
    > quei modelli che montavano nvidisa soffrivano
    > dello stesso problema.

    Eh, magari è davvero la temperatura dei chip nVidia. Scalda e scalda vicino a 100°C, magari la lega di stagno ne risente, soprattutto da quando hanno vietato il piombo (dico, eh, magari non c'entra niente).
    Izio01
    4765
  • - Scritto da: Sisko212
    > Ma per l'esperienza che ho io Nvidia è la
    > peggiore in termini di affidabilità
    > costruttiva.
    > Dopo qualche anno, le schede si rompono o si deve
    > rifare.......

    Ciao, guarda io le uso da una vita e gioco sempre in UNDERclock (in Win con programma, in Linux attivando opzioni speciali pannello Nvidia) per diminuire di molto temperatura di esercizio (e funziona -_^) ed il consumo in Watt (abbassando ovviamente la qualita' grafica dei giochi e filtri) e mai bruciato una scheda video Nvidia, dalla mx440, 5xx, 8400gs, 630 ed ora gt1030.
    Aggiungo che ogni max 6 mesi smonto scheda ed alimentatore e li pulisco da polvere (aria compressa e aspirapolvere).
    Se devo giocare o edit pesante non uso (ovviamente) i portatili perche' hanno temp da forno edi "pezzi" durano molto meno anche tenendoli costantemente puliti.
    non+autenticato
  • Idem, sui Dell ci fu il bug al chip Nvidia che moriva dopo alcuni anni.
    Sul Vostro 1400 mi si è bruciata la Nvidia 8400M.

    La Dell si è rifiutata di riconoscere il difetto ho finito per riparare da me comprando la motherboard usata ma la versione con grafica intel integrata. E tuttora funziona alla mia amica a cui avevo regalato quel portatile.
    iRoby
    9818
  • Il problema del Reballing non è colpa di AMD / nVidia, e proprio quel sistema di produzione che ha un pessimo risultato con uno scarto del 15% e che produrlo è piu veloce e meno costoso dell'SMD.
    Be&O
    1123
  • Lo dico senza ironia, da cliente nVidia: grazie AMD.
    Se si guardano le recensioni cliente su Amazon per i prodotti di punta di nVidia, i voti sono mediamente bassi perché i fanboy AMD fanno recensioni da una stella, che Amazon non cancella. Vantano il miglior rapporto prezzo/prestazioni delle soluzioni AMD e deridono chi spende qualcosa in più per avere nVidia.
    Io ai tempi ero utente ATi; sono passato a nVidia forse otto anni fa e difficilmente tornerò indietro nel breve periodo. Il software a corredo è veramente di ottimo livello, potenza e affidabilità sono al top e generalmente i giochi sono maggiormente ottimizzati per questo produttore. Per di più, il mio monitor supporta G-Sync, che è una soluzione proprietaria. L'unico neo è lo streaming su Shield, che raramente mi funziona come dovrebbe.
    Allora perché grazie ad AMD e ai suoi clienti? Perché se non ci fosse concorrenza, lo sviluppo si sarebbe fermato da un pezzo. Non ci sarebbe l'interesse a fornire software affidabile e a cercare nuove funzionalità, tipo gli screenshot dinamici, basati sulla scena 3D "nella scheda" e non quella 2D visualizzata sul monitor.
    Mica sono amante di nVidia: sempre pronto a cambiare marchio di riferimento senza rimpianti, se qualcuno offre di meglio. Oggi, però, questo meglio è IMHO in questo campo.
    Izio01
    4765
  • - Scritto da: Izio01
    > Se si guardano le recensioni cliente su Amazon
    > per i prodotti di punta di nVidia, i voti sono
    > mediamente bassi perché i fanboy AMD fanno
    > recensioni da una stella, che Amazon non
    > cancella.

    E' tutto un gombloddo....vedo fanboy dabberduddo....
    non+autenticato
  • - Scritto da: Izio01

    > tipo gli screenshot dinamici,
    > basati sulla scena 3D "nella scheda"
    > e non quella 2D visualizzata sul monitor.

    Mai sentita l'esigenza di una cosa del genere.
    Se tanto lo schermo su cui viene visualizzato il tutto è 2D, lo screenshot più corretto dev'essere anch'esso 2D. Il resto è solo fuffa-marketing.
    non+autenticato
  • - Scritto da: ...
    > - Scritto da: Izio01
    >
    > > tipo gli screenshot dinamici,
    > > basati sulla scena 3D "nella scheda"
    > > e non quella 2D visualizzata sul monitor.
    >
    > Mai sentita l'esigenza di una cosa del genere.
    > Se tanto lo schermo su cui viene visualizzato il
    > tutto è 2D, lo screenshot più corretto dev'essere
    > anch'esso 2D. Il resto è solo fuffa-marketing.

    Spiego meglio, casomai ti interessi davvero.
    Gli screenshot convenzionali partono dalla scena già renderizzata, quindi non possono eccedere il dettaglio della scena di gioco, né cambiare altri elementi, se non in maniera lossy.
    Uno screenshot 3D ti permette di manipolare angolazione e zoom a livello dei dati 3D che sono nella scheda, cambiando ovviamente l'immagine 2D che catturerai con lo screenshot, senza perderci informazioni. In pratica manipoli la scena 2D, non l'immagine piatta.
    Niente fuffa-marketing quindi, ma qualcosa di interessante, seppure non vitale.
    Izio01
    4765