Dopo un periodo relativamente lungo in cui NVIDIA non ha rinnovato profondamente la sua architettura, limitandosi invece per quasi un anno a proporre semplici revisioni, ecco finalmente debuttare G200, una GPU che seppur non del tutto rivoluzionaria, rappresenta un’evoluzione netta e decisa della precedente in molti aspetti critici.
Mantenendo il precedente processore grafico fin nelle ultime schede video, NVIDIA si era trovata costretta a proporre la 9800GX2, al fine di mantenere lo scettro delle prestazioni assolute, sebbene a discapito del costo finale. Si tratta di una soluzione tecnica davvero complessa e pertanto particolarmente costosa, sia per NVIDIA che per l’utente finale, che vede l’adozione di due GPU G92 in un’unica scheda video. Questa scelta però, a differenza delle X2 di AMD-ATI, non vede due processori grafici montati su un unica scheda e uniti da un chip che faccia da bridge, bensì l’adozione di due PCB veri e propri, una per ciascuna GPU, uniti in un unico packaging.
Com’è facile intuire quindi NVIDIA, con la 9800GX2, ha mantenuto il primato delle prestazioni, ma proponendo una scheda dai limiti oggettivi, con consumi elettrici e produzione di calore alti, oltre che con un prezzo elevato. A queste soluzioni NVIDIA ne aveva poi accostate altre, basate su una discutibile politica di rebranding di prodotti precedenti, andando molto vicina a un danno d’immagine nei confronti della sua clientela più affezionata.
G200 sembra essere nata proprio per porre rimedio a tutto questo. Evolvendo l’architettura di G92, NVIDIA è stata infatti in grado di tornare a soluzioni architetturali molto più semplici e a singola GPU, continuando al contempo a offrire prestazioni estreme con i suoi prodotti.
Andiamo ora a vedere nel dettaglio quali siano le novità tecniche e come si comporta questa versione overcloccata di fabbrica proposta da Zotac.
Di seguito la tabella con le caratteristiche tecniche della nuova GPU:
GeForce 9800GX2 | GeForce GTX280 | GeForce GTX260 | GeForce GTX280 AMP! | |
---|---|---|---|---|
GPU | 2x G92 | G200 | G200 | G200 |
Processo produttivo | 65nm | 65nm | 65nm | 65nm |
GPU clock (MHz) | 600 | 602 | 576 | 700 |
Stream Processor | 2x 128 | 240 | 192 | 240 |
SPs clock (MHz) | 1500 | 1296 | 1242 | 1400 |
Numero ROPs | 2x 16 | 32 | 24 | 32 |
Texture Filtering Unit | 2x 64 | 80 | 64 | 80 |
Ampiezza del bus (bit) | 2x 256 | 512 | 448 | 512 |
Memory (MB) | 2x 512 | 1024 | 896 | 1024 |
Frequenza di memoria (MHz) | 2000 | 2214 | 1998 | 2300 |
Tipo di memoria | GDDR3 | GDDR3 | GDDR3 | GDDR3 |
Banda memoria (GB/s) | 128 | 141.7 | 112 | 147.2 |
Come possiamo vedere G200 rappresenta un affinamento e un’evoluzione del precedente G92. NVIDIA ha cercato di potenziare gli aspetti architetturali chiave, in modo da riuscire ad ottenere prestazioni simili a quelle offerte dalla 9800GX2, ma senza dover ricorrere all’adozione di una doppia GPU.
Le novità tecniche di G200 sono state ampiamente discusse in precedenza, in questo articolo , qui ricapitoleremo quindi solo i tratti salienti.
Anzitutto NVIDIA ha praticamente quasi raddoppiato il numero di Stream Processor, che salgono da 128 nel caso di G92 a 240 per quanto riguarda la versione di G200 che equipaggia la GTX280. In questo modo le unità di elaborazione parallele sono state significativamente potenziate, eliminando la necessità di affiancare due G92 per ottenere risultati simili. Gli ingegneri del Green Team hanno proceduto nella stessa maniera anche per quanto riguarda le ROPs, passate da 16 a 32 e le Texture Filtering Unit, portate da 64 a 80.
Si tratta indubbiamente di ottimi interventi, che al tempo stesso hanno permesso a NVIDIA di semplificare tecnicamente la produzione industriale, abbassandone quindi i costi, ma mantenendo le prestazioni. Con questi interventi NVIDIA ha corretto tra l’altro i limiti tecnici che impedivano a G92 di mantenere valori di frame rate alti applicando i filtri alle massime risoluzioni.
Un altro campo di intervento è stata l’ampiezza del bus, che è raddoppiata, passando da 256 a 512bit, sempre per quanto riguarda la soluzione GTX280.
Sappiamo infatti quanto sia importante avere una banda passante adeguata, in grado di trasferire in modo efficiente l’enorme quantità di dati da elaborare contenuta nella RAM on board. In questo però i tecnici NVIDIA hanno scelto di seguire una strada antitetica a quella perseguita in casa AMD-ATI. Dove infatti quest’ultima ha preferito adottare RAM di tipo GDDR5, dotate di bus quadruplo, in modo da aumentare la bandwidth mantenendo al contempo l’ampiezza in bit e le frequenze di lavoro della generazione precedente, NVIDIA ha mantenuto le collaudate e ormai poco costose GDDR3, preferendo aumentare frequenze di lavoro e ampiezza del bus. I valori di clock di stream processor e chip sono invece rimasti grossomodo inalterati rispetto a quelli proposti dalla 9800GX2.
Si tratta indubbiamente di approcci tecnici diversi che rivelano tutta la differenza di impostazione di strategia delle due case antagoniste. AMD-ATI cerca infatti di contenere il più possibile consumi elettrici e sviluppo di calore, cercando al contempo di restare sempre competitiva nelle prestazioni della fascia Main Stream, che rappresenta la fetta più grossa del mercato, abbattendo contemporaneamente i prezzi dei suoi prodotti.
Per far questo quindi ha scelto di produrre una sola GPU per ogni generazione, senza differenze architetturali interne, scalando le prestazioni tramite un approccio che prevede l’aumento delle frequenze di lavoro e l’adozione di più GPU su un singolo PCB o l’utilizzo di più schede tramite Crossfire o CrossfireX. NVIDIA invece continua nella politica della differenziazione delle GPU a seconda della fascia di mercato, come si può notare anche dando un’occhiata alla soluzione GTX260 rispetto alla 280.
Le GPU destinate alla fascia cosidetta Enthusiast, sono quindi progetti particolarmente complessi e costosi. NVIDIA quindi punta, per queste soluzioni, non tanto a contenere consumi e calore, quanto a contenere il prezzo finale, già molto alto. Ecco allora che diventa più vantaggioso mantenere le GDDR3 ed aumentare frequenza e ampiezza di bus, piuttosto che il contrario, visti i costi molto maggiori delle DDR5 rispetto alle 3. Grazie all’accelerazione davvero enorme che lo sviluppo tecnico delle moderne GPU ha subito negli ultimi anni, queste hanno raggiunto livelli di complessità e di potenza di calcolo elevatissimi. Il parallelismo architetturale delle GPU, inoltre, le ha da sempre rese potenzialmente più adatte delle CPU per determinati tipi di calcolo.
È andato così sempre più aumentando un interesse per le potenzialità del calcolo basato sui processori grafici, tramite l’esecuzione di codice appositamente sviluppato. Tale concetto ha preso man mano forma negli ultimi anni e GPGPU Computing è il suo nome: grazie alle caratteristiche di alto parallelismo a cui abbiamo accennato, le attuali GPU sono in grado di svolgere in pochi minuti calcoli che necessiterebbero di molto più tempo anche da parte delle moderne CPU.
NVIDIA in questo campo è stata pioniera, sviluppando una soluzione chiamata CUDA, acronimo di Compute Unified Device Architecture. Tale soluzione rende possibile lo sfruttamento della capacità di calcolo delle GPU presenti nel sistema, mediante programmazione in linguaggio C. I campi di applicazione sono infiniti, dalla finanza all’astronomia, ma quello che più colpisce è, oltre alla schiacciante superiorità di calcolo, il rapporto costo/prestazioni, estremamente vantaggioso per qualsiasi campo di ricerca.
Senza ricorrere a costosissime soluzioni basate su supercomputer, un semplice sistema SLI a tre schede del tipo G200 metterebbe a disposizione ben 720 core per l’elaborazione in parallelo. Il risparmio di investimento richiesto, evidente tra le due soluzioni, non richiede ulteriori commenti.
Ma CUDA non è una tecnologia appetibile solo da ricercatori e scienziati. Le sue applicazioni trovano spazio anche in un uso più quotidiano e vicino a noi. La codifica di filmati in formato HD è ad esempio un campo che trarrebbe grandi giovamenti dal calcolo parallelo messo a disposizione dalle GPU.
Un ulteriore esempio di sfruttamento delle caratteristiche tecniche di una GPU è dato dalla capacità di CUDA di svolgere complesse simulazioni di fisica all’interno dei videogiochi.
Come sappiamo infatti, i motori fisici sono diventati negli ultimi anni sempre più complessi e in grado di offrire comportamenti realistici dei modelli tridimensionali, ma questo ha un prezzo che le CPU, non saranno presto più in grado di affrontare.
In quest’ottica, alcuni anni fa la compagnia AGEIA aveva iniziato a sviluppare e ad offrire sul mercato una soluzione, denominata PhysiX, per il calcolo fisico che non fosse più semplicemente un motore software da integrare nel gioco, come ad esempio l’Havok, ma una vera e propria piattaforma di sviluppo, unita a un supporto hardware, specificamente sviluppato per svolgere tale tipo di calcoli. Nonostante l’idea potenzialmente molto buona, AGEIA non è mai riuscita a diffondere il suo prodotto, sia a causa della bassa penetrazione distributiva, sia per il prezzo elevato della sua scheda, una spesa che in pochi avrebbero affrontato solo per aggiungere una fisica realistica ai giochi del momento.
NVIDIA però ha acquisito AGEIA ed ha integrato tecnologie e know-how con le caratteristiche delle sue ultime GPU, dando vita a quella che può essere considerata una vera rivoluzione, i cui frutti però si inizieranno a vedere solo tra qualche anno. È ormai prassi recente, sia per i produttori che montano GPU ATI che NVIDIA, adottare come layout della scheda quello delle reference board sviluppate dai due colossi, probabilmente al fine di abbattere i costi dovuti ad ulteriori sviluppi di layout personalizzati. Anche la GTX280 AMP! Edition di Zotac non fa quindi eccezione e la scheda è distinguibile solo per lo sticker posto sul frontale del dissipatore, con un drago in tipico stile Zotac.
Purtroppo, a livello estetico, questa scelta ha finito per uniformare tra loro tutti i brand, facendo definitivamente tramontare l’epoca, fino ai primi anni di questo decennio, in cui era possibile scegliere una scheda anche per un’estetica particolare, oltre che per le prestazioni o la qualità costruttiva.
La GTX280 di Zotac è quindi caratterizzata dal tipico dissipatore adottato da NVIDIA negli ultimi anni, dalle forme piuttosto squadrate e spigolose, di colore nero. Ovviamente, come è normale per schede di questa fascia, il sistema è di tipo dual slot, con ventola a turbina di dimensioni abbastanza generose, ma comunque relativamente silenziosa quando non a pieno regime di rotazione. La soluzione di raffreddamento utilizzata da NVIDIA è ancora più integrale di quella presente sulle ATI, non limitandosi a coprire solo la parte anteriore della scheda, ma estendendosi come un vero e proprio guscio anche sui lati e sul posteriore, sigillando quindi al suo interno l’intero PCB di colore nero, che si intravede soltanto da alcune feritoie lungo la sua superficie.
Il dissipatore adottato è del tipo a heatpipe già visto sulla GTX280 standard. Si tratta di un sistema molto sofisticato, con base e heatpipe in rame e alettatura in alluminio. Le heatpipe sono ben sette, alcune si sviluppano lungo l’intera base in modo da omogeneizzare il più possibile l’area di dissipazione, mentre altre salgono direttamente alle alette.
Il connettore bridge per l’uso della scheda in modalità SLI è coperto da un tappo in gomma, affiancato da un’uscita S/PDIF, anch’essa dotata di cappuccio. Le uscite posteriori sono le canoniche due DVI-I Dual Link e l’HDTV Out.
Rimuovere la cover/dissipatore è abbastanza semplice e prevede la rimozione di tutte le viti presenti sul lato posteriore e la pressione tramite cacciavite piatto in corrispondenza di alcuni blocchi di ritenzione, tuttavia sconsigliamo come sempre tale operazione, in quanto invalida la garanzia della scheda.
Clicca sull’immagine per ingrandirla
Il layout è ordinato, anche se densissimo di componenti. La versione overcloccata da Zotac non si differenzia da quella reference di NVIDIA e presenta anch’essa lo spostamento all’esterno della GPU di tutti i componenti necessari all’elaborazione dell’immagine 2D come il RAMDAC, i TMDS e altri segnali di input, output e transcodifica.
I chip di memoria GDDR3 sono marcati Hynix e siglati H5RS5223CFR-N2C. Si tratta di chip da 0.83ns, in grado quindi di lavorare fino a 2400MHz di frequenza, anche se Zotac li ha tenuti di poco sotto, ossia a 2300MHz.
La sezione di alimentazione è anch’essa molto complessa e prevede un’alimentazione a sei fasi per la GPU, accostata a una a tre fasi per i chip di memoria. Da notare che la GTX280 presenta due connettori PCI Express per l’alimentazione addizionale: uno da sei e uno da otto pin e che la scheda non partirà utilizzandone uno solo o anche due ma da sei pin ciascuno.
CPU | Intel Core 2 Quad Q6600 |
Freq./vCORE | 3200MHz 400×8 / 1.376 |
Mainboard | Asus P5E3 (chipset Intel X38) |
RAM | 2x1GB Crucial Ballistix Tracer PC2-800 |
Freq./Timing | 961MHz / 5-5-5-18-2T |
VGA | Zotac GeForce GTX280 AMP! Edition 1024MB |
HDD | Samsung SpinPoint 250GB 7200rpm SerialATA |
PSU | Be Quiet! Dark Power Pro 1000W |
Driver | NVIDIA ForceWare 177.41 |
Sistema Operativo | Microsft Windows Vista Ultimate 32bit SP1 |
Futuremark 3DMark 2006 Non ha bisogno di presentazioni, è il benchmark di riferimento per le schede video di ultima generazione. Tuttavia, è da considerarsi più un valore di riferimento generico che un indice assoluto di prestazioni.
Medal Of Honor: Airborne Il gioco sfrutta in modo intensivo gli effetti DirectX 9.0c, propri del potente motore grafico Unreal3 usato anche da altri titoli. Per garantire la comparabilità dei test, è stato creato un percorso ad-hoc grazie all’utility FRAPS 2.9.2.
Crysis Patch 1.2 È il titolo del momento: il primo a sfruttare un motore grafico basato principalmente sulle DirectX10 su scenari molto ampi e perciò risulta incredibilmente complesso da gestire anche per le schede video più potenti.
World In Conflict Così come Crysis, WIC implementa sia istruzioni DX9.0c che DX10, soprattutto per il rendering delle proprie scene ricche di fisica, geometria ed effetti particellari.
Per la prova dei consumi, il valore in idle esprime il consumo in Watt (PR) del sistema completo, mentre in full load ci si riferisce al picco massimo rilevato con Crysis GPU Benchmark a 1280*1024 4xAA. Il tester in uso è un Lafayette PC-300.
Ulteriori chiarimenti sulla metodologia adottata da PI Hardware per testare le schede video sono disponibili a questo indirizzo
3DMark 2006 evidenzia un generale allineamento di risultati tra le soluzioni basate su G92 e G200, con ovviamente un leggero vantaggio della versione AMP! di Zotac, grazie alle maggiori frequenze di clock per GPU e RAM.
Tuttavia, essendo 3DMark un test sintetico, tali risultati non sono destinati a ripetersi, come vedremo tra poco, con gli applicativi reali, in cui la superiorità architetturale di G200 emerge con maggior decisione.
Già con questo gioco, basato sul motore grafico Unreal 3, la situazione è differente. La GTX280 standard ottiene infatti prestazioni migliori del modello basato sul precedente G92, soprattutto salendo in risoluzione, la Zotac poi chiude sempre in testa, grazie all’overclock di fabbrica.
Con Crysis, a prima vista, il vantaggio prestazionale di G200 sembra affievolirsi un po’ a favore della soluzione basata su G92, con la GTX280 liscia che si avvicina come resa salendo di risoluzione e la AMP! Edition che invece risulta equivalente fin dalle risoluzioni più basse, grazie alle maggiori frequenze di lavoro.
Tuttavia è una situazione passeggera, dovuta forse alle prestazioni dei driver, maggiormente ottimizzati per la soluzione precedente, più nota e rodata, ma che è destinata a tornare alla normalità applicando i filtri.
In questo caso infatti torniamo a notare la superiorità di G200 su G92, davvero schiacciante. Salendo di risoluzione con dei filtri pesanti, possiamo vedere come il vecchio chip entri subito in crisi, non garantendo più la giocabilità già a 1280×1024. Si vede bene dunque come sia stato importante passare a soluzioni basate su un raddoppio di Stream Processor, ROPs e Texture Filtering Unit. I numeri sono quasi equivalenti a quelli offerti da due G92 in parallelo, ma chiaramente un bridge SLI non può offrire il raddoppio delle prestazioni garantite invece da una singola GPU più potente.
Una situazione identica è osservabile in World In Conflict, con la GTX280 che domina sulla 9800GX2 fin da subito e la Zotac che ovviamente fa ancora meglio a tutte le risoluzioni.
I limiti di potenza di calcolo di G92 vengono infatti solo in parte compensati da soluzioni a doppio chipset, mentre G200 si rivela decisamente superiore in tutti gli ambiti, segno che i tecnici NVIDIA hanno fatto un ottimo lavoro, individuando tutti quegli aspetti architetturali che frenavano G92 e sviluppandoli per rendere G200 una GPU completamente diversa in quanto a performance.
Applicando i filtri questa situazione non cambia, venendo semmai confermata e facendosi più chiara ed evidente. Se senza filtri la 9800GX2 era in testa, almeno alle risoluzioni più basse, qui chiude il gruppo delle schede testate fin da subito, anche se il divario prestazionale si assottiglia. Elaborare dei filtri così pesanti, infatti, è impresa ardua per qualsiasi scheda, ma G200 ha caratteristiche tecniche che gli permettono di farlo meglio di G92 a qualsiasi risoluzione e con qualsiasi impostazione. La GTX280 AMP! Edition chiude ovviamente sempre in testa. I consumi si riferiscono alla potenza in Watt (PR) richiesta dal sistema completo e sono rilevati tramite tester Lafayette PC-300 collegato direttamente all’alimentatore Be Quiet! Dark Power Pro 1000W.
Nonostante i valori di clock della soluzione Zotac siano superiori a quelli del modello standard, il lavoro svolto è stato ottimo, riuscendo a contenere l’aumento di consumi a una manciata di Watt. Nel complesso NVIDIA ha lavorato molto bene, ottenendo con la GTX280 una scheda più performante della precedente 9800GX2, diminunendone al tempo stesso i consumi. Zotac poi si supera, aumentando ulteriormente le prestazioni in maniera significativa e i consumi invece in modo del tutto marginale.
Performance di tutto rispetto anche per quanto riguarda il complesso dissipatore che, nonostante un aumento delle frequenze di clock, ha mantenuto le temperature della Zotac AMP! Edition tra i 42 e i 68°C, un incremento anche qui poco evidente rispetto alle temperature della GTX280 normale e, in generale, assai basse, soprattutto per schede di questa fascia. Dopo un anno di operazioni di marketing alquanto opinabili e poche vere novità tecniche, NVIDIA è tornata alla ribalta con questa nuova GPU e l’ha fatto alla grande. La GTX280 è, allo stato attuale, la scheda video più performante sul mercato e la versione overcloccata di Zotac è in grado di fare anche leggermente meglio della più potente soluzione a doppia GPU.
NVIDIA aggiunge a tutto ciò la possibilità di utilizzare questa scheda anche per scopi molto diversi dal gaming, rivelandosi quindi anche estremamente versatile. Mai come ora infatti si sta concretizzando la possibilità di impiegare G200 anche per impieghi di calcolo scientifico o, restando in ambito home, nell’encoding video ad alta risoluzione, ma anche per aggiungere una fisica realistica ai giochi di ultima generazione.
A tutto questo Zotac aggiunge prestazioni ancora più elevate a fronte di consumi e dissipazione del calore praticamente identici a quelli, per altro davvero buoni, della soluzione standard. Aiutata poi dal consistente taglio dei prezzi effettuato da NVIDIA sui suoi ultimi prodotti, la Zotac GeForce GTX280 AMP! Edition, per un prezzo di circa 439€ è davvero una soluzione appetibile, non solo per l’hardcore gamer, ma anche per chi svolge editing video o calcoli in ambiti lavorativi professionali.
In considerazione di tutto ciò, PI Hardware ha deciso di conferire alla Zotac GeForce GTX280 AMP! Edition il PcTuner Award:
Si ringrazia Zotac Italia per averci fornito il sample in esame.
Alessandro Crea
PcTuner
Tutte le recensioni di PI Hardware sono disponibili a questo indirizzo