Vai al contenuto
cecofuli

Nvidia Fermi

Recommended Posts

Inviata (modificato)

E' uscita.

95 °C, 70db, 850W per lo SLI e 480 stream processors. Questi i numeri della nuova Nvidia.

480_gtx_front.jpg

Ulteriori thread su treddi.com

http://www.treddi.com/forum/topic/82412-pessima-reputazione-geforce-serie-4xxvera-o-falsa/page__p__789656__hl__fermi__fromsearch__1#entry789656

http://www.treddi.com/forum/topic/80022-gtx-470480-efficienza-rumorosita-e-varie/page__hl__fermi


Modificato da papafoxtrot

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Non mi sono ancora informato molto, ma ho letto commenti che dicevano in sintesi che non è valsa l'attesa nè il prezzo vale la candela

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Beh, per essere potente è potente e Nvidia si è riconquistata lo scettro. Ma il prezzo è salato, sotto molti punti di vista. Consumi, rumorosità e temperature. Io credo che, a parte chi proprio non ne potrà fare a meno, non so, aspetterei una seconda revisione, dove ottimizzeranno consumi e temperature (quindi rumorosità).

La migliore recensione a me pare questa, dove c'è una pagina dedicata a GPU computing.

Questa una bella tabella riassuntiva.

gfxcomparerev2smallpng.jpg

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

La placca del radiatore montata sulla parte superiore della scheda GeForce GTX 480 ha raggiunto i 65 gradi centigradi; medesimo valore per le 4 heatpipes. C'è ben poco da commentare: queste schede non solo generano temperature molto elevate (NVIDIA indica come picco massimo il valore di 105 gradi centigradi, raggiunto il quale la GPU si downclocca automaticamente) ma producono una notevole quantità di calore all'interno del sistema.

Quindi praticamente dovremo tenere i case aperti, :mellow:

Ora aspettiamo qualcuno che la compri e ci faccia qualche bel test, magari con Arion o octane (meglio octane, che c'è la demo ;) ). Anzi, mi sa che dovremo inventarci un bench per GPU :)


Modificato da cecofuli

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Anche perchè finchè non c'è nessun renderer che usa Open CL, tocca scegliere Nvidia per forza se si vuole usare la GPU. Dovrebbero progettare un case come la 600 abhart, con il cofano sempre aperto. :)

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

MPotenza...

Per andare il 15% in più di una hd5870 una scheda non può consumare 120W in più!!!!!!!!!!!!!!!

120W?? E' il consumo di due portatili in full load! Un core i7! Una scheda di fascia medio-alta!

70W in più della hd5970, che è una dual GPU e come tale consuma molto... E a prestazioni è un'altra cosa...

La gtx470 sta a metà strada tra una hd5850 ed una hd5870... e Consuma 70W in più di quest'ultima!!!!!!

La mia impressione, e non solo, è che queste schede siano state molto overcloccate al fine di guadagnarsi il titolo di scheda a singola GPU più potente... E non rimetterci la faccia a far uscire una scheda modesta doipo 7 mesi di rinvii...

Adesso sono al lavoro su gf104, un chip da 256 ALU da piazzare nella fascia dei 100-200 euro. Spero bene sia più efficiente di queste... perché a 150 euro ci sono le hd5770 che davvero non consumano nulla...

Anche io ho apprezzato la recensione di anandtech... come sempre del resto.


Modificato da papafoxtrot

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Behl'architettura di gf100 porta notevoli miglioramenti per le elaborazioni GP-GPU... in particolare l'architettura della cache... E poi la gestione dell'elaborazione in doppia precisione (che non credo a noi interessi...).

Rispetto a gt200 (che era u osso) pare che vada davvero bene...

Ma porca miseria, diventa difficile comprarle ste schede! Mi ricordano le hd2900xt... ma almeno quelle costavan 350 euro... E quanto a consumi queste sono riuscite a fare ancor di peggio!

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Sono alquanto deluso da queste nVidia. Hanno veramente sacrificato consumi e temperature per superare, di poco, ATI. Ora veramente sono indeciso su cosa fare per la nuova workstation che mi vorrei regalare, perche' il GPU computing mi intriga parecchio. E questo significa comunque nVidia.

O forse una ATI 5970 per il sistema operativo e una GTX 275 1792MB per il GP-GPU. Vedro' prossimamente i vari benchmark tra generazioni diverse di nVidia. Ma che schifio....

Behl'architettura di gf100 porta notevoli miglioramenti per le elaborazioni GP-GPU... in particolare l'architettura della cache... E poi la gestione dell'elaborazione in doppia precisione (che non credo a noi interessi...).

Rispetto a gt200 (che era u osso) pare che vada davvero bene...

Ma porca miseria, diventa difficile comprarle ste schede! Mi ricordano le hd2900xt... ma almeno quelle costavan 350 euro... E quanto a consumi queste sono riuscite a fare ancor di peggio!

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Ripeto il mio consiglio per il GP-GPU: aspettiamo test eseguiti sul motore di rendering con le varie versioni di scheda (e con le CPU).

Ad ogni modo non avrebbe moilto senso unire una hd5970 ad una gtx275. Per la viewport di molti software la 275 è già sufficiente, mentre in genere le configurazioni multi-gpu non sono sfruttate.

Si può o restare sulle ati a singola gpu (hd5770 e hd5850 in primis), o prendere una gtx470 se si pensa di usarla molto per il gp-gpu, o unire una quadro/forepro di fascia media ed eventualmente unire a questa una scheda nvidia... Che potrebbe essere anche una gts450...460 se mai usciranno...

Insomma finalmente nvidia ha fatto l'uovo... spero che presto arrivi anche la fascia medio-alta!

Altrimenti si aspetta la quasi sicura hd5890 :D... Infondo basta mandare a 1GHz la hd5870 e anche la gtx480 è presa... Se lo può fare qualunque smanettone senza manco alzare i voltaggi o cambiare il dissipatore... Per ATI non è certo un problema!

Mesi fa avevano detto che stavano preparando l'antifermi (dovrebbe mancare all'appello anche una hd5950), ma con quest'uscita è facile che decidano di rimandare tutto alla prossima generazione... ormai non manca molto!

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Ripeto il mio consiglio per il GP-GPU: aspettiamo test eseguiti sul motore di rendering con le varie versioni di scheda (e con le CPU).

Ad ogni modo non avrebbe moilto senso unire una hd5970 ad una gtx275. Per la viewport di molti software la 275 è già sufficiente, mentre in genere le configurazioni multi-gpu non sono sfruttate.

Si può o restare sulle ati a singola gpu (hd5770 e hd5850 in primis), o prendere una gtx470 se si pensa di usarla molto per il gp-gpu, o unire una quadro/forepro di fascia media ed eventualmente unire a questa una scheda nvidia...

Sicuramente aspettare i test, anche perche dove le compri ora le Fermi? ;-).

Per il fatto di avere due schede (ATI/Fermi o quadro fascia bassa/Fermi) questo e' perche e' consigliato da CUDA (ok che non e' il medico....) avere una scheda per la sola visualizzazione in modo che tutta la potenza sia disponibile per il GP-GPU. Altrimenti ne risente l'utilizzo normale del PC. Ho detto 5970 ma potrebbe benissimo essere una 5850, per ridurre i consumi quando non strettamente necessario. Ma a 'sto giro voglio almeno due schede!

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Anche sul fatto che sia meglio avere due schede penso sia bene indagare. Al momento i riferimenti a riguardo sono pochissimi. D'altro canto mi pare strano che serva una scheda diversa da quella dedicata alla grafica, se non si fa altro durante il render. Certo le due schede sarebbero la soluzione più efficace, ma a quel punto troverei più potente averle uguali ed usarle in sli... Allora qualcuno arriverebbe a dire che conviene siano due in sli per il render, ma averne una terza per pilotare il monitor... E mi sta bene... ma avendone tre, sarebbe comunque più potente usarle tutte e tre penso...

Insomma sono tutte cose da verificare un po' alla volta...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

Con octane, con una 9800 GTX, la GUI del programma, Windows stesso, quando la GPU renderizza, il mouse, l'apertura delle viewport etc... va a rallentatore. Anche solamente muovere gli slider di Octane diventa penoso.

Il motivo è che le GPU non sono multitasking. Infatti è consigliabile avere due VGA, in modo a scaricare il lavoro. Oppure una buona VGA di ultima generazione.

Octane non supporta le VGA X2, cioè con 2 Chip sulla stessa board. Supporterà, prestissimo e forse già la prossima beta, le multi GPU. Non serve lo SLI.


Modificato da cecofuli

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Con octane, con una 9800 GTX, la GUI del programma, Windows stesso, quando la GPU renderizza, il mouse, l'apertura delle viewport etc... va a rallentatore. Anche solamente muovere gli slider di Octane diventa penoso.

Il motivo è che le GPU non sono multitasking. Infatti è consigliabile avere due VGA, in modo a scaricare il lavoro. Oppure una buona VGA di ultima generazione.

Octane non supporta le VGA X2, cioè con 2 Chip sulla stessa board. Supporterà, prestissimo e forse già la prossima beta, le multi GPU. Non serve lo SLI.

Hem... credo di avere afferrato ma ti domando per sicurezza: Octane al momento non supporta il multi-GPU, ma lo supporterà a breve, giusto?

Poi che si tratti di due vga o una vga a due gpu a livello di software non cambia molto; in compenso a livello di hardware la differenza c'è: due gpu su singolo PCB devono condividere il bus pci-express in direzione della CPU.

Anche qui ci sarebbe da provare dunque...

Per quanto riguarda l'uso del computer durante il render immagino bene che sia impossibile.. Anche usando le CPU è difficile lavorare al PC durante il render. Anche se con i core i7 va meglio... coi vecchi core 2 era impossibile... l'FSB troncava qualunque possibilità di usare il computer mentre renderizzava.

Ciò che sarebbe da capire è se avendo una scheda dedicata al render ed una alla grafica si avrebbero prestazioni superiori.

Per quanto riguarda le multiGPU infine il problema non si pone: dubito che nvidia riuscirà a cavare una dual GPU decente da questa generazione di fermi..

Se ci pensi ATI ha dovuto ridurre le prestazioni di rv870 per metterne due sulla hd5970... la gtx470 consuma 70W in più della hd5870... nvidia dovrebbe castrare troppo...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Beh, con uno Xeon, se renderizzi e stai attento a non saturare la RAM, con un altro Max riesci a lavorare (comunque sconsigliato).

Non so se è complicata la programamzione, ma Octane non supporta ora GPU X2

Con Octane, tu puoi dirgli quale GPU deve usare. Quindi se ne hai due le puoi usare tutte o una lasciarla scarica.

Questo è uno screenshot della nuova beta.

file.php?id=476&mode=view

Octane will support using multiple GPU's soon (in a few weeks),

without using or needing SLI.

The current DEMO versions don't support multiple GPU's...

Inoltre interessante:

RADIANCE

The 295 will make an excellent card.

Even with our multi-gpu support not yet available,

with this card you can run your octane render engine on the 2nd card (inside it),

and have the other half free for your operating system,

thereby giving you full response during rendering and the ability to run other apps while rendering with octane in the background.

UTENTE:

From your response I understand once the multi GPU rendering kicks in, both of the 295's chips will be supported and useful for rendering. Thanks for clearing that up.

RADIANCE

Yes, but also understand that this card gives you the option, if you need it to render at half speed, but still have your system available for use.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Si ma piuttosto che comperare ora una 295 io andrei a prendere una 470.... Soprattutto in GP-GPU le prestazioni di fermi sono molto superiori a quelle del vecchio chip GT200.

In attesa di bench. Comunque quest'anno, come da un po' avevamo previsto, sarà campale per il GP-GPU...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Si ma piuttosto che comperare ora una 295 io andrei a prendere una 470.... Soprattutto in GP-GPU le prestazioni di fermi sono molto superiori a quelle del vecchio chip GT200.

Anche io vorrei prendere una 470, ma le temperature di utilizzo mi spaventano un poco. Durante il rendering la GPU dovrebbe essere piu' o meno satura, quindi il calore elevato. In piu' con un'altra scheda di fianco....

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Se pensiamo che Arion usa sia GPU e CPU... un case chiuso, con una CPU magari occata e due 480 in full load, bah, penso che li dentro ci si cuocerebbe davvero questa volta. Mi sa che il case dovrà rimanere aperto. E non dimentichiamoci un ali di almeno 1.000Watt come minimoe un paio di queste ehehe... più di 100 dB :) se poi il case è aperto...

ambienti_lavoro_cuffie.jpg

Meglio aspettare che aggiustino un po' il tiro, con VGA più fredde e meno rumorose. Fare da beta-tester con una VGA da 500 euro...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

Ahaha... Cioè, no, ma io scherzav! Guardate (anzi ASCOLTATE) qui. Bahhh... :blink: . Papa, tu che sei un amante della silenziosità, tu che dici ahaha.... :lol: La compriamo?


Modificato da cecofuli

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Ahaha... Cioè, no, ma io scherzav! Guardate (anzi ASCOLTATE) qui. Bahhh... :blink: . Papa, tu che sei un amante della silenziosità, tu che dici ahaha.... :lol: La compriamo?

Visto sabato mattina (dopo aver comunque letto le rece di Fermi a mezzanotte), impressionante. E io che mi lamento (a ragione comunque) della 360.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

Ma se la ventola parte di brutto, non possono raffreddarla a liquido?


Modificato da enri2

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

Si, ovvio. Infatti c'è già.

evga_gtx480_water.jpg

Ma i costi salgono di molto.

EVGA GeForce GTX 480 FTW Hydro Copper (015-P3-1489-AR): 750/1500/950 MHz, waterblock Hydro Copper preinstallato, MSRP $649.99 cioè 649 euro.

Oltre al costo più elevato, poi devi farti tutto il kit con radiatori, pompe, raccordi etc... Quindi tra i 700 e 800 euro. :rolleyes: Una vecchia tabella.

nvidia-fermi-specifiche-tecniche_c.jpg

Inoltre la RAM è un po' pochina. In teoria dovrebbero arrivare fino a 6 GB RAM. Non dico di aspettare fino a che le normali Ge Force arrivino a tale soglia, però almeno 2.5-3 :) Se penso che il Tesla Tesla S2070 ne monta già adesso 6 :)

Tesla_C2050_C2070_3qtr_low.png


Modificato da cecofuli

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Crea un account o accedi per commentare

Devi essere un utente per poter lasciare un commento

Crea un account

Registrati per un nuovo account nella nostra comunità. è facile!

Registra un nuovo account

Accedi

Hai già un account? Accedi qui.

Accedi ora

  • Navigazione recente   0 utenti

    Non ci sono utenti registrati da visualizzare in questa pagina.

×