Vai al contenuto
julien89

quadro vs gpu da gioco

Recommended Posts

ho la netta impressione che una gpu da gioco con equivalente prezzo di una quadro vada più veloce!! tutta sta storia dei driver ottimizzati mi pare una bufala, ho una quadro 2000 che sta sui 400€, cavolo sono convinto che una GTX 670 che costa circa uguale, vada molto meglio, anche senza driver ottimizzati, anche perchè la quadro 2000 come prestazioni fa schifo in confronto a una gtx670, quindi anche senza driver ottimizzati secondo me è più veloce la gtx670. cosa ne pensate voi?

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

ho la netta impressione che una gpu da gioco con equivalente prezzo di una quadro vada più veloce!! tutta sta storia dei driver ottimizzati mi pare una bufala, ho una quadro 2000 che sta sui 400€, cavolo sono convinto che una GTX 670 che costa circa uguale, vada molto meglio, anche senza driver ottimizzati, anche perchè la quadro 2000 come prestazioni fa schifo in confronto a una gtx670, quindi anche senza driver ottimizzati secondo me è più veloce la gtx670. cosa ne pensate voi?

Le Geforce sono più spinte delle equivalenti Quadro, perchè si sa che per giocare devono elaborare in tempo reale, e sono ottimizzate per i motori grafici da gioco. Però le Quadro sono nate per durare, hanno circuitazioni ottimizzate, memorie con controllo di errore, in definitiva sono un po 'più lente ma molto più stabili. E' un po' la differenza tra processore Xeon e processore i7. Anni fa qualcuno riusciva a modificare via hardware con dei jumper e in seguito via software le Geforce convertendole in Quadro e potendo sfruttare i driver workstation. Questa cosa chiaramente non è riconosciuta dalla casa madre e fa decadere le garanzie oltre al rischio di danneggiare definitivamente la scheda. I driver workstation in definitiva potrebbero benissimo girare anche su Geforce, ma nvidia non lo permette perchè le due categorie di schede sono nate per scopi diversi. La famiglia Quadro per lavoro e Geforce per settore ludico. La differenza di prezzo in realtà è giustificata in parte dalla qualità dell'hardware e in parte dallo sviluppo di driver molto più validi e ottimizzati per la categoria professionale. In definitiva, una geforce GTX 670 è una bomba, ma non potendo installare i driver workstation non si può indirizzare questa potenza in un programma come per es 3DS Max. Inutile dire la famosa frase "La potenza è nulla senza controllo". Però aggiungo, quando una quadro è troppo vecchia concordo con te, se il budget non me lo permette, meglio la Geforce.

ciao


Modificato da Salz

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

Tutta la questione è incentrata su una sola cosa: OpenGL. Tutti i cad lo usano per la viewport, e le Geforce non hanno driver di qualità OGL, anzi mi pare proprio che vengano usati quelli di windows, dove si perdono tutte le ottimizzazioni. Quando si installa una Quadro e i suoi driver, quelli OpenGL vanno a sostituire quelli di windows,( su mac questo limite viene quasi totalmente superato, perchè i driver OGL di OS X, sono ottimi, infatti molto raramente c'è bisogno di una Pro, quelle poche disponibili, almeno) e sono molto ottimizzati per quella scheda, stessa cosa per le FirePro. In pochi casi tuttavia, sw che usano Directx hanno la stessa limitazione, come 3dstudio, secondo me volontaria. Comunque a quanto pare con le ultime versioni di 3ds e le Kepler questo limite viene superato, almeno i parte, le 680/670 vanno molto bene in viewport, in 3ds una 680 è veloce quasi come una Quadro 4000. Le variabili sono molte, bisognerebbe provare il sw che interessa con le schede Desktop Pro, per capire le prestazioni. Tanto per fare un esempio, in Modo una 680 quadruplica quasi una Quadro 5000. Ogni sw si comporta in un certo modo, e i bench non ci sono per tutti purtroppo.


Modificato da enri2

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Tradotto: le geforce durano finchè durano...3 mesi, 6 mesi?

Se devo spendere 400 euro a semestre per la scheda video forse preferisco una scheda che vada un po' più lenta ma che almeno due o tre anni mi duri

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Tradotto: le geforce durano finchè durano...3 mesi, 6 mesi?

Se devo spendere 400 euro a semestre per la scheda video forse preferisco una scheda che vada un po' più lenta ma che almeno due o tre anni mi duri

devo proprio essere fortunato allora perche' la mia gtx580 che ha quasi un anno non e' ancora fusa nonostante lavori su scene da decine di milioni di poligoni

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Tradotto: le geforce durano finchè durano...3 mesi, 6 mesi?

Se devo spendere 400 euro a semestre per la scheda video forse preferisco una scheda che vada un po' più lenta ma che almeno due o tre anni mi duri

Magari dura anche un po' di più, basta non massacrarla con iray.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Io ho appena sostituito la mia Quadro 600 con una GTX 560 e ne sono soddisfatto.

Premetto pero' che uso software che non possono usare drivers performance (3dcoat, modo601 e blender) quindi il vantaggio delle quadro e' molto limitato. Inoltre mi appoggio spesso al calcolo CUDA (3dcoat, octane e cycles) quindi il vantaggio delle gtx e' netto.

So per certo comunque che le quadro restituiscono una viewport priva di artefatti sotto autocad e max il che mi fa pensare che siano "obbligatorie" per quel tipo di attivita.

Alla fine tutto dipende da cosa usi.

Cia'

Fla'

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Ma le desktop "fondono" solo se le metti sotto di brutto con CUDA, o ci giochi tutto il giorno, non credo che per gestire semplicemente delle scene 3d, anche grandi, abbiano questo tipo di problemi.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

devo proprio essere fortunato allora perche' la mia gtx580 che ha quasi un anno non e' ancora fusa nonostante lavori su scene da decine di milioni di poligoni

Magari dura anche un po' di più, basta non massacrarla con iray.

Chiaro Salz! Intendevo proprio questo...

@freeflow ovviamente non compro una scheda pro se poi per renderizzare uso la CPU!

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

se spendo una pacca di soldi per una quadro devo poterla massacrare eccome...

parlavo di geforce in questo theed, e nel primo della discussione ho evidenziato proprio la stabilita e la resistenza delle quadro. Altrimenti non le venderebbero, se la differenza fosse solo il prezzo. Ognuno fa delle scelte dettate dalle esigenze e dal budget a volte con dei compromessi. Per la sola viewport geforce puo bastare. X il render su gpu anche una sola quadro potrebbe non bastare...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Ospite
Inviata (modificato)

devo proprio essere fortunato allora perche' la mia gtx580 che ha quasi un anno non e' ancora fusa nonostante lavori su scene da decine di milioni di poligoni

Siamo fortunati in due, anche le mie 570 sono ancora vive. Santa Nvidia da Cuda!


Modificato da Mak21

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Ospite

ho la netta impressione che una gpu da gioco con equivalente prezzo di una quadro vada più veloce!! tutta sta storia dei driver ottimizzati mi pare una bufala, ho una quadro 2000 che sta sui 400€, cavolo sono convinto che una GTX 670 che costa circa uguale, vada molto meglio, anche senza driver ottimizzati, anche perchè la quadro 2000 come prestazioni fa schifo in confronto a una gtx670, quindi anche senza driver ottimizzati secondo me è più veloce la gtx670. cosa ne pensate voi?

io ho usato sempre 3dsmax, mi sono trovato bene in relazione al costo prestazioni con le gtx, ho provato una

quadro di precedente generazione simile alla 600 di oggi ma si sono trovato male. se devo decidere

per una quadro penso che la cosa più sensata è una 5000, le altre non mi sembrano un gran che.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

ecco il topik che mi farà bannare a vita hehehehehe

salve a tutti... è da un bel po che non scrivo da queste parti.

credo però di essere obbligato a partecipare a questo topik.

da sempre mi sono fatto questa domanda... e l'ho rigirata sempre agli uomini di NVidia.... le loro risposte però non mi hanno mai convinto.

all'inizio usavo le Quadro... (era appena uscito 3dsmax6 se non sbaglio).... ma poi mi sono convertito alle geforce (o geffo) perchè i maxtreme non mi sono mai sembrati più performanti dei DirectX delle geffo (anche se in OpenGL effettivamente la viewpoert andava meglio... ma poi autodesk ha preferito dirottare su DirectX).

lìultima risposta l'ho avuto lo scorso anno al 3DRevolution... le quadro? sono migliori perchè costruite meglio (ne dubito...), hanno i drive ottimizzati per 3DsMAX (non è assolutamente vero... con nitro non hanno nemmeno più implementato i maxtreme) e hanno 3 anni di garanzia (forse l'unica differenza).

questo divario economico che non corrisponde a livello prestazionale mi ha dato sempre molto fastidio.

attualmente lavoro con 2 PC, su entrambe uso le quadro, una 4800 e una quadro 5000.

ha abbandonato su un cassetto una Geffo GTX470.....

differenze? ce ne sono.... in soli 2 lavori (che superavano i 10milioni di poligoni), effettivamente la quadro reggeva meglio rispetto alla geffo... ma c'è anche da considerare che la quadro 5000 era montata su un sistema intersystem con doppio xeon esacore, 12Gb di ram e un sistema da workstation. la geffo invece l'ho montata su di un "muletto" ovvero un PC da render che uso anche per il betatesting. questo muletto è un i7 su sk madre ASUS e con una GTX470 (ora quadro 4800).

ora durante la navigazione 3D molti poligoni si scazziavano...... ma considerando che il sistema costava meno di un quinto della workstation... sinceramente non mi ha dato fastidio in progettazione.

quindi per la viewport a mio avviso una geffo va sin troppo bene.

l'affidabilità....... anche questa secondo me è una mezza verità, le quadro sono più stabili... ma sono troppo limitate rispetto le GTX.

inutile che vi vendono 2 automobili con lo stesso motore... dicendomi che quella (molto) più costosa è affidabile... quando lo stesso motore è limitato a 2000g/min.... anche le GTX sarebbero affidabili se le downclokko.

considerando che comunque tutti i prodotti venduti in europa (compresi i prodotti Apple) hanno 2 ANNI DI GARANZIA OBBLIGATORIA del fornitore (1 anno la casa e il secondo il dealer) alla fine anche la terza differenza potrebbe essere discutibile.

A mio avviso credo che per la sola viewport una potente GTX è nettamente migliore di una qualsiasi quadro... anche della linea top (non potendo fare paragoni con quadro kepler visto che ancora non ci sono).

se invece intendete fare GPU Computing.... le GTX sono abbastanza disaastrose.

ho dovuto rimontare una quadro 4800 proprio perche le GTX mi frizzavano il sistema dopo una decina di minuti.

inutile dire che il mio sogno era quello di una BOX di calcolo con 4 GTX 690... stile CUBIX.

un mesetto fa avevo anche trovato una ditta coreana che produce componenti hardware, nello specifico una scheda PCIe to Thunderbolt.....

dovrei contattarli per vedere se un sistema a 4 slot PCIe modulabili con adattatore PCIe o Thunderbolt....

ma l'incognita rimane sempre la stabilità delle geffo.

io sono un privato, e sinceramente mi sono un po stancato di sperimentare a mie spese (diciamo che ora non è aria)... ma se qualcuno con un negozio.. potesse sperimentare queste nuove geffo, sopratutto quelle overC per il Gaming estremo... credo che possano funzionare bene,

così invece di spendere €52.000 per un 16 Tesla.... ci basterebbero 2 o 4 GTX690 per avere una potenza di calcolo impressionante (spendendo moooooooooolto meno).

orpe ... dimenticavo.... certo montare 4 GTX690 sarebbero potentissime... ma prima forse è il caso di chiamare l'ENEL e farci cambiare il contatore hehehehehehehe

La morale è sempre quella.... fai i render con girella.... emmmm intendevo le Geffo hehehehehe

skerzi a parte.... per la viewport... non credo che spendere molto di più per avere forse qualcosina in più sia la strada giusta... sopratutto in questi tempi.

per il GPU Computing invece credo sia l'unica strada... salvo qualche temerario che riesce a stabilizzare le geffo... attualmente l'unica scelta sono le quadro o tesla.

spero qualcuno mi smentisca...

(accidenti.... mi devo ancora abituare a questa tastiera apple..)


Modificato da motopiku

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

allora, ho letto tutti i commenti, e mi sono fatto un idea migliore di quella che è la situazione, a sto punto vi faccio la domanda da nabbo, ma a parte il vray rt io non conosco nessun altro modo per far renderizzare la gpu anzichè la cpu, esiste?

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Per il gpu computing io uso 2 gtx580 3gb evga brand, le lascio lavorare per 10 ore a fila e non mi hanno dato nessunissimo ptoblema, quindi per il lalcolo le geffo vanno benissimo!

Per la viewport uso una firepro v7800 (600 euri di scheda) e in max, scene da più di 230 milioni di poligoni viene gestita con un framerate di 1.5fps.

Ora, non so se è buono o no come indice di prestazione, ma per le mie esigenze sono pienamente soddisfatto!

Ciao

Luca

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

Per il gpu computing io uso 2 gtx580 3gb evga brand, le lascio lavorare per 10 ore a fila e non mi hanno dato nessunissimo ptoblema, quindi per il lalcolo le geffo vanno benissimo!

Per la viewport uso una firepro v7800 (600 euri di scheda) e in max, scene da più di 230 milioni di poligoni viene gestita con un framerate di 1.5fps (con nitrous)

Ora, non so se è buono o no come indice di prestazione, ma per le mie esigenze sono pienamente soddisfatto!

Ciao

Luca

p.s. Scusate li doppio post, ma la prima risposta sembrava non me l'avesse inserita... boh!

post-37825-0-06376500-1340095216_thumb.j


Modificato da ziosavo78

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

allora, ho letto tutti i commenti, e mi sono fatto un idea migliore di quella che è la situazione, a sto punto vi faccio la domanda da nabbo, ma a parte il vray rt io non conosco nessun altro modo per far renderizzare la gpu anzichè la cpu, esiste?

Non sono sicuro se ho inteso bene, ma non è che si può scegliere se far renderizzare la GPU anzichè la CPU, più che la scelta di un modo si tratta della scelta del motore di rendering. Se intendi far lavorare la GPU per il rendering allora devi usare un motore di rendering che sfrutti tale caratteristica. Per esempio 3DS max dalla 2012 include Iray che renderizza con le GPU, ma ci sono altri motori di terze parti che lo fanno credo anche open source tipo Luxrender, nel forum troverai sicuramente molte informazioni su quasto argomento.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

allora, ho letto tutti i commenti, e mi sono fatto un idea migliore di quella che è la situazione, a sto punto vi faccio la domanda da nabbo, ma a parte il vray rt io non conosco nessun altro modo per far renderizzare la gpu anzichè la cpu, esiste?

Basta usare Octane, oppure Cycles di blender.

dipende tutto dal motore di render che scegli.

cia'

Fla'

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

[cut]

scene da più di 230 milioni di poligoni viene gestita con un framerate di 1.5fps.

[cut]

.... cacchio.... 230 milioni... la mia 560 se l'e' fatta sotto solo a nominarli, figuriamoci a muoverli!

Magari ad 1.5 frame al giorno. :)

Cia',

Fla'

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

iRay è comprso nelle ultime 2 versioi di 3dsmax, luxrender.... poi se non sbaglio c'è Arion (versione GPU di Fryrender) BunkSpeed (che usa l'iray) e quello più leggero di tutti che è OctaneRender.

Quest'ultimo è ancora in fase di beta... ed a Pagamento (€99.... nemmeno tanto) ed è quello in cui ci si può divertire molto.

C'è da dire che i render di interni sono ancora quelli più ostici per questi "nuovi" sistemi a GPU, se hai VRay e 3Dsmax puoi provare iRay o Vray RT per testare le schede. ATTENZIONE, solo l'ultima versione di VRay usa CUDA (nvidia... teoricamente niente ATI) come iRay ed altri.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

iRay è compreso nelle ultime 2 versioi di 3dsmax, luxrender.... poi se non sbaglio c'è Arion (versione GPU di Fryrender) BunkSpeed (che usa l'iray) e quello più leggero di tutti che è OctaneRender.

Quest'ultimo è ancora in fase di beta... ed a Pagamento (€99.... nemmeno tanto) ed è quello in cui ci si può divertire molto.

C'è da dire che i render di interni sono ancora quelli più ostici per questi "nuovi" sistemi a GPU, se hai VRay e 3Dsmax puoi provare iRay o Vray RT per testare le schede. ATTENZIONE, solo l'ultima versione di VRay usa CUDA (nvidia... teoricamente niente ATI) come iRay ed altri.

(strano... anche a me ha messo il doppio post... scusatemi)


Modificato da motopiku

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

C'è da dire che per i cad di una certa fascia le desktop nemmeno nominarle, Catia, NX, Pro-e esigono delle schede Pro, chi le Quadro, chi le FirePro. Poi sinceramente poche volte si è sentito che delle GTX sono "partite" per fare render, credo dipenda dal volume di lavoro, insomma mettere una o più gtx lavorare 24 ore al giorno, per giorni, bè forse in quel caso meglio optare per le Tesla, ovviamente questione ram a parte.

PS- Moto, ma secondo te NexLimit, quando opterà per una versione Cuda di Maxwell?

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

visto che siamo in discussione, proprio oggi ho un problema nella viewport, praticamente sto lavorando delle colonne, e ho adoperato mass fx per spaccarne una e vedere dove sarebbero andati a finire i pezzi, solo che non so il motivo, adesso quando "zummo" sulla colonna o su aqualsiasi altra cosa e vado a lavorare sui vertici o sui poligni l'immagine sballa tutta, se ruoto la visuale, idem, i vertici poi sono "staccati" dal poly, che cazzo è succ?? ahahah sto diventanto matto..(uso 3ds max)

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

?!?!?! credo MAI.

4 anni fa ci siamo messi a parlarne ma non siamo riusciti a convincerli.

loro non credono molto nell'accellerazione GPU e non vogliono essere legati con l'hardware (pensa ai MacPro che ancora sono legati solo alle ATI Radeon.....).

il problema è che tutta quell'accellerazione di GPU dimostrata nei calcoli economici non si è replicata ai rendering.

il calcolo dei rendering poco si presta alle GPU, infatti nessun motore di rendering ha potuto sfruttare questa accellerazione, tutti hanno dovuto fare un nuovo motore, MentalRay ha fatto l'iRay, Vray con RT, fryrender con Arion etc etc.

Addirittura Octane un'anno e mezzo fa ha dichiarato che è impossibile far digerire Metropolis alle GPU, tanto da scriverne una nuova versione studiata appositamente per cuda.

la conferma è che se faccio partire il FIRE (l'interattivo di Maxwell) non discosta molto dall'iRay... e cosidera che è basato esclusivamente su CPU.

non solo.... anche se la potenza di fatto fosse uguale (non è vero, comunque le GPU sembrano raggiungere buoni risultati molto prima) è sempre ingiustificato l'utilizzo forzato di Tesla.

Deltatracing lavora con immagini interne in A3 200dpi in mezz'ora con iRay, usando 8 tesla.

considerando che 8 tesla dovrebbero costare intorno ai €25k mi vien da pensare che con 5 computer da renderfarm (10 rendernodi) e maxwell ho gli stessi tempi. poi il paragno con maxwell perchè iRay è un unbiased..... se in questi nodi ci faciamo girare invece mentalray o vray..... sappiamo bene in che tempi otteniamo immagini di altissima qualità.

certo alla fine si risparmia in licenze (non servono 10 licenze di windows nw dei software nodi... vray non ne ha bisoglio ma maxwell ad esempio si pagano i singoli nodi aggiuntivi alla licenza) e ovviamente anche i consumi... che nonnostante il FERMI sia particolarmente Alcoolizzato di risorse... comunque 8 tesla consumano molto meno di 10 computer.

Probabilmente in futuro i rendering saranno Interattivi, tipo bunkspeed.... ma credo che sia ancora troppo presto.

l'unica soluzione (secondo me) è forzare la proposta commerciale NVidia e spingere all'utilizzo di sistemi basati su Geeforce.

un box aggiuntivo (tipo Cubix), magari con connessione Thunderbolt potrebbe essere una valida alternativa.

inoltre... a fine anno o inizi del 2013 dovremmo vedere processori CPU decacor a 4 vie (4 CPU che svilupperebbero 80core logici... non male)

mi sa che dobbiamo rompere le scatole a Dimitar per testare queste geffo hehehehehe

approposito... ho provato una sua macchina con doppio Opteron..... una soluzione veramente niente male. :D

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Crea un account o accedi per commentare

Devi essere un utente per poter lasciare un commento

Crea un account

Registrati per un nuovo account nella nostra comunità. è facile!

Registra un nuovo account

Accedi

Hai già un account? Accedi qui.

Accedi ora

  • Navigazione recente   0 utenti

    Non ci sono utenti registrati da visualizzare in questa pagina.

×