Vai al contenuto
seb87

Ati 4890 Vs Nvidia Gtx275

Recommended Posts

Nei giochi si equivalgono più o meno , la gtx va qualcosina in più...ma nel 3d ?

chi è la migliore in utilizzo 3d opengl ecc ?

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

In openGL in genere le ATI, ma succede anche che diano più "problemini". Ed in generale è meglio dotarsi di una scheda professionale.

In directx credo sia migliore la gtx.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

È che alla ATI stanno ai driver come Babbo Natale a Capodanno... Gli ultimi usciti hanno dovuto fixarli che davano casino su Vista (cavolo, come si fa a buggare un driver per un sistema uscito da oltre 2 anni? :o ), la loro tecnologia ATI Stream non riescono a farla andare perché i Catalyst fanno a botte (cioè, si scrivono un driver e poi non riescono a renderlo compatibile con un altro loro driver!), i driver che scrivono per Linux mandano in crash il sistema (ma lasciar perdere?) ed in generale i programmi professionali tendenzialmente hanno più problemi con essi. Come schede da gioco per sistemi economici sono imbattibili (io per il mulo ho una ATI), come potenza bruta e bontà dei driver anche in applicazioni non ufficialmente supportate meglio nVidia (non per niente il mercato pro è dominato da nVidia, alla fine ATI è relegata a sistemi che usano Maya e Cinema, appunto OGL, nei bench con tutti gli altri programmi stanno dietro).

È vero sono un po' meno frenate, ma credo che la potenza bruta dei chip GTX sia superiore agli stream ATI...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Ora vien su il solito putiferio:

Pro radeon:

in openGL viaggiamo molto

costano poco

con c4d vanno molto

con 3ds vanno bene

difetti radeon

problemini con maya e altri software (anche rhino da qualche problema)

nei giochi inferiori alle gtx di fascia più alta

pregi geforce

driver più affidabili

la fascia più alta è superiore nei giochi (se necessario)

forse superiori in directx

difetti geforce

in openGL non vanno una fava

costano di più

C'è poco altro da die..

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Ora vien su il solito putiferio:

Pro radeon:

in openGL viaggiamo molto

costano poco

con c4d vanno molto

con 3ds vanno bene

difetti radeon

problemini con maya e altri software (anche rhino da qualche problema)

nei giochi inferiori alle gtx di fascia più alta

pregi geforce

driver più affidabili

la fascia più alta è superiore nei giochi (se necessario)

forse superiori in directx

difetti geforce

in openGL non vanno una fava

costano di più

C'è poco altro da die..

Ciao PapaFT, io sapevo che degli ingegneri della SGI (quella che ha creato le OGL) che sono andati a finire in casa nvidia e che il supporto delle OGL era migliore rispetto alle ATI perché questi conoscono a menadito le specifiche OGL e pertanto hanno ottimizzato l'hardware in base alle spinte conoscenze possedute dell'API stessa....

Correggimi se sbaglio...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)
Ora vien su il solito putiferio:

Pro radeon:

in openGL viaggiamo molto

costano poco

con c4d vanno molto

Esperienza personale:

Radeon 4890 + C4D un mezzo disastro, un po scattosa e freeza spesso ruotando il modello in viewport

Radeon 4890 + Vista altro mezzo disastro, scorrendo le immagini con la preview di windows crasha, chiude il programma e rende invisibili le finestre di lavoro dei programmi aperti (quindi non resta che chiuderli.......)

Dopo l´update: il modello freeza ancora, il problema della preview sembra risolto anche se installando i driver originali da errore di installazione ripetuto ad ogni riavio.

La stessa Radeon su Mac Pro non da nessun problema.

Per me é stata una delusione totale, per non dire una fregatura.


Modificato da krone

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Cavolo krone, eppure la 4890 è una delle più indicate per lavorare con Cinema causa grossa ram con bus veloce... Quei difetti con il sistema con quali driver li hai rilevati? Fortuna che oramai esistono i driver per Win 7, con la HD3450 tutto fluido per ora (almeno per quello che faccio normalmente su un mulo).

Su Mac non dà nessun problema perché i driver Mac li scrive la Apple, che quanto a programmazione è una spanna sopra tutti, pinguini compresi... ;)

Il problema delle OGL dei driver GeForce non è relativo al fatto che siano scritti male, ma al fatto che nei driver GeForce non c'è mezza riga dedicata a loro, e le schede finiscono per utilizzare i driver standard presenti nel sistema operativo, che appunto non vanno una fava su programmi professionali. Le ATI a quanto pare riescono ad utilizzare meglio (forse per la differente architettura) questi driver standard... Potrei anche sbagliare ovviamente...

Per provare la differenza basta avere una Quadro e farla lavorare prima in OGL, poi in D3D e poi in Maxtreme su Vista: si passa da un pianeta all'altro...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

ma su schede madri dotate di supporto sli è possibile utilizzare una quadro e una "classica" in sli ?

sarebbe comoda la possibilità di passare da una all'altra quando si gioca e si deve passare alla grafica....

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Ospite
Inviata (modificato)
ma su schede madri dotate di supporto sli è possibile utilizzare una quadro e una "classica" in sli ?

sarebbe comoda la possibilità di passare da una all'altra quando si gioca e si deve passare alla grafica....

si si potrebbe anche chiedere se è possibile passare ad un altra ragazza quando quella attuale ti fa girare

le scatole o anche ad una seconda moglie :D:D SLI for men

scusate la cavolata sarà l'orario...


Modificato da Mak21

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Ciao PapaFT, io sapevo che degli ingegneri della SGI (quella che ha creato le OGL) che sono andati a finire in casa nvidia e che il supporto delle OGL era migliore rispetto alle ATI perché questi conoscono a menadito le specifiche OGL e pertanto hanno ottimizzato l'hardware in base alle spinte conoscenze possedute dell'API stessa....

Correggimi se sbaglio...

Guarda... questa cosa potrebbe anche esser vera, anche se in realtà non è che le fireGL se la cavino male... anzi, possiamo dire che nel complesso il rapporto fra prestazioni delle fireGL e delle quadro è simile a quello fra le prestazioni delle radeon e delle geforce... per cui l'ottimizzazione è in definitiva simile per le due schede e le differenze le fa l'hardware: questo ovvimanete a livello di pestazioni generali!

Dico generali perché poi ci sono grosse variazioni a seconda del software usato con predominanza dell'una o dell'altra scheda.

Ma per quanto riguarda il confronto radeon vs eforce in openGL non c'è storia... semplicemente perché qui non è la bontà del driver che governa, ma quanto è stato castrato... come già detto le prestazioni delle schede gaming in openGL sono modeste perché:

1) mancano tutta una serie di ottimizzazioni

2) Una parte del codice è volutamente destinata a rallentare le esecuzioni OGL, al fine di prediligere le vendite di schede professionali.

Per cui c'è poco da ereditare dagli ex dipendeni di SGI... dipende dal produttore quanto ha deciso di penalizzare le sue gaming rispetto alle sue pro... e nvidia ha deciso di penalizzare di più di ati... di qui il risultato: le ati in ogl camminano meglio, molto meglio! Storicmente è sempre stato così, con l'unica eccezione della serie x1800/x1900 e geforce 7. Inquel caso erano queste ultime a camminare meglio... Se prendi ora un 7900gs/7900gt/7950gt/7900gtx e la confronti con una 8800gts/ 8800gt /8800gts512/8800gtx/9800gtx (che sono le schede di generazione successiva della stessa fascia, costruttivamente assolutamente superiori, come dimostrato dai moltissimi test in directx) sta pur sicuro che le vecchie geforce 7 con le OGL andavano molto ma molto meglio...

@Krone: mi spiace per i tuoi problemi ma è una cosa strana! ora non so la 4890 in particolare, ma le ati son sempre state buone schede con c4d! In molti le usano!

Ma anche con XP gli stessi problemi? (non sono riuscito a capire bene...)

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
si si potrebbe anche chiedere se è possibile passare ad un altra ragazza quando quella attuale ti fa girare

le scatole o anche ad una seconda moglie :D:D SLI for men

scusate la cavolata sarà l'orario...

L'importante è non averne ue uguali come invece proprio lo sli chiede! Sai ad avere due donne uguli che rompono le balle contemporaneamente per gli stessi motivi?

No, non è possibile installare due schede diverse.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Guarda... questa cosa potrebbe anche esser vera, anche se in realtà non è che le fireGL se la cavino male... anzi, possiamo dire che nel complesso il rapporto fra prestazioni delle fireGL e delle quadro è simile a quello fra le prestazioni delle radeon e delle geforce... per cui l'ottimizzazione è in definitiva simile per le due schede e le differenze le fa l'hardware: questo ovvimanete a livello di pestazioni generali!

Dico generali perché poi ci sono grosse variazioni a seconda del software usato con predominanza dell'una o dell'altra scheda.

Ma per quanto riguarda il confronto radeon vs eforce in openGL non c'è storia... semplicemente perché qui non è la bontà del driver che governa, ma quanto è stato castrato... come già detto le prestazioni delle schede gaming in openGL sono modeste perché:

1) mancano tutta una serie di ottimizzazioni

2) Una parte del codice è volutamente destinata a rallentare le esecuzioni OGL, al fine di prediligere le vendite di schede professionali.

Per cui c'è poco da ereditare dagli ex dipendeni di SGI... dipende dal produttore quanto ha deciso di penalizzare le sue gaming rispetto alle sue pro... e nvidia ha deciso di penalizzare di più di ati... di qui il risultato: le ati in ogl camminano meglio, molto meglio! Storicmente è sempre stato così, con l'unica eccezione della serie x1800/x1900 e geforce 7. Inquel caso erano queste ultime a camminare meglio... Se prendi ora un 7900gs/7900gt/7950gt/7900gtx e la confronti con una 8800gts/ 8800gt /8800gts512/8800gtx/9800gtx (che sono le schede di generazione successiva della stessa fascia, costruttivamente assolutamente superiori, come dimostrato dai moltissimi test in directx) sta pur sicuro che le vecchie geforce 7 con le OGL andavano molto ma molto meglio...

mah....francamente non capisco la logica di darsi le mazzate a pa77e.....perdonami ma sarebbe davvero una mossa stupida da parte di NV, e francamente penalizzare le proprie schede (anche perchè la fetta di mercato che si può permettere una quadro è esigua rispetto ad un utenza normale) è un vero suicidio commerciale perchè vendere delle schede strozzate appositamente sarebbe come dire alla ATI:"dai sorpassami che ho il freno a mano tirato!" e visto che tra i 2 brand non scorre buon sangue, anzi, sarebbe moooooolto controproducente una simile mossa....

Poi, mah.....bah....sono scelte di mercato!

Certamente le vecchie GEFO andavano meglio perchè tempo fa avevo letto da qualche parte che la NV dalla 8xxx in poi abbandonava il supporto in hardware dell' OGL per implementarlo via soft in emulazione a favore dello standard DirectX, che tecnicamente si è rivelato meglio dell' OGL 1.2-1.3.

Comunque, non toglie il fatto che NV ha avuto i drivers sempre meglio scritti o per lo meno hanno avuto sempre un'ottimo supporto, anche sotto linux, dove da poco la ATI ha iniziato a notare l'importanza di quel mercato.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

La nVidia ha il doppio del mercato di ATI, e punta al settore gamer dove il 99% dei giochi per pc sono D3D based... A loro conviene tenersi la stragrande maggioranza di quella fetta di mercato professionale che cmq porta in tasca molti milioni...

Cmq le ATI andranno bene in OGL ma non credere che diano l'acqua ad nVidia, anzi proprio per il fatto che i driver sono molto più passibili di piccoli errori e bug, i verdi rimangono davanti ai rossi... ;)

Cmq il supporto OGL è sempre accelerato in hardware, non esageriamo adesso, va bene frenare ma addirittura emularlo mi sembra strano...


Modificato da Simone82

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Che vuoi che ti dica... potrà pur sembrarti strano ma è così... non sono mica io a dirlo..

Sennò come credi che si possa trasformare un cesso di geforce 8400 in una quadro 570 potente almeno quanto una gtx285 in software openGL?

E' anche intuibile il motivo per cui iò avviene... Se il produttore non intervenisse in questo modo la maggior parte dei professionisti si rivolgerebbe ad economiche schede gaming...

In questo modo possono venderti un g94 (quadro 1800) a 500 euro anziché a 80 e possono innalzare il prezzo della gtx280 dedicata ai professionisti da 300 a 2500 euro.

Si sa... il professionista ci lavora e dunque se la ripaga... e alla fine te la compra.

In questo modo certo si ripagano di conseguenza trutto lo sviluppo dei driver che per le schede professionali ci si aspetta siano impeccabili.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)
La nVidia ha il doppio del mercato di ATI, e punta al settore gamer dove il 99% dei giochi per pc sono D3D based... A loro conviene tenersi la stragrande maggioranza di quella fetta di mercato professionale che cmq porta in tasca molti milioni...

Cmq le ATI andranno bene in OGL ma non credere che diano l'acqua ad nVidia, anzi proprio per il fatto che i driver sono molto più passibili di piccoli errori e bug, i verdi rimangono davanti ai rossi... ;)

Si, infatti il supporto dei "verdi" soprattutto per il settore PRO è davvero encomiabile

Cmq il supporto OGL è sempre accelerato in hardware, non esageriamo adesso, va bene frenare ma addirittura emularlo mi sembra strano...

Forse mi sono espresso male Simone, chiedo venia. Intendevo dire che da qualche parte (mi sembra su tom's) ho letto che il layer delle API OGL veniva eseguito in emulazione, in quanto da Vista in poi, non sarebbe stato più supportato. Forse ricordo male io.... :D

Che vuoi che ti dica... potrà pur sembrarti strano ma è così... non sono mica io a dirlo..

Sennò come credi che si possa trasformare un cesso di geforce 8400 in una quadro 570 potente almeno quanto una gtx285 in software openGL?

E' anche intuibile il motivo per cui iò avviene... Se il produttore non intervenisse in questo modo la maggior parte dei professionisti si rivolgerebbe ad economiche schede gaming...

In questo modo possono venderti un g94 (quadro 1800) a 500 euro anziché a 80 e possono innalzare il prezzo della gtx280 dedicata ai professionisti da 300 a 2500 euro.

Si sa... il professionista ci lavora e dunque se la ripaga... e alla fine te la compra.

In questo modo certo si ripagano di conseguenza trutto lo sviluppo dei driver che per le schede professionali ci si aspetta siano impeccabili.

oh, beh.... come non darti piena ragione!

Ma certamente il supporto che gode una scheda PRO non sarà mai il medesimo del settore gaming.

Cito da Tom's Hardware:

"Trasformare una scheda da gioco come la GeForce GTX 280 nell'equivalente modello workstation è qualcosa che Nvidia, naturalmente, vuole prevenire. I tentativi di usare i driver workstation sulle schede da gioco da parte dei consumatori giusto per vedere se funziona sono inevitabili, perché l'hardware è differente solo in minima parte e la tentazione è forte. Poiché Nvidia inserisce un "tocco speciale" nel BIOS video per prevenire la dissimulazione, questi tentativi sono destinati a fallire.

Tecnicamente Nvidia offre driver ampiamente differenti per le schede workstation rispetto ai modelli per il gaming. Dopo la vendita, inoltre, Nvidia offre un supporto prodotto notevolmente migliore per i modelli workstation. I prezzi elevati dei modelli Quadro sono imposti anche da un numero inferiore di prodotti venduti, dagli alti costi di supporto e dal periodo di garanzia maggiore. Di contro, gli utenti possono aspettarsi una rapidità e una qualità superiore dei servizi al cliente post-vendita. In molti casi una sostituzione sarà fatta in circa 24 ore. Gli acquirenti di schede video per i videogiochi, naturalmente, non godono dello stesso servizio (ma nemmeno lo pagano).

Come uno si potrebbe aspettare, la scheda da gioco è ostacolata e ampiamente incapace di esercitare la sua potenziale prestazione con le applicazioni di tipo workstation. I nostri benchmark mostrano questo fenomeno inequivocabilmente. "


Modificato da Sharky

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Si ma ecco, quelli di Tom's che fanno le differenze su software OGL vecchio di 10 anni e poi non inseriscono la GTX280 nelle prove con software D3D recente dovrebbero un attimo chiedersi che cosa stanno facendo... Poi recensionare il 15 maggio senza inserire le schede di ultima uscita come le FX580 e FX1800 almeno è alquanto strano.

Inoltre non mi capacito di come la FX4800 sia dietro la FX5600 pur avendo un hardware nettamente superiore... Poi a loro su XP con i maxtreme hanno un boost prestazionale che io su XP non ho...

Cito:

C'è anche una sorella maggiore di questa soluzione, la Quadro FX 5800, che costa il doppio della FX 4800, e si rivolge a un pubblico più ristretto. E infatti, non è completamente chiaro se l'incremento di prezzo abbia un eguale aumento di prestazioni.

Costa il doppio perché la ram della FX5800 è di 4Gb... Questo quantitativo di ram è adatto a studi televisivi e scientifici che necessitano di complesse visualizzazioni con effetti in real time, che la ram della FX4800 non sarebbe adatta a supportare.

In ogni caso per lavorare a software 3D spingersi oltre la FX3800 è del tutto inutile, perché al prezzo non corrisponde la prestazione, e a dirlo è la stessa nVidia. Già con la FX3800 si passa al settore video, teoricamente nel CAD-CAM la FX1800 basta e avanza nel 90% dei casi...

Per il layer OGL, è vero che Vista non ha più driver dedicati ma semplicemente driver standard, ma la scheda accelera le applicazioni OGL cmq in hardware, se supportate. Tanto è vero questo che siccome Vista non usa proprio le OGL ma pesa solo su D3D, una scheda gaming su 3DS Max rischia di essere più veloce in OGL che in D3D, su Vista (su XP è il contrario, perché pesa molto di meno). Questo indipendentemente dagli effetti grafici del sistema... Questo è quello che è venuto fuori da varie prove della mia Quadro FX560. ;)

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

@ Sharki: sono più d'accordo con simone nel trovare i test di tomshw su schede professionali qualcosa di abbastanza fuori luogo. Per quanto riguarda il ritardo nell'uscita, ciò in genere è dovuto al fatto che la recensione è trafdotta dalla medesima recension in inglese che in genere tomshw.com pubblica mesi e mesi prima.

Comunque sharki: certo c'è di mezzo la differenza nel supporto tecnico, ma concorderai con me che se un professionista potesse prenderebbe una scheda gaming anziché il suo equivalente quadro che costa un rene in più... e di qui appunto la volontà di nvidia ed ati di frenare le loro schede in openGL... per questo non ha senso dire che si tirano la zappa nei piedi o che "si fanno sorpassare col freno a mano tirato".

Fra l'altro se anche prendessi una geforce e fosse rotta o non andasse bene, e mi mancasse il supporto dedicato alle quadro.. farei tempo a comprarne altre dieci uguali prima di ripagarmi la quadro con tutto il suo supporto al seguito...

@Simone: non capisco, dici che vista pesa così tanto sulle directx da compromettere le prestazioni della scheda con tali librerie? pare così strano...

D'altra parte è verissimo che giochi checon xp andavano bene, quand'è uscito vista facevano decine di fps in meno... e microsoft riuscì a vendere come innovazione il fatto he con sp1 di vista i riguadagnasse qualcosa in fps ... ma neanche poi tanto...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Hai ragione, l'articolo originale è del 15 aprile, ma le FX580 erano già sul mercato (presentazione ufficiale in Italia del 9 aprile). Ecco io sono quello di spalle in primo piano con lo zainetto della Nike. :lol:

1_B.jpg

Quindi bastava aspettare una settimana ancora (ovvio l'articolo non è del 15 aprile, quella è la data di pubblicazione) e avrebbero fatto una comparativa su prodotti recenti. Mi auguro che colmino questa lacuna il più presto possibile, tom's ha sempre trattato schede professionali, anche se con macchine da gaming e non da WS.

Sulle librerie: non so quale sia il motivo non essendo un programmatore, ma lavoro su tutti i sistemi operativi di casa Microsoft e su Vista 3DS lavora meglio con le OGL standard che con le D3D (non è una regola generale). Gli unici paragoni veri che ho potuto fare sono con HD3850 e 9600GT, e ti posso assicurare che la mia FX560 con i maxtreme gli dà un oceano su Vista (sto per provare Win 7 RC)... Dovrò ripromettermi di testare scene con milioni di poligoni (io tendo ad ottimizzare ovviamente, non arrivo mai a questi livelli, piuttosto lavoro in proxy). Inoltre attendo una comparativa tra GTX280 e FX3700 su 3DS (ma non so come verrà fatta né da chi)...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Beh in questo caso allora è anche recente... in passato c'erano stati articoli su schede professionali che in inglese erano usciti 6 mesi prima..!

Comunque caspita, se lòa differenza è così marcat e sembra perfino che le ogl vadano meglio mi vien da pensare che non ci sia qualche motivo particolare dietro! In effetti pare strano che la quadro possa camminare così tanto, ma se mi dici che la gaming in directx (dove dovrebbe eccellere) va addirittura meo che in openGL (dove di certo non cammina) mi vien da pensare che probabilmente ci sia qualhe problema con le directx!

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)
Per il layer OGL, è vero che Vista non ha più driver dedicati ma semplicemente driver standard, ma la scheda accelera le applicazioni OGL cmq in hardware, se supportate. Tanto è vero questo che siccome Vista non usa proprio le OGL ma pesa solo su D3D, una scheda gaming su 3DS Max rischia di essere più veloce in OGL che in D3D, su Vista (su XP è il contrario, perché pesa molto di meno). Questo indipendentemente dagli effetti grafici del sistema... Questo è quello che è venuto fuori da varie prove della mia Quadro FX560. ;)

Ok, perfetto! quindi, in sostanza microsoft non sviluppa più per le api OGL (deve occuparsi delle DirectX, che sul piano di numero di features supera ampiamente le specifiche delle OGL1.3-1.4), ma demanda ciò agli sviluppatori dell'hardware.

@ Sharki: sono più d'accordo con simone nel trovare i test di tomshw su schede professionali qualcosa di abbastanza fuori luogo. Per quanto riguarda il ritardo nell'uscita, ciò in genere è dovuto al fatto che la recensione è trafdotta dalla medesima recension in inglese che in genere tomshw.com pubblica mesi e mesi prima.

Comunque sharki: certo c'è di mezzo la differenza nel supporto tecnico, ma concorderai con me che se un professionista potesse prenderebbe una scheda gaming anziché il suo equivalente quadro che costa un rene in più... e di qui appunto la volontà di nvidia ed ati di frenare le loro schede in openGL... per questo non ha senso dire che si tirano la zappa nei piedi o che "si fanno sorpassare col freno a mano tirato".

Fra l'altro se anche prendessi una geforce e fosse rotta o non andasse bene, e mi mancasse il supporto dedicato alle quadro.. farei tempo a comprarne altre dieci uguali prima di ripagarmi la quadro con tutto il suo supporto al seguito...

Beh... Papa, non li ho presi mai per oro colato (e volte un po faziosetti, ma è una delle tante "testate" più o meno istituzionali, generalmente faccio riscontri incrociati).

Si sono perfettamente d'accordo con te e non contesto ciò che dici anzi, ma penalizzare le schede gaming (e visto che c'è una "guerra" prestazionale con ATI non mi sembra il caso)per non sfoltire il settore pro come fanno adesso, non mi convince molto. per esempio, nel settore pro, fanno la differenza i drivers e le impostazioni di supporto al SW che li sfrutta, sicuramente il settore pro avrà delle features che il settore gaminig non interessano così come supporto tecnico e garanzie....insomma, ci sono metodi diversi per creare uno spartiacque e così evitare la tentazione ad un professionista di avere una quadro a basso costo. poi, questi sono miei modestissimi pareri. ne convieni???

Comunque e condivido quanto dici, purtroppo queste sono le regole di mercato....

Beh in questo caso allora è anche recente... in passato c'erano stati articoli su schede professionali che in inglese erano usciti 6 mesi prima..!

Comunque caspita, se lòa differenza è così marcat e sembra perfino che le ogl vadano meglio mi vien da pensare che non ci sia qualche motivo particolare dietro! In effetti pare strano che la quadro possa camminare così tanto, ma se mi dici che la gaming in directx (dove dovrebbe eccellere) va addirittura meo che in openGL (dove di certo non cammina) mi vien da pensare che probabilmente ci sia qualhe problema con le directx!

Avevo letto tempo fa che le DX10 erano meno performanti delle 9.1c....ricordo male???

Ah.....dimenticavo, mi piace una marea seguire le vostre discussioni (Simone e Papa), e mi fa piacere scambiare 4 chiacchiere con voi per il vostro ottimo livello di preparazione e cortesia!


Modificato da Sharky

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Ciao!

Beh oddio... il £freno" verrebbe posto solo sulle openGL, non sulle directx. Di conseguenza nessun videogiocatore (tipicamente acquirente delle schede gaming) e nessuna testata giornalistica (che scrive le recensioni) si accorgerebbe di eventuali differenze, anche nei confronti dell'avversario di mercato.

Voglio dire: se loro frenano le prestazioni in openGL delle geforce e delle radeon, nessuno si preoccupa... i videogiochi usano tutti directx, mentre per i software professionali si continua ad usare le quadro e le fireGL come un tempo, e li ci si scontra ad armi pari sfruttando le schede al pieno delle loro possibilità... Se poi qualcuno confrontasse quadro 5800 con geforce gtx280 semplicemente direbbe "la quadro va di più" e si sposterebbe su questo segmento spendendo soldi a palate... Infine nessuno dei due fa lo scherzone e "molla il freno a mano": il primo dei due che sblocca le gaming si ritrova a vendere metà delle schede professionali di prima (schede ad altissimo valore aggiunto), con un relativamente modesto aumento, forse, delle vendite sul settore gaming (schede da 200 euro al massimo)...

Dopodiché certo ci sono anche altri motiv per passare ad una quadro: non solo il freno alle gaming, ma anche l'ottimizzazione vera e propria dei driver (quello che sulle gaming si fa per ogni singolo gioco nelle pro si fa per ogni applicazione di grafica e ovviamente, forse purtroppo, anche per ogni bench professionale), nonché l certezza della piena compatibilità e del supporto tecnico molto avanzato.

Comunque ecco, ci tenevo a far capire he la politica adottata, anche se di primo acchito può sembrare anticommerciale, alla fine non lo è per nessuno dei due... In un certo senso si danno man forte...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Senza dimenticare che il chip grafico sarà anche lo stesso (perché fornito da nVidia direttamente), ma tutto ciò che circonda il chip grafico è di primissima qualità, e viene acquistato e montato da PNY: memorie ram, circuiteria e quant'altro. Una scheda pro tende a durare molto di più nel tempo come prestazioni (anche per coprire il lasso maggiore che separa le varie uscite, di 12 e anche più mesi).

Anche le schede gaming hanno differenze di prezzo a parità di hardware: molto semplicemente cambia il sistema di dissipazione e le componenti presenti sul plate della scheda, che possono essere di maggiore o minore qualità.

Inoltre non dimentichiamo che se una FX580 va quanto, come o per lo meno quasi, una GTX285 è decisamente preferibile scegliere la Quadro: indipendentemente dal prezzo, avere una scheda che pesa >100W in meno di corrente e di calore posso assicurare che alla fine dell'anno fa una certa differenza, soprattutto se va replicato questo valore per grandi studi con decine di postazioni.

Un'altra cosa che mi piacerebbe sapere e spero di poterla scoprire quanto prima è la seguente: ma le nuove funzioni di previsualizzazione in viewport dell'illuminazione avanzata di 3DS Max 2010 (che non ho) come vengono restituite dalle gaming e come dalle Quadro?

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

... chiamala altissima qualità... se non ci fosse scritto quadro tante volte le scambierei per schede da 30 euro.... roba che le scambio e le metto su a qualche macinino da internet...

No vecio, tutto si può dire, ma non che si sprechino con la qualità ... va a vedere il dissipatore... se vado dal trippone sotto casa e gli domando n ventolina per la vecchia fx5200 che s'è bruciata me la da più seria... e questo succede su schede da 500 euro...

Quant alle ram... c'èpoco da parlare di qualità... sono chip molto modsti e conservativi... se non durano secoli quelli..

E' indubbio che ci siano tuti i vantaggi sui consumi e sul calore dissipato... peccato che la 580 faccia più rumore della gtx285... causa la ventolina da 4cm...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Eh si caro, ne so qualcosa io delle ventoline delle Quadro. Un ottimo dissipatore da scheda video come l'Accelero costa 15€, è fanless, e raffredda di più di quel coso dotato di ventola. Cosa costa metterlo in bundle... Fare una scatola 2cm più alta? Guarda, glieli pago io quei 70 centesimi in più di cartone... -_-

Detto questo dubito fortemente che i chip di memoria li prendano al discount o la circuiteria la facciano stampare dal fabbro sotto casa: insomma delle Quadro paghi certamente i driver ed il supporto tecnico, ma la qualità costruttiva è un altro fattore che influisce sul prezzo... Altrimenti affiderebbero il settore retail ad un altro produttore...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Non metto in dubbio il fatto che la costruzione sia robusta, ma capisci che anche le schede gaming hanno percentuali di mortalità bassissime... io le ho ancora la matrox millenium g200 8Mb (1997) e le Nvidia TNT2 32Mb (1999 mi pare...). Poi è venuta la fx5200 (funzionante anche quella), anzi due fx5200..

Scusa le divagazioni.

Fattostà che ciò che volevo dire è che in realtà le quadro sono schede molto poco sollecitate... le frequenze sono basse, gli assorbimenti anche e dunque anche la circuiteria di alimentazione soffre poco... Per cui difficile pèensare che, se proprio non sono fatte da schifo, stile portatili, si rompano. Certo ciò non vuol dire che usino materiale scadente, ma che ci vuol poco a farle che durino ecco... Non lo vedo proprio come un gran pregio sinceramente!

Tutto qui...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Crea un account o accedi per commentare

Devi essere un utente per poter lasciare un commento

Crea un account

Registrati per un nuovo account nella nostra comunità. è facile!

Registra un nuovo account

Accedi

Hai già un account? Accedi qui.

Accedi ora

  • Navigazione recente   0 utenti

    Non ci sono utenti registrati da visualizzare in questa pagina.

×