Vai al contenuto
Cape

Nvidia Kepler - thread ufficiale

Recommended Posts

Inviata (modificato)

Letto ora articolo sulle nuove gtx 680

http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review

http://www.hwupgrade...pler_index.html

Tra i vari commenti, qualcuno ha tirato fuori un grafico che le gtx 680 vanno 1/10 rispetto alle 7970 per gpu computing ma mi pareva fosse in ambiente openCL

Qualcuno ha per caso qualche recensione o test sul nostro amato iray ?

EDIT: ti ho aggiunto la rece di anandtech; sempre meglio guardare li per le schede video, oltre ai mitici guruof3d e beyond3d ;)


Modificato da papafoxtrot

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

http://www.xbitlabs.com/articles/graphics/display/nvidia-geforce-gtx-680.html

http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-680-2GB-Graphics-Card-Review-Kepler-Motion

Si direbbe proprio che AMD ed NVIDIA abbaiano fatto scambio, su tutti i fronti...

Caratteristica peculiare delle vga AMD, fino a evergreen, ma anche cayman in qualche modo, era l'elevata efficienza, le performance per watt e la densità di prestazioni, che erano elevatissime.

A questo NVIDIA si sofrzava di opporre chip più adatti al gpu-computing, e dunque all'esecuzione di calcoli generici, e che perciò richiedevano un'elevata complessità della logica di controllo.

Tra l'altro è da notare come a partire dalle HD4870 amd abbia puntato sullo shader core, infilando un numero elevatissimo di ALU, che occupando pochissimo spazio potevano incrementare la potenza teorica di picco della gpu, senza occupare spazio (e dunque far crescere il costo della gpu).

Questa generazione è andata al contrario, e dopo vi dico secondo me perché...

1) Prima di tutto nvidia ha finalmente abbandonato il suo approccio con shader clock doppio di quello dell'uncore. Ciò èp importantissimo, perché è possibile dimostrare che la potenza elettrica dissipata da un chip è proporzionale al cubo della sua frequenza (è lineare con la frequenza, ma ad un'aumento di frequenza si deve accompagnare un proporzionale aumento di tensione, per mantenere la stabilità, e a questo segue un aumento di consumo che in genere è in ragione del quadrato dell'aumento della tensione stessa). Se consideriamo che ovviamente l'ìaumento di consumo è poco più che lineare con l'aumento delle unità funzionali (dobbiamo tener conto di un surplus dovuto alla potenza dissipata per trasmettere il clock a più ALU), viene fuori che conviene di gran lunga fare 1536 ALU a 1GHz, piuttosto che farne 768 a 2GHz, sebbene la potenza di picco sia esattamente la stessa. Le 1536 alu occuperanno un po' di spazio in più (ma come ho detto prima lo shader core è compattissimo, a differenza della logica di controllo, in compenso si risparmia molto in consumi.

2) Da quanto detto prima discende una semplificazione della logica di controllo, che molto probabilmente, vista la complessit delle attuali gpu, quasi bilancia l'aumento di alu.

3) Se la frequenza è più bassa, è possibile compattare lo shader core, senza rischiare la nascita di hot spot difficili da dissipare, e dunque tali da rischiare la stabilità del chip. E si risparmia ancora in area...

4) Il memory controller... AMD ha sempre usato 256 bit e ram molto veloci; il motivo è che facendo parte del team che ha sviluppato per prime le gddr5, amd aveva il know how per realizzare memory controller capaci di operare a frequenze elevatissime... NVIDIA per contro ha sempre seguito la strada di infilare più memory controller ma più lenti. Con questa generazione è riuscita a clmare il gap in frequenza, e facendo un chip di fascia performance, il bus a 256 bit è stato reputato sufficiente.

Per contro AMD ha valutato la necessità di una banda verso la memoria più ampia, puntando a GPU di fascia alta, e contro ogni sua passata abitudine, è andata sui 384 bit...

5) Anche sulla logica dello scheduling si sono scambiate... Di qui tutte le considerazioni sulle prestazioni in gpu-computing. AMD ha sempre usato uno scheduling software; energeticamente più efficiente, ed estremamente più compatto dal puto di vista del silicio. Per contro uno scheduling hardware, come quello impiegato da nvidia su fermi, era decisamente più adatto a gestire elaborazioni GP-GPU... Risultato AMD è passata ad uno scheduling hardware, che ha permesso di incrementare le presazioni in gp-gpu, mentre NVIDIA è tornata allo scheduling software, che non penalizza molto per quanto riguarda i calcoli grafici, mentre paga nel gp-gpu....

Infine si deve considerare l'incremento di ALU operato da nvidia, molto maggiore rispetto all'aumento dell'uncore... Anche questo è stata una politica tipica di AMD fino alle HD5870... crescere lo shader core, che consuma e occupa poco, e puntare sulla quantità invece della qualità... AMD invece è passata dalle VLIW, semplici da pilotare, ma complesse da programmare, estremamente compatte, all'architettura scalare... complessa da pilotare, che richiede più logica, e senza incrementare tanto il numero di unità funzionali... Da HD3870 a 4870 il numero di alu era cresciuto di 2,5 volte... Da 4870 a 5870 era raddoppiato.. 6970 aveva lo stesso pp e perciò non fa testo... da qeusta alla 7970 l'aumento è stato solamente del 33%.


Modificato da papafoxtrot

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Come dicevo, dalle considerazioni di qui sorpa derivano le prestazioni in gpu-computing... Lo scheduling software non permette le stesse prestazioni quando le istruzioni da eseguire non hanno una struttura fissa e dunque nota a priori. Per questo le nuove schede, sebbene abbiano potenzialmente il 50% di alu in più rispetto a fermi (un raddoppio lo si deve togliere dal calcolo perché sono contestualmente dimezzate le frequenze) vanno poco di più e a volte addirittura meno.

Per quanto riguarda le prestazioni in FP64, in quel caso pesa il fatto di non aver ottimizzato questa scheda per il gpu-computing; solo una parte delle alu disponibili può eseguire queste istruzioni, un po' com'era per le gtx560.... Ma a noi di questo non interessa molto.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Previsioni per il kepler di fascia alta:

Secondo me nvidia si sta muovendo un po' come intel, il che è anche un po' la strada più razionale: architetture diverse, anche se basate sullo stesso concetto, per i prodotti consumer, e per i rodotti destinati, in questo caso, al gpu-computing.

Era la cosa migliore risparmiare sulle prestaioni in gpu-computing e sull'fp64, per una scheda da dedicare al grande pubblico, in quanto l'aver spinto così tanto su questi obiettivi con le passate generazioni aveva reso le schede nvidia poco vantaggiose dal punto di vista delle perfornance per watt, e di conseguenza delle performance assolute, in quanto le due cose non potrebbero essere più legate... sono i watt a limitare la potenza che si può dare ad un chip, al giorno d'oggi.

Tra l'altro la cosa rendeva le schede di fascia alta nvidia anche costose da produrre.

Un chip snello, come quello di kepler oggi, permette di tirar fuori il meglio per la fascvia consumer.

Non mi stupirei dunque se quadro e tesla, e probabilmente, come per i core i7 3000, una geforce di fascia alta, che secondo me arriverà con la generazione gtx700, avessero un chip diverso, con fp64 a 1/2 delle fp32, come per fermi, e scheduling hardware; il numero di alu potrebbe anche essere di poco superiore, ma le prestazioni in gpu-computing sarebbero, allora si, mostruose.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Ho visto adesso il tread, io stavo ancora scrivendo nell'altro.

L'analisi tecnica non fa una piega, ma c'è un problema, Nvidia realizza anche schede per il GpGpu, ( mentre Ati no) che sono derivate totalmente dalle GTX, tranne per pochi aspetti, tra cui il prezzo. Questo cambio di architettura andrà a penalizzare anche le Tesla, e anche tutte le possibilità di calcolo che avevano le gtx, e questo per che cosa? Per un mercato gamer su pc che sta andando a picco, come si diceva, per i tablet, le consolle, iPad ecc? Mi pare una decisione assurda. Facendo due calcoli, con le precedenti Fermi, se poniamo che questa 680, sia invece una "660" visto che stiamo parlando di gk104, e diamo un occhiata ai bench di LuxRender, possiamo supporre che queste nuove Kepler avranno prestazioni massimo di un 14% superiori sulle Fermi. Mi pare poco per una nuova architettura.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Quinid queste sono anche meno costose da produrre? Perchè il prezzo al pubblico mi pare che sia salito (visto che la vendono a prezzo di fascia alta). Quinid la fascia alta costerà 700€ di listino? Oppure poi si abbasserà tutto. Almeno AMD dovrebbe abbassare il prezzo di 7970, sennè quelli della NVidia possono fare come gli pare.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

Non mi stupirei dunque se quadro e tesla, e probabilmente, come per i core i7 3000, una geforce di fascia alta, che secondo me arriverà con la generazione gtx700, avessero un chip diverso, con fp64 a 1/2 delle fp32, come per fermi, e scheduling hardware; il numero di alu potrebbe anche essere di poco superiore, ma le prestazioni in gpu-computing sarebbero, allora si, mostruose.

Dici che possono fare una cosa del genere? Cioè avere due processori con architettura diversa? Allora avrebbero dovuto tenere il nome 660, a meno che tengano le due numerazioni sempre a distanza di una cifra.

Non credi che Nvidia abbia castrato volontariamente le gtx? Anche se resta il dubbio delle future Tesla, se è l'architettura ad avere dei limite sarà così anche per le pro, se non avverrà la diversificazione.

Comunque queste cose v comunicate agli utenti, anche per una questione di marketing, non se ne possono uscire con questa cosa, senza spiegare perchè, non puoi dire a tutti, comprate le Tesla se volete fare calcoli, significa non conoscere assolutamente il mercato.


Modificato da enri2

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Ho visto adesso il tread, io stavo ancora scrivendo nell'altro.

L'analisi tecnica non fa una piega, ma c'è un problema, Nvidia realizza anche schede per il GpGpu, ( mentre Ati no) che sono derivate totalmente dalle GTX, tranne per pochi aspetti, tra cui il prezzo. Questo cambio di architettura andrà a penalizzare anche le Tesla, e anche tutte le possibilità di calcolo che avevano le gtx, e questo per che cosa? Per un mercato gamer su pc che sta andando a picco, come si diceva, per i tablet, le consolle, iPad ecc? Mi pare una decisione assurda. Facendo due calcoli, con le precedenti Fermi, se poniamo che questa 680, sia invece una "660" visto che stiamo parlando di gk104, e diamo un occhiata ai bench di LuxRender, possiamo supporre che queste nuove Kepler avranno prestazioni massimo di un 14% superiori sulle Fermi. Mi pare poco per una nuova architettura.

Come ti dicevo questo non è il kepler di fascia più alta, la cosa peraltro è nota, e come dici tu questa potrebbe essere stata una 660..

Per cui vedrai che quando arriverà il gk110, questo avrà tutte le features necessarie a competere nella fascia più alta anche nel settore gp-gpu. Io credo che le tesla saranno fatte solo con quest'ultimo chip (non avrebbe senso usare l'attuale gk114 perché in fp64 è limitatissimo); le quadro come oggi, la fascia più alta sarà basata su gk110. Per quanto riguarda le geforce, secondo me la generazione gtx600 è fatta così, e come è stato per gtx400 -> 500, alla fine di quest'anno si farà una nuova generazione di schede, gtx700, in qui la fascia più alta sarà fatta col chip completo, mentre questo presentato oggi srà utilizzato per una gtx760.

Quinid queste sono anche meno costose da produrre? Perchè il prezzo al pubblico mi pare che sia salito (visto che la vendono a prezzo di fascia alta). Quinid la fascia alta costerà 700€ di listino? Oppure poi si abbasserà tutto. Almeno AMD dovrebbe abbassare il prezzo di 7970, sennè quelli della NVidia possono fare come gli pare.

Assolutamente meno costose, di gran lunga.

Il costo del chip lo fa l'area di silicio impiegata... Qui siamo sotto i 300mm^2, come in passato faceva amd. NVIDIA faceva chip da 500mm^2 e passa, e per questo non poteva scendere più di tanto coi prezzi.

Ci sono almeno due motivi: uno è che in un wafer ci stanno meno chip, se questi sono grandi, e la produzione si paga a wafer... L'altro è che se in un wafer ci sono un certo numero di difetti, se i chip sono piccoli, saranno di meno, in proporzione, quelli da scartare.

Per quanto riguarda il costo della scheda, molto lo fa il costo del pcb, che dipende da quante piste ci devi tracciare. AMD ha sempre usato un economico bus a 256 bit, ed è passata ora a 384 bit. NVIDIA ha fatto il contrario.

Il fatto che i prezzi siano alti non vuole dire nulla... Il costo di produzione raramente influenza il prezzo, se uno non è proprio preso per il collo. Anche produrre un core i7 2600k costa pochissimo, molto meno che produrre un bulldozer (che è grande il doppio), eppure il core i7 va di più, e di conseguenza è prezzato più alto.

Nel tempo i listini scenderanno, è sempre stata così... Quando NVIDIA presentò le gf260 e gf280, una settimana dopo amd uscì con le hd4870, che avevano prestazioni medie tra le due, ma costavano 300 dollari contro i 450 delle gf260.... Risultato... NVIDIA nel giro di 20 giorni dal lancio ha pelato il prezzo di 150 dollari....

AMD aveva piazzato alte le hd7970 perché non c'era concorrenza; ora si ristabilirà la normale situazione... AMD si posiziona con al single gpu sulla fascia immediatamente dietro alla top nvidia... E i prezzi vengono di conseguenza.

Dici che possono fare una cosa del genere? Cioè avere due processori con architettura diversa? Allora avrebbero dovuto tenere il nome 660, a meno che tengano le due numerazioni sempre a distanza di una cifra.

Non credi che Nvidia abbia castrato volontariamente le gtx? Anche se resta il dubbio delle future Tesla, se è l'architettura ad avere dei limite sarà così anche per le pro, se non avverrà la diversificazione.

Comunque queste cose v comunicate agli utenti, anche per una questione di marketing, non se ne possono uscire con questa cosa, senza spiegare perchè, non puoi dire a tutti, comprate le Tesla se volete fare calcoli, significa non conoscere assolutamente il mercato.

Beh non ci vedo nessun problema... In realtà il discorso non è fare chip diversi per la fascia performance e per la fascia più alta ed il percato pro... Questo in parte esisteva già con le gf400 e 500.

Secondo me stavolta NVIDIA salta una generazione per le schede pro, fa queste gf600 che comunque nel settore consumer, dove c'è più concorrenza, sono davvero ottime, e a fine anno si rifà la gamma...

gtx780 avrà il kepler completo... gtx770 se esisterà anche... gtx760 avrà il chip che è uscito oggi, eventualmente rivisto il gk114, come quando si è passati da gf104 a gf114 (aka da gtx460 a gtx560 ti).

Spero di aver spiegato la mia idea... Non c'è alla fine nessuno sconvolgimento nelle fascie di mercato... Poi può darsi che le quadro le rifacciano, tanto, soprattutto per la fascia media e bassa, la loro destinazione d'uso è ancora la grafica, non il calcolo... Le attuali quadro 200 e inferiori (come le gtx560 e inferiori) hanno le stesse limitazioni di queste gtx680, in gp-gpu, anche se forse oggi pesano di più...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

La cosa più importante di questo lancio, invece è la posizione di AMD.

AMD si è sempre posizionata un gradino indietro ad nvidia, giocando sui costi di produzione bassi, sulla produttività elevata, e dunque sulle elevate disponibilità in produzione, nonché sui bassi consumi... In tutto ciò veniva trascurato il settore gp-gpu, che all'epoca era reputato secondario.

Oggi avviene il contrario... AMD ha fatto il chippone, (che comunque è sui 370mm^2, contro gli oltre 500 di fermi), costoso, potente in gp-gpu (dove ha però poco mercato), e che scalda un po', senza gli eccessi delle vecchie nvidia... NVIDIA invece ha fatto il chip smart che ha sempre contraddistinto la logica di amd... Ma se amd in passato si accontentava di stare un gradino dietro con un chip elegante... oggi nvidia ha fatto il chip efficiente ed economico, che però è anche il più potente...!!

In ogni caso la mia idea è che AMD farà un nuovo chip per la fascia alta, e in effetti l'idea è già stata ventilata... Il margine c'è ancora, sia per i consumi, sia soprattutto per le frequenze; abbiamo visto come in realtà la hd7970 abbia clock conservativi, ed esistano schede ad oltre 1100MHz (contro i 925 di base). Se AMD arriverà a questo punto avranno davvero fatto scambio :D

Secondo me la logica di nvidia è vincente.. un chip adatto alla fascia gaming, come lo intendeva amd, ed un chip adatto al settore pro, come lo hga sempre fatto, con fermi ad esempio.

Sempre che sia vero che il kepler full arrivi con tutte le caratteristiche che rendevano fermi, e oggi rendono le hd7970, dei chip adatti al settore professionale... Magari mi sbaglio io e nvidia ha semplicemente fatto marcia indietro... Mi sembrerebbe strano però ;)

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Anche perchè avrei dei grossi dubbi che il mercato dei giochi su pc sia superiore a quello del render gpu, magari oggi lo è di poco, ma il trend è che consolle e tablet prendano il sopravvento sui pc nei giochi.

Certo però è che avere una 780 che va almeno tre volte di questa 680 nei calcoli ( come la 7970, minimo, se no lascino perdere) è ben strano, mi pare tanto, il gap è troppo elevato, ma spero sia così, d'altronde l'altra ipotesi è che abbiano bloccato il GpGpu sulle GTX, e questa operazione la faranno solo sulle Tesla.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

ma all'atto pratico, quando "apro 3ds e schiaccio il bottone render" che succede con la 580, 680 e con la 7970 ati?

( iray ovviamente )

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Non hanno bloccato un bel niente, credimi... Se guardi alle gtx285, che avevano lo stesso tipo di scheduling di queste, avevano prestazioni altrettanto basse...

Comunque qui parliamo di schede di fascia alta, che difficilmente sentono la concorrenza di tablet ed affini... Al più le consolle, ma contrariamente a quanto si potrebbe pensare, chi compra una scheda da 500 dollari difficilmente è attratto da una consolle, e in generale gli utenti pc e consolle sono diversi... La gente preferisce ancora il computer per molti versi.

Comunque il mercato delle schede professionali, se non sbaglio, contribuisce ai profitti di nvidia per circa il 30%... Il mercato è risicato, ma i margini sono buoni...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

ma all'atto pratico, quando "apro 3ds e schiaccio il bottone render" che succede con la 580, 680 e con la 7970 ati?

( iray ovviamente )

La Ati non fa partire niente, non supporta cuda ( almeno non ancora, purtroppo) , la 580 viaggia bene, e la 680 va un 48% meno...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

La Ati non fa partire niente, non supporta cuda ( almeno non ancora, purtroppo) , la 580 viaggia bene, e la 680 va un 48% meno...

500$ per un 48% in meno :D.

ottimo... aspetteremo sviluppi

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Ovviamente non parlavo di iRay, ancora non sono noti bench, ma di LuxRender, e solitamente le prestazioni sono state paragonabili fino ad oggi, dubito ci sia un ottimizzazione spinta su Cuda con queste schede.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Ovviamente non parlavo di iRay, ancora non sono noti bench, ma di LuxRender, e solitamente le prestazioni sono state paragonabili fino ad oggi, dubito ci sia un ottimizzazione spinta su Cuda con queste schede.

ah ok, grafico che ho visto in giro pure io allora

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Sembra, che ce qualche problema con i driver e il supporto giusto di CUDA /o OpenCL. Dopo abbastanza prove ho visto, che la scheda video non va ad oltre 25-30% del consumo reale, che dovrebbe avere in "full load"

La mia spiegazione e, che ancora non e eliminato il limite di 512 kernels. E probabilmente nella prossima versione di CUDA (che contiene anche OpenCL) sarebbe fatto.

Più meno come il comportamento di vari benchmark un po vecchiotti tipo CineBench o FryBench.. Ho sistemi con 48 o 64 core.. pero non sfruttano oltre 32. e funzionano molto peggio rispetto 32 da solito tipo.. qualche cosa.. che e davvero strana.. pero la situazione e questa..

Perché quando sono stati compilati ancora non esisteva questo grande numero di core.

Quindi a me proprio mi pare, che da 1536 si sfruttano solo 512 kernels. Che funzionano anche peggio per il fatto, che il software di calcolo entra in panico (come e capitato con esempi sopra)

Quindi secondo me il performance rispetto GF110 non sarebbe tre volte di più (come sembra basando ci su numero di cores) ma circa +80% basando ci su arch. e la memoria totalmente castrata. 256 bit di BUS e "tecnologia" da 10 anni fa.. Pero non e possibile, che la GTX680 renderizza come una GTX560 più meno.

Se riesco il weekend vi do maggior informazione... Pero secondo me NV hann lanciato una specie di prodotto "beta" in alto costo.

Altra mia teoria e, che non hann programmato il microcode della GPU con il supporto nuovo di 1536 kernel, ma e lasciato ad 1/3.. Errore di fretta, che volevano lanciare questo prodotto subito e non hanno visto il bug. Speriamo, che il problema e il primo, nel software di gestione, ma no in microcode della GPU.

Comunque il Lux Render e ultima cosa su quale ti può affidare, perché prima che funziona estremamente male come compatibilità, e cosi limitato, che anche i primi alpha di nvirt (il SDK su quale sono fatti octane, arion e iray) funzionava molto meglio. Io mi sono dedicato diversi settimane a farlo funzionare correttamente... Purtroppo non avuto nessun buon fine. A me personalmente mi piacciano un sacco i progetti opensource. Sono di primi che difendano questi progetti.. purtroppo lux e parecchio giovane, come progetto e per diventare qualcosa su quale puoi contattare di avere soluzione professionale passera tanto tempo.. purtroppo..

Al questo proposito V-Ray RT con ha leggermente più alto performance rispetto GF110 pero la situazione e sempre peggiore, pero non cosi tanto come sembra al risultato che presentano tomshardware..

Poco fa ho parlato con chaos.. Secondo loro la situazione terribile con ATi si sistemerà presto.. Purtroppo avevano detto solita cosa anche un anno fa... speriamo bene.. ma io in ATi ho smesso di fidarmi.. In AMD ancora mi fido (a parte che sono solita ditta) - pero se parliamo di processori Opteron.. ora iniziato di perdere fiduccia anche in altre ditte su questo "bello" mercato... Comunque vediamo cosa succede..

Comunque la mia opinione e, che schede video per game gli testano solo per i giochi.. e non guardano neanche performance in calcolo.. Quindi e probabile, che questa situazione rimanerà per tutte le schede video GeForce.. Perché non sono stati fatti per calcolo.. E tanta gente come noi compra scheda game e la usa per fini professionali / commerciali.. Non dico che questo e male, pero il problema e, che non puoi chiedere responsabilità del produttore, perché il loro prodotto fatto per game funziona male su campo professionale.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Tenendo conto della cronologia degli eventi secondo me hanno ragionato in questo modo: hanno avuto e tutt'ora hanno problemi di produzione a 28nm, infatti prima che uscisse questa scheda avevano specificato che sarebbe stata una versione di fascia media, mentre a fine anno sarebbe uscita quella di alta gamma.

Tutto rimane invariato finchè AMD non presenta le nuove Radeon, per tutti ultra potenti nei videogiochi ma non per NVIDIA che nel frattempo aveva già in lavorazione la nuova GK104 (infatti già prima della presentazione millantavano le sue potenzialità, anche se comunque questo lo fanno sempre ... ). Vedendo che in effetti già quella bastava (o forse l'hanno ottimizzata per farla bastare) hanno deciso, dato che di una scheda gaming si parla, che per il momento bastava e avanzava, quindi di trasformarla in 680 ottimizzandola il più possibile e approfittandone per lavorare bene sul GK100.

Se guardare i commenti dei videogiocatori sono tutti entusiasti della sua potenza ed efficenza, quindi in sostanza il suo obiettivo NVIDIA lo ha colpito per il momento. Il GPGPU probabilmente è stato messo da parte in favore di questo, almeno spero momentaneamente.

Guardando la news postata da enri2 spero sarà così, ma sicuramente qualcosa in più lo avrà questo GK100 dato che fin dal principio è stato posticipato. A me questa scheda da proprio l'impressione di essere una di fascia media passata in "alta" poco prima della sua uscita, poi potrò sbagliarmi ma sinceramente non riesco ancora a capire come possa annientare completamente il GPGPU sulle schede gaming, mi sembra una follia.

Adesso che NVIDIA ha la possibilità di andare anche da GlobalFoundries spero che magari la situazione sulla produzione a bassi nm si livelli fra lei e AMD.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

Grazie BeaZtie, facci sapere i prossimi risvolti.

Comuque anche io spero proprio sia una questione momentanea relativa ai driver, anche perchè se rimane così ucciderebbero praticamente il mercato gpu render per un bel pò, pochi si possono permettere una configurazione valida e produttiva di Tesla.

Poi secondo me c'è un aspetto di cui Nvidia non si rende conto, e non potrebbe farlo basandosi solo sulle vendite: il rapporto tra le GTX acquistate per il gpu render, e quelle per i giochi.

Ho idea che negli ultimi mesi sia sbilanciato verso i render, quindi il suddetto 30% di profitti sul mercato Pro va a farsi benedire, tutti quelli che conosco che fanno render hanno preso una 580 da tre giga anche solo per avere una preview degna di nota, tutti, anche qui sul forum ce ne sono tanti, poi chi ne ha prese due, tre, quattro. Se le castrano veramente in favore delle Tesla ( risicatissime nelle vendite, a parte Deltatracing, non ho notizie di altri, qualcosa sul web, e qui, ma pochissimi) non ha capito questo aspetto, potrebbe essere un suicidio. Comunque le ipotesi di Papa e di BeaZtie, sono plausibili entrambe, e spero sia così.

Una cosa è sicura, queste cose si comunicano! Ma che razza di marketing è questo? Bisogna sbattersi qui sui forum, interrogare i più esperti, per fare ipotesi. La corposa percentuale di utenti Nvidia che usano engine gpu ( basta dare un'occhiata ai forum di quelli più conosciuti, usano praticamente tutti delle gtx a proposito) si sono ritrovati con una fantomatica 680 che è un disastro, e va la metà della precedente, se ci sono motivi specifici e giustificati, ditelo cacchio, i commenti vanno dal perplesso, allo sconcertato....


Modificato da enri2

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Enri.. Come dicevo.. "purtroppo non puoi tenere responsabile il produttore, per questa situazione"

Puoi no un altro dubbio.. che mi viene alla mente.. nvidia probabilmente vogliono eliminare tonnellate di GeForce che tornano al produttore "bruciati" perché sono stati usati 24/7 per rendering. Ho anche io bruta esperienza con schede GF da classe 470, 480, 570 e 580.. che tutti smettano a funzionare dopo un mesetto messi su pieno carico "in batteria" (quindi 3 o 4)

Proprio le GPU di GeForce non e studiato per un funzionamento in full load 24/7 e brucia dopo un po di tempo. Ovviamente va benissimo per farti un preview. Per lavorare 8-10 ora al giorno... Ma se metti ad esempio 3 o 4 gpu e gli lasci in rendering nontop.. Dopo un po di tempo (anche se hai fatto ottimo raffreddamento) le schede video vanno fuori uso.. con mal funzionamenti, inchiodi e anche direttamente "morti".

So, che ai diversi produttori GeForce sono tornati indietro una marea di schede e i produttori hann chiesto soluzione da parte di nvidia.. pero.. spero, che la soluzione non e questa. Magari sarebbe meglio, che in condizioni di garanzia si dice, che la scheda si usa per gioco e può funzionare un tot di ore al giorno. Alcuni produttori hanno già questa politica..

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Si si lo capisco questo, ma in realtà sbaglia chi pensa di mettere in full load le GTX per 24 ore al giorno, è da pazzi, ma che razza di render fanno? Poi quattro addirittura, è chiaro che non sono adatte, specialmente se sbagli case o raffreddamento, e non è difficile. Per questo uso, si che le Tesla sono la scelta giusta, animazioni gpu, render a manetta alla massima risoluzione possibile, insomma uno studio che lavora, e che le Tesla se le può ripagare. Ma entro le 8-10 ore con due tre o quattro GTX, cavolo i render che si realizzano! Ho visto video di quad gtx che sparano il render in men che non si dica, poi con 2000 e passa core! Questo è lo scopo, coprire un certo tipo di lavoro, per il resto ci sono le Tesla, giusto che sia così, non era mia intenzione, con le critiche ai prezzi, tagliarle dal mercato. :)

Comunque è vero, dovrebbero mettere un tetto alla garanza, con la possibilità di verificare se la scheda è stata in full per tre giorni, in quel caso non la restituiscono. Anche una macchina normale fonde, con la prima a manetta per cento chilometri. :D

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Uno dei pochi test su CUDA è su Sandra, in processing Cuda a singola precisione la 680 sia più veloce di una 590.

http://www.brightsideofnews.com/news/2012/3/22/nvidia-gtx-680-reviewed-a-new-hope.aspx?pageid=4

Pare che Octane Render non parta nemmeno con una 680, sono i driver probabilmente e forse serve una versione del sw più aggiornata, dopotutto l'architettura della scheda è cambiata profondamente.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Io testo.. ho licenze sia da octane, che da max con iray. magari scarico la demo di arion.

Magari trovo qualche ora libera e vi faccio vedere il performance su queste.

Sto aspettando il relase di driver nuovi.. che vengono magari lunedì o martedì. dove la situazione dovrebbe migliorare.

Mi ricordo con i primi driver per fermi.. la GTX570 faceva peggior risultato rispetto la GTX260 ;-)

anzi.. nei primi driver usciti octane (ma anche nvirt) non funzionava neanche.. dopo 10-15 giorni Lo hann sistemato.. più meno insieme con la uscita di iray x max (su un servicepack di max)

Quanto riguarda la discussione per gente, che tiene diverse schede sotto stress.. e pieno..

Per ottenere un buon risultato ad esempio con IRAY il minimo indispensabile sono 4 schede in solita macchina per 3-4 ore. Puoi e abbastanza strano perché calcolando i prezzi di 4 gtx580 parliamo di spesa intorno a 2000 euro - con stessi 2000 anno scorso potevi mettere dual xeon 5650 che hanno consumo 3 volte meno e per soliti 3-4 ore potevi avere risultato superiore con v-ray advanced.

quindi.. pensa.. se hai da fare catalogo di 10 scene con 2 grandi img + 3 closeup.. quanto tempo devi tenere soliti 4x GTX580 per finire questi 50 img? parliamo di una settimana sotto stress a 100% delle GPU.. La mia pratica dice.. che una settimana sotto stress 24/7 e fattibile con GTX.. pero non e garantita..

ci sono diverse ditte (tipo Cubix) che vendono il loro prodotto (ovviamente vuoto) e dicono che funziona "alla grande" anche con GTX.. gente compra dispositivo vuoto... metter 4 GTX.. lancia il render dopo qualche mese di stress perde schede video.. le schede video ovviamente vanno al produttore per RMA... e cosi parliamo di mille mille pezzi.. i produttori ci sono incazzati e hann chiesto nvidia di qualche soluzione..

Allora.. questa e una teoria da parte mia... Che e basta su teoria, che mi e arrivata alla mente sta mattina.. So, che ci sono una marea di GTX in RMA.. Quindi non mi sorprendo che nvidia blocca la piena performance di calcolo gpu su questo modello. Solo perché deve rispettare i produttori di schede grafiche..

Non so se e vero.. Pero e MOLTO logico.

Come dicevo.. anche e probabile, che il problema viene direttamente di driver "bugati".. Comunque se il test di CUDA su sisoft sandra (un software di analisi, che non mi sono mai fidato.. hann troppi "sponsor") si vedrà presto.. anche oggi o domani :P

Fin ora non ho fatto prove con software basati su nvirt (quindi questi, che sono col supporto CUDA).. So, che vlady sta compilando openCL sorgente anche sotto CUDA.. e magari qualche prossima relase di v-ray RT potrebbe usare sia OpenCL, che CUDA.. ma questo e solo una idea di Koylazov.. Vedremo..

Vi tengo aggiornati.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Crea un account o accedi per commentare

Devi essere un utente per poter lasciare un commento

Crea un account

Registrati per un nuovo account nella nostra comunità. è facile!

Registra un nuovo account

Accedi

Hai già un account? Accedi qui.

Accedi ora

  • Navigazione recente   0 utenti

    Non ci sono utenti registrati da visualizzare in questa pagina.

×