Vai al contenuto

BeaZtiE

TecnicoHardware
  • Portfolio

    Portfolio
  • Numero messaggi

    2919
  • Registrato

  • Ultima Visita

  • Days Won

    19

BeaZtiE last won the day on October 12 2017

BeaZtiE had the most liked content!

3 che ti seguono

Info su BeaZtiE

  • Rango
    Fire Walk With Me!

Informazioni personali

  • Località
    Arezzo (Toscana)
  • Sesso
    M

Informazioni professionali

  • Sito Web
    http://3dws.net

Ospiti che hanno visualizzato il profilo

16635 lo hanno visualizzato
  1. Treddi.com ti invita a Campus Party 2018

    Purtroppo sto anno non vengo.. ho già un impegno.. ;-/
  2. 30 Days in VR - l'epica impresa di Enea Le Fons

  3. Turboboost

    Il TB funziona cosi.. 1. Frequenza indicata.. (default) 2. Frequenza Massima (SOLO un core) 3. Frequenza 1/2 di Core (al solito 10-15% meno di questa massima) 4. Frequenza in Full Load.. Al solito in questi modelli di Xeon (Quindi v2) e di +200 / + 400 mhz (secono il modello) Infatti non so quale e proprio la CPU perche al solito v2 sono tipo 3.5 default / 4.9 max TB o 2.7 / 3.5 ecc.. intendo non hanno 2,66 o cifre non "tonde" se parliamo di E5 1650v2 (la cpu piu utilizzata) comunque.. non credo, che esisteva una Xeon E5 -V2 che supportava massima frequenza TB 4 Ghz! (il tetto era 3.9 ghz.. magari sbaglio.. perche son passati un po di anni.. tipo 4-5 da quando non vedo le V2 pero sono quassi sicuro, che erano FINO a 3.9)
  4. Alcune considerazioni su V-Ray RT

    Beh.. visto le stat da Jeff.. Pero secondo me se la domanda era fatta "quale e il tuo motore di rendering PRINCIPALE" avremmo una idea un po più chiara.. e possibilità di scegliere solo un prodotto (come motore principale) Sono sicuro, che V-Ray RT non avrebbe questi (quassi) 30% - perché alla fine sommato oltre 200+% (cosi al occhio circa 250%) Puoi tanti hanno come minimo un paio di motori di render... (a parte questi "dentro") Non dico, che li usano... ma sai, se hai opzione di scegliere fino tre.. la gente, pensa che e obbligata a scegliere 3 motori.. hehe.. tipo.. ecco alla fine di 2016 (più meno un anno e qualcosina fa) come era.. http://www.cgarchitect.com/2016/11/2016-architectural-visualization-rendering-engine-survey---results che aumento di circa 10% sia per corona, sia per RT e notevole.. Maxwell, Octane, Mental.. sono più meno sempre li.. a parte, che la pagina Facebook di Otoy ha 1.1 milioni di like (magari hanno acquistato opzione (Y) da Indians Marketing Inc. jajaja)
  5. Alcune considerazioni su V-Ray RT

    Ciao, io paro in generale e dico perché non considero gpu, ma meglio la cpu. seguo lo sviluppo (sia di software, che di hardware.. e come dicevo il hardware non e cosi preformante, sicuro, affidabile, come va presentato) - quindi dico la mia impressione + esperienza da tanti anni. non scrivo come un rivenditore software, produttore (workstation / renderfarm.. ecc), partner chaos group.. o roba dal genere, ma come un utilizzatore (qua non e il forum di rivenditori, supporto ufficiale ecc) quindi ognuno può condividere la sua esperienza, problemi, soluzioni, opinioni, e come vede tutta la situazione futura.. ecc. Il discorso e, che non mi fido al sviluppo (veloce, come aspettiamo) di hardware. (più meno e anche solita situazione con le CPU.. ogni generazione per più meno solito investimento ricevi tipo 20% di più, rispetto prima) comunque non sono ottimista - detto perché (ottimista già ero.. e infatti senza fare pubblicità direi, che unica azienda, che mi fido con occhi chiusi, e senza mettere in dubbio questo, che dicono / fanno vedere ecc. e la Chaos Group. e lo dico sempre dal punto di vista di utilizzatore, ma non di partner...) credo, che abbiamo chiarito? ;-)
  6. Alcune considerazioni su V-Ray RT

    Ciao Lele! (carissimo) io ti do completa ragione ovviamente sai, che io seguo da vicino il sviluppo di V-Ray GPU E infatti mi conosco Vlado da... (una vita) e proprio so, che farà miracoli, bypassando anche diversi limiti, che sembrano non superabili (e non sarebbe ne per prima.. ne per seconda.. ne per ultima volta.. hehe) come dicevo in anzi tutto parliamo di limite hardware, ma non di sviluppo software... conosco anche molto profondamente tutte le problematiche di GPU render.. (che piano piano vanno superati) Pero se sono presenti tutti queste problematiche (ripeto, non discuto nessun software) che ho detto sopra il utilizzo di GPU render e più meno, come andare ad attraversar i Alpi durante pieno inverno con le gomme estive.. Comunque sono molto contento di questo, che sto vendendo nello sviluppo di V-Ray 4.. Comunque come già detto, questo, che mi da in anzi tutto la gran noia e lo sviluppo hardware, dove ti dicono "questa volta abbiamo raddoppiato il performance"... Ma a parte, che nvidia offre schede video con poca (per questo, che serve) memoria (ovviamente non parlo per la P6000 che ha abbastanza RAM.. o magari 2x GP100 - che possono condividere la memoria.. Infatti cera una demo su youtube.. pero non posso trovarla) speriamo, che questa opzione supporterà i nuovi Volta.. che tra qualche mesetto devono arrivare al mercato. Comunque come dicevo, non sono cosi ottimista.. che ero alla partenza (e in anzi tutto il problema e in hardware, ma non in software) Infatti intel con le sue CPU stanno correndo tantissimo.. (ovviamente intel hanno molto più grossi HR / investimenti in R&D / budget / fatturati da NVIDIA.. rapporto più meno 10 contro uno...) Comunque.. quando vado a guerra non prendo la arma più moderna (anche se ha miglior proiettile - intendo V-Ray GPU) che di sicuro secondo la leggi di Murphy (che funziona sempre quando deve funzionare) ma vado con la classica vecchia da na vita AK (con i proiettili V-Ray CPU)... Infatti abbiamo più meno soliti proiettili (sempre N1 al mercato..) Non dico, che non avrò la sfiga e proprio il vecchio mitico AK mi lascia.. pero la probabilità e minore.. Che usare proprio il fucile, che deve colpire anche a 800 metri senza problemi... e cosi potente, che sfonda i muri.. ecc.. unico problema e, che quando devi sparare in un momento importante, ti domanda "ma sei sicuro, che vuoi sparare?" e finché rispondi "si" sei già morto ;-) Non dico neanche, che tra un po di tempo questo fucile diventa migliore in mondo.. e i "dinosauri" con la vecchia AK scompaiano (perché sono già ammazzati tutti con la arma moderna) pero ci vuole un po di tempo ;-) PS anche io ho risposto alla "telemetria" che uso V-Ray GPU.. (e ovviamente lo uso.. direi anche tanto..) ma questo no significa, che se avevo business basato su produzione di rendering avrei scelto questo sistema come il "numero vincente"... Potrebbe essere, ma non oggi.. e non a un breve termine (quindi in giro di un paio di anni) in questo punto direi, che da diversi anni trovo V-Ray GPU pronto per produzione... (diciamo da circa 3..) ma la domanda giusta e, se vale la penna.. (rapporto di 1. costo hardware, che e esclusivamente dedicato per questo, 2. costo manutenzione 3. costo corrente e altre spese /tipo climatizzatore altre spese/ vs risultato finale e il tempo dedicato) PPS tu dai esempio per una semplice scheda di gioco.. la mia domanda e, hai provato utilizzare il RMA per tornare indietro la scheda di gioco.. e se "si" per quanto tempo te la mandano indietro.. (ovviamente NON li dici, che hai fatto rendering.. perché hai già perso la garanzia.. hehe)
  7. Alcune considerazioni su V-Ray RT

    Rientro anche io (con piena potenza) in discorso di rendering CPU vs GPU Tante cose sono state già dette.. Ovviamente il GPU rendering e una bella cosa. Un po limitata (seguo profondamente il discorso dal 2008!) Diversi anni fa (in una delle prime edizioni di DDD, credo era fine 2011) ero molto più gran ottimista, che oggi... Quassi 7 anni dopo. Avevo detto la cazzata totale tipo "sono sicuro, che tra 5-6 anni il GPU render avrebbe più gran pezzo dal mercato ray/pathtrace, che la CPU render..." Ovviamente ero convinto a questo, che dicevo. Ora direi, che al epoca o ero soltanto ottimista, o ero convinto che le aziende leader nel campo GPU (come NVIDIA) sviluppano alla grande.. Ovviamente mi sono stufato ogni anno - anno e mezzo a guardare sig. Huang (a.k.a. Jensen) che esce con qualche prototipo di scheda video a mano e dire "Questo cambia totalmente il mercato"... Sempre promette oltre 2 volte più alto performance della arch. precedente, e sempre riceviamo tra 10 e 20% in più... Credo, che non tanti da voi si ricordano GPU rendering con la GPU GF100 (era tipo nel 2010 codename Tesla - non parlo per la GPU di calcolo chiamato "Tesla") quindi parliamo di GTX 470 / 480 e Quadro 4000 / 5000 / 6000 Il massimo di "CUDA Core" erano (quindi in 480 e Quadro 6k) erano 480 o 448 (per la Quadro) core.. In attesa di nuova tecnologia (chiamata Kepler credo, che più utenti se la ricordano - dove la GTX 680 o Quadro K5000 devono avere 1536 CUDA Core!!!! WOW!!!!! ) ho sparato la cazzata... Infatti 480 vs 1536 suonava 3,2 volte più veloce!!! (MADONNA!!) La differenza REALE (in GPU Render) era incirca 15-20% Che tristezza. NVIDIA dicevano, che devono ottimizzare.. mandavano nuovi SDK e ver. di CUDA.. ma.. oltre 25-30% dopo un anno (dopo tutti i aggiornamenti) non abbiamo visto.. Ecco ora dico, perché sono pessimista e non posso dire neanche che tra 5 anni il mercato di pathtrace la GPU avrebbe la "maggioranza".. E tutto cosi, perché infatti se la situazione era cosi, come si pensa prima - una scheda "moderna" sarebbe circa 8-9 volte più veloce del modello "Tesla". Ora aspettiamo Volta come cambia totalemtne il mercato (si.. beh sono 10 anni, che aspetto il cambio del mercato) ma non sono più ottimista.. hehe.. Comunque Titan V risulta sempre da ben 20% piu performante da Titan XP (tutti e due sono quassi introvabili... a parte, che ora vedo Titan V a 3000$ quindi circa due volte e mezzo di Titan XP) Torno al discorso consumo.. 1. GPU render - a parte che le schede video - Consumano tanto - Scaldano tanto (non solo se stesso ma tutti i altri componenti) - Bruciano facile (A parte le Quadro) - Costano tanto (rispetto questo, che offrano) - Ultimamente si trovano difficile (vedi sotto) Diciamo anche che: - Sono totalmente limitati in memoria (anche le Quadro con 24 GB di RAM in diversi casi non bastano..) - NON condividano (bene) la RAM del sistema - NON condividano la RAM tra se stessi (a parte la Quadro GP100) - Sviluppo di GPU Render (dal punto di vista hardware) non e cosi veloce - i "Archeologi virtuali" (quindi i ragazzotti, che scavano bitcoin craccando le password si shadow file rubati di diverse server) stanno aumentando totalmente il costo di GPU, rendere quassi introvabili le schede (attualmente) GTX da 1060 in su Quindi il GPU render non e il questo jolly che (io personalmente) aspetto da 10+ anni.. 2. CPU render - a parte che le CPU - Costano tanto (Esempio tutta la serie di Core i9 e Xeon Gold / Platinum) il resto - la CPU render ha una storia (tradizione) da oltre 30 anni di sviluppo (contro GPU, che ha 10-12..) - e molto più compatibile.. Puoi comunque la CPU la possiamo usare per tutto il resto.. - e molto più facile di supportare, trovare, raffreddare (tranne core i9 - tipo 18 core cloccato a 5+ ghz come diceva Ceco) - CPU render e molo.. ma molto miglior sviluppato - Consuma meno e chiede mono manutenzione - Brucia molto più difficile (per non dire impossibile, perché nella storia di 3DWS sono prodotti oltre 3000 workstation e sommato otre 5000 macchine incluso le renderfarm.. Ho visto un paio di volte CPU bruciate..) Per Ceco: Non e possibile, che un 18 core i9 consuma 700 watt. Qua ho fatto tante prove.. (portato anche a 5.2 ghz per core) il consumo massimo a full load era intorno a 520 watt.. misurato con apparecchio professionale al entrata di cavo di corrente.. (quindi paliamo di cifre esagerate..) per dire tutto, che volevo dire.. si.. la GPU render e una bella cosa... pero se devo basare il mio business su GPU rendering penserò tanto.. (e sarò sempre pronto per alternativa di CPU render.. perché se mi arriva un esterno villetta in bosco con 500 alberi.. beh diciamo 2-300 m. poly.. mi troverò in una merda cosi profonda, che non vorrei neanche pensare..) Altro discorso e la bolletta.. Se devo pensare per il mio core business - che fa in anzi tutto grossi rendering.. Aspetterei minimo altri 3-4... 5 anni
  8. Annunciata la prima Beta di Corona Renderer per Cinema 4D

    Stai scherzando? Corona ha ~ 10% del mercato di render engine per max (anche questi 10% e una cifra esagerata..)
  9. Annunciata la prima Beta di Corona Renderer per Cinema 4D

    Si beh... e cosi.. tanti dicono, che la Audi A4 e meglio della Audi RS6.. magari per loro bisogni e meglio.. o non sanno guidare.. o non la possono mantenere... ecc. e sempre questione di scelta personale... PS comunque in tuo caso non e presente la Audi A4 haha
  10. Annunciata la prima Beta di Corona Renderer per Cinema 4D

    niente da fare: ecco cosa hanno detto... SketchUp plugin Let’s admit it, the last year was not that successful for our SketchUp plugin: we had two developers who came, did a small amount of work, and then left. For the past few months, there has been virtually no progress on the plugin. We also hit some roadblocks in development, which did not help.
  11. Gtx Nvidia Titan V

    Io dalla prima versione Titan X - quindi un paio di anni fa.. non ho visto neanche una Titan successiva in vendita in europa.. sono arrivati due modelli.. pero non sono mai presente qua.. puoi.. 3k ma.. mica compriamo la High End Quadro? boh... vediamo..
×