Jump to content
bn-top

ChaosLele

Members
  • Content Count

    169
  • Joined

  • Days Won

    11

Everything posted by ChaosLele

  1. https://docs.chaosgroup.com/display/VRAYSKETCHUP/Migrating+from+Previous+Versions#MigratingfromPreviousVersions-ColorMapping
  2. Ahah, e' perche' il 1900X ha un QUARTO dei cores di cui sopra. Quindi la CPU e' essenzialmente (per tre quarti, precisamente) occupata da silicone spento. I pochi core in funzione ben tireranno un poco di piu', o no? ? In realta' preferisco evitare, che il costo in tempo per un replacement e' esorbitante, e preferisco usarlo per diverse ore al giorno (corto o lungo che sia...).
  3. conto sulla enorme quantita' di chiplet spenti! Diciotto Ghz on air, e via!
  4. LOL, io ho il1900X. Che gara e', devo perdere subito? XD
  5. Ho la stessa mobo, ma solo un 1900X (si capisce che per mestiere non faccio piu' la produzione? :P). Nemmeno io sono - correntemente- riuscito a riempire i due canali di RAM (non mi passa *piu'* il POST), dovro' riprovarci, si' che aveva funzionato per un breve periodo. Questo detto, le cpu sono dei missili per il raytracing: certo la memoria va gestita (e' una macchina NUMA, e le prestazioni sono meglio senza), ma pur lasciandola in NUMA mode, anziche' in local mode, vola. Anche con i videogiochi, non ho avuto il minimo problema, che invece mi aspettavo leggiucchiando qua e la
  6. Credo il post sia meritevole di stare da solo: L'IPR in finestra e' da intendersi come uno strumento INTERMEDIO nella pipeline di produzione. Nel senso che uno e' incoraggiato ad isolare, zoomare sul selezionato, per poi compiervi lavoro di shading. Oppure con un material override sulla scena, a muovere le luci e camera, per trovare la quadra alla distribuzione luminosa, o alla posizione di oggetti in scena. Certamente e' in grado di calcolare scene complesse per shading e lighting (interni completi, ad esempio), ma noi facciam vedere quello come esempio estremo di d
  7. non c'e' un particolare problema tecnico verso l'IPR distribuito. C'e' pero' una questione pratica: le reti non hanno velocita' infinite, e gli slave neppure, nel caricare la scena. Si spenderebbe piu' tempo nel sincronizzare le macchine, che nel vederle calcolare. EDIT: vale lo stesso per l'IPR via Cloud. Si puo' concettualmente, ma uno non puo' aspettarsi uploads e modifiche istantanee, come dalla scena caricata interamente in memoria locale, prossimale alla CPU.
  8. Il parametro, accessibile solo via MaxScript, permette di compensare (a crescere o diminuire) l'auto esposizione calcolata dalla Telecamera in fase di rendering. Agisce come Bias, tra -inf. e +inf. (CREDO che siano F-Stops, ma non ho verificato. Potrebbero essere EV.) Idealmente, uno lo lascia stare come e'. ? In casi particolari, pero', l'algoritmo proprio non riesce ad ottenere l'esposizione desiderata, e il controllo agisce come compensazione (come, nelle dSLR reali, il correttore d'esposizione, in sostanza.). Tutto CPU! Credo Vlado abbia gia' deciso di tr
  9. all'inizio, anche io. poi oh, costa tanto poco accorgersi e correggere, ho anche smesso di saraccare ogni volta, e ho poi imparato. L'inizio ha un suo senso logico, ma suo suo, pero': come dici ben tu, poteva stare altrove, seguendo una logica leggermente diversa. Avendo pero' la telemetria, sappiamo che il bump e' usato quanto il diffuse (appena di piu', in effetti. e molto stranamente!) come canale per texture (anche perche' non ha, come il diffuse, un suo colore, ne' un'altro posto nella UI.). Ergo, metti in cima, e POI iniziano i canali di shading. Rimane dibattibile.
  10. Quality of Life. Provalo per un pochino, e mi saprai dire. Io ero molto scettico, e ora non riesco a farne a meno: mi risparmia infinito scrolling.
  11. Grazie, ma noi no. ^^ Scherzi a parte, io stavo provandolo con una scena (di interni, per altro) che vuole 92gb di RAM per calcolare, con 1400 texture e un centinaio di luci (IeS, Portali, etc etc.). Textures convertite a .tx, quindi con tutto lo sbattimento di leggere le mipmap giuste (anziche' semplicemente la bitmap intera) ad ogni cambio camera, o movimento d'oggetto, e riportavo delle *incertezze* nella fluidita' a Vlado. Che ovviamente dice che c'e' cose da migliorare. Rimane che Max e' sempre li' con il proprio set di idiosincrasie (A differenza, per esempio, di Maya.
  12. Se ricapita, questo o qualunque crash riproducibile, fammi un fischio! Non e' detto che perche' capiti sempre a te, noi ne siamo a conoscenza: a milano si dice "Cent Coo, Cent Crap!" (la seconda parte la evito. XD), ed e' verissimo: a ognuno il proprio metodo di lavoro...
  13. Purtroppo (e per fortuna, via!) questo e' nostro, e di facile correzione. Scoccia sia scappato tra le maglie della QA, ma si sa, i pesci piccoli svicolano. Ho parlato con Anna, la correzione e' minima (.target_distance=100.0, per esempio), quindi quella verra' implementata subito. Sul comportamento cambiato, preferivate l'altro comportamento? Se si implementassero entrambi, per esempio con un tasto modificatore (control+click, ad esempio), andrebbe bene?
  14. Ah, quindi il comportamento e' cambiato. E comunque un errore c'e', mi sa proprio: la distanza del target e' settata a 0, che non va bene, a prescindere dalla finestra, e dalla creazione manuale o no. Sono sul pezzo, grazie mille per le pazienti risposte!
  15. Quello e' normale, pero': e' una vista ortogonale, il punto di vista e' infinitamente lontano. Preferiresti la telecamera fosse creata ad una distanza arbitraria? Un oggetto piu' grande la coprirebbe comunque, ed immagina se tu fossi in un interno, la distanza arbitraria potrebbe farti vedere i muri, anziche' l'oggetto. L'origine *a me* pare l'unica soluzione consistente e prevedibile: era diverso prima il comportamento del bottone? Max, per altro, si rifiuta proprio di creare una telecamera (CTRL+C) da vista ortogonale, immagino per lo stesso tipo di problema.
  16. Eh no, non ancora. Ma E' nella to-do list, quindi non dimenticata. P.s.: a parte il fatto che sia in finestra (che piace, come al solito, alla meta' dell'utenza), che ne pensi dell'IPR?
  17. A me la crea correttamente, anche da una user view, ma non sono *esattamente* sulla build di release. Riprovero', anche con max diversi dal 2019 (tu su quale hai il problema?) EDIT: verificato in max 2018 e 2019 con la build distribuita pubblicamente, non riesco a riprodurlo. Se avessi una scena che si comporta cosi' regolarmente, spediscimela pure a emanuele.lecchi at chaosgroup dot com Tutti passi verso le LPEs. Bene che piaccia.^^
  18. Ahahaha, si! XD Il codice di max per i RE e' una piaga... D'altra parte, per avere un controllo centralizzato, diventa un casino. Forse si potrebbe pero' aggiungere una opzione per "denoise all REs" direttamente nel main denoiser. Chiedero'. p.s.: posso ovviamente fornirti dello script scheletrico che crei un set di RE tipici, e poi attivi per ciascuno il denoise. Poi te lo modifichi come credi.
  19. Ciascun RE per cui abbia senso effettuare un denoise ha la sua opzione. Credo serva il nostro denoiser (non quello nvidia) per i render elements, correntemente, aggiunto alla lista dei RE. Verificalo sulla versione che hai.
  20. Ai SoA days di questo weekend (12/13 Ottobre 2018) ci saro' anche io a presentare Lavina e V-Ray Next GPU su una RTX 2080Ti. In generale (non posso ancora scendere nello specifico, personalmente), pare che il vantaggio in termini di tempi di calcolo ci sia, ed anche sostanziale in alcuni casi (allego alcuni dei primissimi test interni postati da Vlado. Prendere con le pinze...). Rimangono valide tutte le considerazioni sull'adozione di tecnologie nuove (cioe', miglioreranno col tempo, per prestazioni e prezzo.), e sulle quantita' di memoria a bordo delle schede (anche con l'NVLink, che
  21. Ai SoA Days questo Venerdi' e Sabato ci saro' anche io a dimostrare una RTX 2080Ti con Lavina (come visto al Siggraph) e build speciali di V-Ray Next GPU. I presenti (me incluso!) potranno cosi' farsi un'idea chiara su RTX ON/RTX OFF, e se sia il caso di prendere il treno del Raycasting accelerato adesso, o fra un po'. EDIT: no, niente Builds speciali di V-Ray GPU per ora. La regia mi ha corretto, scusatemi.
  22. Usa una HDRI per movimentare riflessioni e rifrazioni. Per esempio, una delle prime di sempre, ma sempre discretamente funzionante: http://www.pauldebevec.com/Probes/kitchen_probe.hdr
  23. Riportero' i complimenti! Tra l'altro si stan facendo un mazzo notevole con tecnologie varie, non ultimo il sampling di volumi con luci al loro interno. Date un'occhiata al gruppo su FB per qualche immagine. L'ho provato, e' decisamente un passo avanti notevole (se non ancora come qualcuno della concorrenza. ma non chi credete voi ^^).
×
×
  • Create New...