Vai al contenuto
periclone

Color Mapping=escamotage?

Recommended Posts

per ottenere un buon rapporto tempi-risultati,

conviene variare i valori del color mapping (ottenendo una soluzione non fisicamente corretta?) o variare le intensità delle varie luci?

grazie, spero di essere stato chiaro... :unsure:

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Il color mapping influisce, eccome sui tempi di rendering!

Il color mapping non modifica la fisicità dei calcoli eseguiti da VRay. Interviene esclusivamente l'otput di rendering. Diciamo che corregge "l'esposizione" (passatemi questo termine :D ) alla stregua di una macchina fotografica.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
hum allora qualcosa mi sfugge.

se interviene sull'0utput perchè modifica i tempi di render?

se intervenisse sull'output si comporterebbe come un gamma controller di photoshop.

al contrario calcola una quantità superiore di dati per poter poi bilanciare i valori sulla base dell'algoritmo scelto.

o qualcosa del genere.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

chiaro immagino che intervenga su un suo raw o simile, ma non vedo grosse differenze di tempi tra Linear multiply o Gamma correction.anche maxwell salva unsuo formato raw che permette di fare una serie di elaborazioni.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Paragonare il Color mappign di VRay e il "Color mapping" di Maxwell è un grave errore.

Con VRay, modificando il CM si modifica la quantità di energia in gioco. Un render molto scuro, a parità di parametri, cede meno energia, quindi meno luce, meno rimbalzi e meno calcoli rispetto alla stessa scena molto illuminata. Provare per credere. Per questo motivo è, infatti, impossibile avere un Color mapping in real time come quello di Maxwell all'interno di VRay.

Ciao

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Paragonare il Color mappign di VRay e il "Color mapping" di Maxwell è un grave errore.

Con VRay, modificando il CM si modifica la quantità di energia in gioco. Un render molto scuro, a parità di parametri, cede meno energia, quindi meno luce, meno rimbalzi e meno calcoli rispetto alla stessa scena molto illuminata. Provare per credere. Per questo motivo è, infatti, impossibile avere un Color mapping in real time come quello di Maxwell all'interno di VRay.

Ciao

ciao inanzitutto!

in questo caso quale sarebbe un buon compromesso di "CM" per diminuire i tempi di rendering?

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

certo, lele ha ragione in questo caso, quando puoi considerare 96bit e poi modificare... ma in compositing? o se hai 20 immagini in consegna?

serve un workflow chiaro e lineare per estrapolare anche solo a 24 bit uno spazio colore flessibile.

any idea?


Modificato da marisalibox

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
come disse una volta lele, utilizzi il linear, unclamped, salvi in .exr e spippoleggi in photoshop

Phil, non è la stessa cosa, o almeno non fino alla RC5. Non vi siete chiesti a cosa serva il parametro Don't affect colors (adaptation only) :) ?

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Phil, non è la stessa cosa, o almeno non fino alla RC5. Non vi siete chiesti a cosa serva il parametro Don't affect colors (adaptation only) :) ?

aspetto un cenno dal mago bulgaro per 4 licenze :D

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

quindi....

vediamo se ho capito...

riuscendo a bilanciare le luci e non usando il color mapping si riducono i tempi di render?

supponiamo di guardare dal vivo e a occhio nudo una scena:

il nostro occhio non possiede il color mapping, quindi, secondo me, quando si usa non si ottiene una situazione reale... :unsure:

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
supponiamo di guardare dal vivo e a occhio nudo una scena:

il nostro occhio non possiede il color mapping, quindi, secondo me, quando si usa non si ottiene una situazione reale... :unsure:

si ma la realtà non è limitata a 2^8[R] x 2^8[G] x 2^8 colori ;)


Modificato da marisalibox

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Beh, diciamo che il color mapping in VRay centra con TUTTO o quasi :)

La physcam "espone" tramite color mapping.

L'AAser fa antialias in funzione del valore dei pixels che analizza, DOPO aver effettuato il colormapping (fra un secondo spiego perche' DOPO sia importante), le luci stesse rispondono al color mapping (l'inverse square falloff puo' essere modificato dal color mapping, anche se solo globalmente).

Quel checkbox su "adaptation only", invece, permette a VRay di fare i calcoli di AA e GI con un diverso color mapping, mentre restituisce il render come fosse linear 1,1,1.

Questo perche' tutti i montecarlo samplers su questa terra han problemi con due grosse tipologie di pixel vicini: quelli TROPPO VICINI per luminanza, e quelli TROPPO LONTANI, sempre per luminanza.

Nel primo caso, in situazione di bassa luminosita', ad esempio, il noise threshold (c'e' anche in Mr, provate pure anche li') e' da abbassare di molto: idealmente della differenza MINIMA tra due pixels in quella zona d'ombra.

Ad esempio, e ragionando in float: pixel A e pixel B hanno valori di luminosita' rispettivamente pari a 0.0039 e 0.0078 (un buon nero -rgb 1, 1, 1 per A e 2,2,2 per B- quando mostrato sui nostri display, non c'e' ombra di dubbio. ma tenete buono il concetto).

Se il noise threshold e' di 0.01 come di default, sara' di un ordini di grandezza superiore alla varianza tra pixels A e B, la cui differenza e' di solo 0.0039.

Ergo, niente AA verra' effettuato tra questi.

Applicando un color mapping (tipicamente un gamma da 1.8-2.2) solo sul sampler, si permette alla curva di gamma di "stretchare" i due valori di luminanza A e B (specie perche' il gamma e' una curva piu' forte proprio sulle tinte scure), e idealmente di farvi intervenire L'AA, solo che poi i pixel vengon restituiti ai loro colori originali e non color mapped.

Stesso, identico discorso vale per la GI.

Tutti i metodi di VRay hanno identico meccanismo di sampling alla base, e anche la GI andra' a fare del miglior campionamento nelle zone scure se c'e' del gamma applicato (con/senza "adaptation only"), visto che i pixels saranno piu' probabilmente nell'intervallo di noise threshold.

Il color mapping, pero', serve anche alla situazione opposta: quando i pixels A e B sono estremamente distanti fra loro per luminanza.

Ad esempio, la cima di un tetto e il sole fisico: il tetto sara' magari intorno allo 0.5 (float, sempre), il sole, pur esposto, magari a 24.5 float.

Quei due pixel andran mediati, ma la media fa 12.5, sempre bianco puro sul monitor.

Non esiste una soluzione a questo tipo di problema all'interno del renderer, in realta', ma certamente il color mapping aiuta: i multipliers possono servire ad attenuare del sole a degli intervalli accettabili, perche' L'AAser faccia un miglior lavoro, senza impazzire cercando la media "impossibile".

La soluzione, come per la vita reale, e' creare del glare in post-produzione, perche' quello e' cioe' che succederebbe se fotografassimo, od osservassimo, una situazione analoga nella quotidianita'.

Le immagini float, IO le correggo con combustion, non con PS.

Ha i suoi problemi, granted, ma decisamente meno di PS, e ha quello zic in piu' rispetto a PS in diversi compartimenti (uno fra tutti, l'animazione.), oltre ad essere stato concepito per lavorare in full floating point (a differenza di PS).

Io continuo comunque a salvare in float, senza gamma/colormapping, e poi faccio una color correction dopo, che le curve di luma me le disegno da me :)

Come post scriptum (per i pochi coraggiosi arrivati sin qui), l'occhio umano HA color mapping :)

Il colormapping di vray puo' aiutare a riprodurre alcune tipologie con certa qual fedelta' (Il reinhard e' molto in voga, mi par di capire, grazie alla capacita' di variare la propria curva tra lineare ed esponenziale, proprio come l'occhio umano in diverse situazioni.), ma non sostituiscono l'occhio, o la mano dell'operatore.

In altre parole, anche la miglior fotocamera del mondo, in mano ad un inetto, produrrebbe brutte foto.

Lele

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Crea un account o accedi per commentare

Devi essere un utente per poter lasciare un commento

Crea un account

Registrati per un nuovo account nella nostra comunità. è facile!

Registra un nuovo account

Accedi

Hai già un account? Accedi qui.

Accedi ora

  • Navigazione recente   0 utenti

    Non ci sono utenti registrati da visualizzare in questa pagina.

×