Vai al contenuto
jojojo

Randomcontrol Rc5

Recommended Posts

Inviata (modificato)

Dopo lunghissimo tempo, l'annunciata funzione real time di Fryrender viene svelata dalla software house spagnola Randomcontrol (ex Feversoft).

Viene mostrato come anticipazione un video Vimeo (alta qualità) o Youtube (media qualità) che evidenzia l'alta qualita' della animazioni possibili.

post-6487-1242914327_thumb.jpg


Modificato da Macphisto
Sistemata impaginazione

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Bell'effetto, ma c'è una domanda d'obbligo: come si comporta se anzichè muovermi con la Camera, muovo oggetti?

Ed anche: come si comporta con materiali riflettenti e/o trasparenti?

Perchè a prima vista, un risultato di questo genere si ottiene con qualunque software, basta fare un baking dell'illuminazione e applicare le relative mappe agli oggetti

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

per completezza, qui il sito ufficiale di Randomcontrol con maggiori spiegazioni tra cui:

To create the following preview we took a camera-animated scene made in fryrender using 3DStudio Max. We loaded the scene in fryrender RT and precomputed a .RC5 dataset. This dataset is a single file which includes the scene description (camera animation, geometry and materials) plus the Global Illumination information precomputed by fryrender RT. Then we loaded the .RC5 file in rc5player.exe in playback mode. When started in playback mode, RC5player plays the camera animation frame by frame, writing each image to the hard drive.

A questo punto bisognerebbe sapere quanto ci mette a precomputare questo file.


Modificato da krone

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

With RC5Player you can record as many videos of your scene as you want at rates ranging from several to many frames per second at the expense of a preliminary precomputation phase, which is roughly equivalent to a still frame render in fryrender (about 1 hour for this scene).


Modificato da ytsejam

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Quindi, niente animazione di oggetti. Alla fine, è tutto un "normale" baking? :huh:

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Per ora non è supportata l'animazione degli oggetti.

In pratica funziona in questo modo...tu fai il render della scena normalmente come hai sempre fatto solo che una volta terminato il render puoi navigare all'interno della scena oppure fare un' animazione della camera senza nessun altro calcolo aggiuntivo. La scena che vedete ad esempio è calcolata in un ora il resto è fatto in tempo reale.

sono supportati materiali riflettenti e trasparenti

XLoki: be in effetti non è proprio un normale baking...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
XLoki: be in effetti non è proprio un normale baking...

Beh, se calcola l'illuminazione e ne permette la sola navigazione realtime... cos'è se non un baking dell'illuminazione?

Anche allo stato attuale, i principali software permettono di generare mappe che contengono niente meno che l'illuminazione della scena. Unica differenza è che devi provvedere a fare un buon unwrap di tutta la scena e settare manualmente gli oggetti.

O c'è altro che differenzia questo sistema?

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

baking e poi render del baking in frames...il player mette in playback i frames...mica un 3d realtime in directx

...mi pare di aver capito...

e aggiungo...

ma come cavolo fa a calcolare il depth of field?

....boh...


Modificato da saudade

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Non lo trovo cosi' utile per riprodurre video, ma se permette di renderizzare la scena e poi di girarla a piacimento diventa interessante. Col tempo di un render ne puoi fare 100

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Però metti che ho renderizzato la mia scena, poi se voglio un'altra inquadratura alla fine non devo renderizzare tutto di nuovo basterebbe spostare la camera.................o per lo meno questo è quello che ho capito io

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

ti sei risposto da solo...ti sembra poco generare tutte le mappe e fare l'unwrap di tutta la scena?? (soprattutto in scene complesse?)...tecnicamente non è difficile, però stranamente si preferisce sempre fare l'animazione col metodo tradizionale piuttosto che fare il baking...qui è ancora più semplice devi solo fare un render e poi navigare dentro come ai tempi di lightscape...a me pare un'ottima possibilità, oltrechè una cosa molto utile in svariati contesti con poco spendimento di risorse.

Ho piuttosto qualche perplessità sull'effettiva uscita in tempi brevi del prodotto...è da tanto che si rinvia e questo non è un buon segno.


Modificato da gerets

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Beh certo, è uno strumento che semplifica il processo, ma resta comunque un normale baking dell'illuminazione.

Il mio dubbio era proprio questo.

Inoltre, come appunta anche saudade, non è tanto realtime, se devi preimpostare un percorso della telecamera prima di fare tutto il calcolo.

@seregost: vero, ma vorrei prima vedere come si comporta con riflessioni e trasparenze, su cui almeno su queste premesse, ho qualche dubbio sulla resa di questi materiali.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

anch'io ho qualche (molti) dubbi

se i tempi di render di un'immagine normale sono uguali a quelli per il baking, significa che normalmente fray non fa importance sampling? molto strano

inoltre, mettiamo che sia in una stanza dentro una città intera, renderizzo la stanza e, con gli stessi tempi di render, posso navigare nell'intera città? è davvero così?  :huh:

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

Il sito dice che questa preview e' stata fatta a 640x480.

Il che francamente la rende una risoluzione un po' inutilizzabile, ma confido sia per motivi di test, no? Si sa' per caso niente sulla questione interattivita'/risoluzione concessa? Sembra comunque un tool interessante, personalmente penso che una cosa del genere con ptc/bkm e dof in realtime tramite gpu si possa fare anche con prman bypassando le menate del baking 2d.

Certo non e' cosa semplice e questo sembra un buon strumento (a patto che si possa utilizzare almeno in pal).


Modificato da kage_maru

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Il sito dice che questa preview e' stata fatta a 640x480.

Il che francamente la rende una risoluzione un po' inutilizzabile, ma confido sia per motivi di test, no? Si sa' per caso niente sulla questione interattivita'/risoluzione concessa? Sembra comunque un tool interessante, personalmente penso che una cosa del genere con ptc/bkm e dof in realtime tramite gpu si possa fare anche con prman bypassando le menate del baking 2d.

Certo non e' cosa semplice e questo sembra un buon strumento (a patto che si possa utilizzare almeno in pal).

sì ma a differenza di ptc/bkm qui stiamo parlando di un brute force, non lo trovi un po' strano?

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
sì ma a differenza di ptc/bkm qui stiamo parlando di un brute force, non lo trovi un po' strano?

Io avevo capito che praticamente l'engine principale tira fuori un file "misterioso" che viene caricato da quello realtime nel quale muovi la tua camera e via. Pensavo quindi che tramite un bake 3d del primary appiccicato sopra la geometria + post fx come glow, dof su gpu puoi ottenere un effetto simile. Non credo proprio si ricalcoli tutto in realtime, non ci credo neanche se mi fanno vedere il codice.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
inoltre, mettiamo che sia in una stanza dentro una città intera, renderizzo la stanza e, con gli stessi tempi di render, posso navigare nell'intera città? è davvero così?  :huh:

credo che il parsing della scena debba essere fatto interamente.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Io avevo capito che praticamente l'engine principale tira fuori un file "misterioso" che viene caricato da quello realtime nel quale muovi la tua camera e via. Pensavo quindi che tramite un bake 3d del primary appiccicato sopra la geometria + post fx come glow, dof su gpu puoi ottenere un effetto simile. Non credo proprio si ricalcoli tutto in realtime, non ci credo neanche se mi fanno vedere il codice.

certo, ma la cosa che non mi torna è che si parla di parità di tempi tra una normale immagine e quella generata per il presunto "bake"

non avrebbe senso, o l'immagine già ora viene calcolata tramite un algoritmo non view-dependent (e mi chiedo come faccia a essere efficiente, visto che per giunta è brute force) oppure qualcosa mi sfugge

è impossibile che l'immagine singola calcoli già tutti i samples necessari alla visualizzazione realtime, ed è impossibile che l'enorme quantità di samples in più passando da un'immagine a una scena completa si traducano negli stessi tempi di render

in questo senso questo esempio è poco significativo

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)
certo, ma la cosa che non mi torna è che si parla di parità di tempi tra una normale immagine e quella generata per il presunto "bake"

non avrebbe senso, o l'immagine già ora viene calcolata tramite un algoritmo non view-dependent (e mi chiedo come faccia a essere efficiente, visto che per giunta è brute force) oppure qualcosa mi sfugge

è impossibile che l'immagine singola calcoli già tutti i samples necessari alla visualizzazione realtime, ed è impossibile che l'enorme quantità di samples in più passando da un'immagine a una scena completa si traducano negli stessi tempi di render

in questo senso questo esempio è poco significativo

Infatti e' per questo che dicevo che, utilizzando ptc/bkm, si puo' fare (in linea teorica ovvio) una cosa del genere. Tra l'altro dalla 13.5 puoi renderizzare bkm come geometria.

Con prman con la shadeop bake3d(), chiaramente con culling off, mentre fai il render normale puoi buttare fuori tutti i dati che vuoi in una spazio 3d che prende dentro tutto. Ci mette un pochino di piu' (per via del non-dependent), ma poi dipende dalla risoluzione, dallo shading rate, etc. In linea di massima lo si fa gia' quotidianamente con lo stesso procedimento che si usa per fare indirectdiffuse o occlusion pointbased.

Poi ovviamente dipende da come queste informazioni vengono rielaborate. Certo ad occhio, e con cosi' poche informazioni, i dubbi che esponi sono piu' che leciti.


Modificato da kage_maru

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Beh certo, è uno strumento che semplifica il processo, ma resta comunque un normale baking dell'illuminazione.

Il mio dubbio era proprio questo.

Inoltre, come appunta anche saudade, non è tanto realtime, se devi preimpostare un percorso della telecamera prima di fare tutto il calcolo.

@seregost: vero, ma vorrei prima vedere come si comporta con riflessioni e trasparenze, su cui almeno su queste premesse, ho qualche dubbio sulla resa di questi materiali.

"RC5 has been built to interpret fryrender scenes and to communicate with it seamlessly. This means that you can use RC5 to edit, preview, or navigate fryrender scenes."

Da ciò che sta scritto sul sito sembra che ci si possa navigare liberamente nella scena e quindi nn sarebbe solo un percorso preimpostato...soprattutto perchè in quast'ultimo caso non capisco che vantaggi si hanno rispetto al realizzare un normale video :o

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

Credo che il discorso della telecamera preimpostata in Max sia da intendere in questo senso:

1. abbiamo fatto il render/bake3d in fry.

2. l'abbiamo aperto in RC5

3. ora che vogliamo esportare un'animazione (in realtime) come settiamo il movimento della camera e orrica?... scegliamo una camera che e' gia' stata settata in max.

In questo modo non ci hanno detto se sia possibile settare una camera all'interno di RC5.

Ma sappiamo che se si puo' usare una camera preparata nel programma host.

Il fatto e' che RC5 sara' parte di Fry-RT e di VE.

In RT sara' possibile aprire i render generati da fry e navigarli e in piu' esportare dei video delle nostre navigazioni: potrenno essere navigazioni estemporanee o guidate dalle camere importate dai programmi host.

In VE sara' invece impostare molte piu' cose: in passato si era capito ad esempio che si potra' acnhe inserire elementi interattivi, cioe'.. chenneso'... mettere uno switch e accendere una luce (forse).

Riguardo a risoluzioni e tempi di computazione: e' ovvio che il programma non puo' fare miracoli!

Chema ha gia' detto ad esempio che la qualita' di tutto dipendere da quanto "cotto" sara' il render di partenza, ovvero da quanto poco rumore avra'.

Inoltre io mi domando se proprio tutto verra' supportato: anche il displacement? e S5? E poi come ci si puo' sognare che uno possa davvero muoversi liberamente in una camera: se mi avvicino troppo a un particolare, ma vicino-vicino :D e' ovvio che ci sara' una perdita di dettaglio! :P

Quanto a renderizzare una stanza e girare il mondo all'esterno... chiaro che sara' impossibile!!!

Chema ha precisato che questo strumento e' indicato per product design e ambienti... be', mi aspetto ambienti singoli, non un intero aeroporto internazionale!!!

Restiamo con i piedi per terra: non tutti trarranno vantaggio da questo nuovo tool, anzi, forse pochi, ma per questi potrebbe essere molto interessante.

Questa preview e' solo la prima, ce ne saranno altre e speriamo che non ci voglia ancora troppo per vedere il prodotto finito.

Ciao, Gio


Modificato da jojojo

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

speriamo preparino un video su un walkthrough dentro un appartamento con più stanze, oppure un esterno con portici...alberi...chissà se si potrà variare l'apertura del diaframma in realtime per avere zone sotto/sopra esposte...

E poi...una visione stereoscopica realtime?...perché no?...in fondo il baking è a 360 gradi, se renderizzasse due fotogrammi potremmo far vedere ai nostri clienti un 3d con tanto di profondità...

Certo che se funzionasse con scene complesse e col sistema Nvision metterei nel cassetto vray....

Costruire una scena tutta in baking vi assicuro che è una cosa difficilissima..bisogna farla oggetto per oggetto..poi usare un motore 3d realtime...tipo Deep Exploration, Ventuz, Quest ed altri...

Aspetteremo...fiduciosi...l'esempio è impressionante....:)

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Difficile fare considerazioni senza sapere le effettive limitazioni.

Servirebberò più dati sopratttto sui tempi di render per creare i file per l'RT, le dimensioni dei file generati, le possibilimodifiche in real.time, ecc..

Però la strada mi sembra quella giusta, il real time unbiased sarà il futuro (anche se ancora lontano :P)

Vado a comprare un quad dual esa octa Xeon :)

:hello:

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Inviata (modificato)

A me sembra un ottimo strumento...il fatto che non sia utilizzabile per tutti gli scopi non ne diminuisce il valore...basterebbe la possibilità di ricavare più still da uno stesso calcolo per renderlo sfizioso.

Riguardo alle lecite perplessità, dubito che uno sviluppatore si esponga in questo modo senza avere alle spalle qualcosa di solido.

Il discorso rimane per me sempre uno: tante più sono le alternative, i concorrenti in campo e le tecnologie, quanto più tutti, a prescindere dal nostro eventuale software preferito, ce ne avvantaggeremo.

Ed è un bel periodo per le novità...quindi forza randomcontrolnextlimitchaosgroupluxologynewtek etc. etc.


Modificato da Laszlo

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Quanto a renderizzare una stanza e girare il mondo all'esterno... chiaro che sara' impossibile!!!

Chema ha precisato che questo strumento e' indicato per product design e ambienti... be', mi aspetto ambienti singoli, non un intero aeroporto internazionale!!!

Ciao, Gio

grazie delle maggiori info, il mio era un esempio estremizzato, ma mi serviva per fare capire il concetto

tu dici che una città intera non la si può navigare, ma un ambiente sì, mi rimane difficile capire come lui distingua una ambiente dall'ipotetica totalità di un modello

un modello 3d è un modello 3d, se ho realizzato una casa, ne renderizzo una stanza le scelte che può fare il software sono due, o mi renderizza e fa il baking di tutto, oppure fa una scelta "view-dependent", non è credo che possa dire: ah sì ora renderizzo la cucina e il resto lo escludo

quindi in sostanza continuo a non capire in che modo venga definito il "range" di questo baking

le mie ipotesi sono due, o devi cmq preimpostare un percorso cercando di comprendere all'interno dello stesso tutte le parti che vorrai vedere dopo (view-dependent)

oppure viene fatto il render di tutto il modello e a questo punto i tempi di render su scene complesse (scene che non comprendano una sola stanza o un solo oggetto) sarebbero enormemente maggiori rispetto all'immagine singola

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Crea un account o accedi per commentare

Devi essere un utente per poter lasciare un commento

Crea un account

Registrati per un nuovo account nella nostra comunità. è facile!

Registra un nuovo account

Accedi

Hai già un account? Accedi qui.

Accedi ora

  • Navigazione recente   0 utenti

    Non ci sono utenti registrati da visualizzare in questa pagina.

×