Jump to content
Search In
  • More options...
Find results that contain...
Find results in...

Bruno E

Members
  • Portfolio

    Portfolio
  • Content Count

    182
  • Joined

  • Last visited

  • Days Won

    1

Bruno E last won the day on December 16 2018

Bruno E had the most liked content!

About Bruno E

  • Rank
    Treddista

Recent Profile Visitors

877 profile views
  1. La Vram è molto più veloce della ram, infatti ad esempio nei videogiochi avvengono continuamente caricamenti di texture ad alta risoluzione in tempo reale. Idealmente quanto più un programma riesce a caricare i dati utili nella vram, quanto più rapidamente potrà accedervi. Penso che solo un analista del software e delle performance potrebbe dare risposte certe su quanto realmente sia ottimizzato ed utilizzi le risorse in maniera "intelligente". Chiaramente chi produce un software dice la sua versione nella quale tutto sembra perfetto, ma margini di miglioramento ci sono sempre. La vram può essere utilizzata e va bene, ma poi bisogna anche andare a vedere quali dati vengono passati in vram e in quale misura, in quali occasioni. E quello dipende da come è strutturato il software. Può essere che la usi solamente per alcune cose.. che la usi di più , che la usi di meno.. Quello che è certo è che l'utilizzo (qualsiasi esso ne faccia) comunque non passa inosservato al monitoraggio. Quindi io da semplice utilizzatore faccio solamente questa considerazione razionale: Se un software ,nel suo utilizzo, non mi satura l'utilizzo delle risorse e al contempo ha vari "tempi morti" per me è la definizione lampante di non-ottimizzato. Perchè se io ho: -il processore che non viene utilizzato al massimo. -ho la vram che non è stata saturata. -La ram che non è stata saturata. -Hard disk che non viene utilizzato al 100% e nel dare una pennellata o nell'aprire un materiale subisco un fastidioso piccolo rallentamento... per come la vedo io vuol dire per forza di cose che margini di ottimizzazione ce ne sono nel programma. Non mi si può dire: Prendi 24 GB di ram.. o prendi 20 GB di Vram o prendi una cpu da 50 cores.. se il programma non usa neanche quelli che ho. A meno che il programma non abbia istruzione di non andare oltre una certa percentuale di utilizzo di tale risorsa (cosa che talvolta effettivamente avviene) .. ma non è il caso dell'utilizzo inesistente da parte di 3D coat della vram. L'unico test secondo me affidabile è utilizzare semplicemente substance painter e vedere per curiosità quanta vram effettivamente usa. E diciamo che se uno vede che nel suo utilizzo la vram è effettivamente satura o ha la tendenza ad essere spesso satura... beh.. certo.. in quel caso ben venga la nuova scheda video con più vram e ne gioverà.
  2. Quel trafiletto mi rende scettico e mi invita a reinstallare substance painter. Spiego perchè dico questo: Come sappiamo per i render con iray avere tanti cuda cores è fondamentale, in fase di rendering e solo in fase di rendering le textures vengono caricate nella memoria video quindi diciamo che, in questo, è meglio averne una bella quantità. Soprattutto se si intende fare rendering di più oggetti e scene. Tuttavia non considero il rendering come la funzione principale di questi software... voglio dire.. è evidente che uno si aspetti principalmente di fare il painting delle texture da questi software. E quando parla di "rallentamenti" fastidiosi, ci si riferisce a quei rallentamenti nell'utilizzo dei pennelli, materiali etc. Nel painting insomma^^ Personalmente sono passato da substance painter a 3D coat quindi mi concedo per substance painter il beneficio del dubbio (con scetticismo dato dal fatto che quando l'ho usato mi era parso ancora più incline a piccoli "caricamenti" e rallentamenti di 3D coat) ma per quanto concerne 3D coat .. posso dire che le cose non stanno affatto così. L'utilizzo della vram che si ha, in fase di painting, è quello dato dalla mera visualizzazione delle viewport e finita lì. Immagino che gli sviluppatori abbiano preferito caricare il grande quantitativo di dati richiesti (delle textures materiali etc) (che è quello che a noi interessa perchè è quello che determina quei rallentamenti nell'apertura dei materiali, nella stesura dei materiali, nell'aggiornamento delle mappe etc) in RAM. E non si parla di un discorso del tipo "saturata la vram passa in ram". No.. qua la vram non viene né saturata, né manco utilizzata in modo rilevante. Questo secondo quanto si può vedere monitorando l'uso delle risorse. Personalmente ho caricato un modello a caso.. ho assegnato a questo modello diciamo.. una decina o forse 15.. texture diffuse, normal, roughtness, opacity, metalness sono tutte texture di risoluzione 6K (più materiali assegnati a più parti del modello). Ho attivato il monitoraggio in tempo reale di utilizzo della vram e mi sono messo a fare un po' quello si fa in fase di painting. Assegnare materiali.. modificare materiali.. aprire smart materials.. .... pennellare etc... e la Vram non si è mai mossa da un utilizzo di 800Mb - 900Mb. E quell'utilizzo è l'utilizzo che ne fa proprio la viewport perchè vengono caricata diciamo una rappresentazione semplificata delle texture al solo scopo appunto di mostrare l'oggetto mentre si lavora. Perchè alla fine.. la viewport deve essere solo una rappresentazione utile e finalizzata ad eseguire painting stesso. Non ha le prerogative di una "resa finale". Questo.. è per quanto concerne 3D coat. Se avessi substance painter installato in questo momento.. sarei -estremamente- curioso di fare subito lo stesso test e vedere se la Vram viene utilizzata realmente in modo efficiente e a quale grado di "fluidità nell'utilizzo generale" questo corrisponda. Se la Vram dovesse effettivamente essere utilizzata in modo efficiente così come farebbe presagire quel trafiletto, ne deriverebbero due conseguenze: 1) tanto di cappello a substance painter perchè significerebbe che è un software meglio ottimizzato sul piano "tecnico" di 3D coat 2) sommo stupore dato dal fatto che ,a quel punto, diventerebbe -ancora- più inspiegabile il fatto che sia così "non entusiasmante" nelle performance ( le performance non entusiasmanti di substance painter sono una cosa che si legge ovunque) complessivamente così poco "fluido" nell'utilizzo ( si intende privo di "piccoli e fastidiosi caricamenti") . Se avviene realmente un utilizzo efficiente della la VRAM.. significherebbe che c'è un INefficienza notevole che si manifesta su altri piani.
  3. secondo me i rallentamenti su questi programmi non sono dati dalla GPU. Alla fine l'utilizzo della GPU è praticamente sempre minimo. D'altro canto.. GPU moderne abituate a muovere milioni di poligoni.. con filtri e quant'altro.. insomma.. io non credo che uno dipinga una texture su un intera scena con milioni di poligoni e se anche lo facesse, in linea teorica sarebbe tecnicamente possibile farlo senza il minimo rallentamento o caricamento. Penso che lo scenario d'uso più tipico sia la creazione di texture (anche magari grandi) su un singolo elemento per volta. Quindi i "rallentamenti" che si avvertono nell'uso di questi programmi non sono imputabili assolutamente alla GPU a meno che uno non sia con una GPU realmente datata. Sono dati principalmente dal grande quantitativo di dati in scrittura e lettura per la creazione in tempo reale delle mappe (continui caricamenti di dati, immagini di grandi dimensioni etc). Non si può dire neanche che serva tantissima ram. Dal momento che, anche qui: Non ne viene usata un gran quantitativo nell'utilizzo normale. Quindi anche questa la escludiamo. Penso che quindi i "rallentamenti" siano dati principalmente da interazione, traffico dati fra CPU e hard disk. In particolare l'hard disk immagino debba essere velocissimo. Immagino che quindi sia consigliabile un M2 veloce e una CPU molto veloce. Sicuramente resta comunque il fatto che questi programmi (da quanto ho sentito dire e da quanto ho potuto vedere) hanno AMPI margini di miglioramento in termini di ottimizzazioni. Sono scettico sul fatto che sfruttino chissà quanto "a dovere" l'hardware. E il monitoraggio delle risorse conferma lo scetticismo. Secondo me in futuro questo aspetto migliorerà. Più per le ottimizzazioni dei software che non per una reale necessità di chissà quale potenza hardware.
  4. devi creare altre linee di sezione là dove necessario. Torna utile a tal proposito il comando "orienta".
  5. Cosa vuol dire "si blocca"? messaggi di errore? Se mancasse una texture non si bloccherebbe. Scriverebbe che manca nella finestra messaggi progresso vray. stato di utilizzo del pc? processore / ram / disco rigido? Il render potrebbe diventare di lunghezza apparentemente infinita nel caso in cui avessi saturato la ram e stesse usando l'hard disk come disco di swap. Se la ram non è satura e non c'è un utilizzo intensivo del disco rigido e un render dura all'infinito anche con impostazioni a default.. è difficile diagnosticare. Potrebbe essere un problema grave nella scena.. una sorta di memory leak che fa sì che il processore non riesca ad avanzare oppure potrebbe essere un componente difettoso nel pc, ad esempio a volte se la ram o il processore sono difettosi e generano molti errori in ciò che fanno, deve ritornare su di essi molte volte nel tentativo di correggere e i tempi possono allungarsi in modo anomalo ma su un pc del genere comunque probabilmente si vedrebbero delle anomalie nel funzionamento , immagino non sia il caso. La ram si può saturare se c'è un displacement che crea una caterva di geometria oppure se ci sono molte texture ad altissima risoluzione. Se si vogliono usare molte texture ad altissima risoluzione è meglio andare nella cartella Chaos Group\V-Ray\V-Ray for Rhinoceros\tools\ aprire l'utility img2tiledexr.exe e convertire tali immagini di risoluzione altissima in tiled exr che è un formato di immagine che contiene la texture più volte in varie risoluzioni. Assegnando poi questa texture tiled exr nel materiale vray , vray utilizzerà tale texture intelligentemente scegliendo risoluzioni minori per oggetti meno estesi (di cui tanto non si vedrebbe il dettaglio e dunque non c'è necessità di caricare in ram l'intera texture ad altissima risoluzione. E scegliendo automaticamente risoluzioni maggiori (progressivamente fino ad arrivare alla più grande) se essa è assegnata a superfici estese nella scena, là dove c'è necessità insomma di maggior dettaglio.
  6. non è obbligatorio avere una sola texture, era solo per suggerire la possibilità per non avere 1 texture per ogni parte del modello e quindi poi doverne cambiare solamente una volta il parametro directory per cambiare la texture a tutto il modello. Se vuoi avere più texture crei tante mappe quante te ne servono. Per ciò che tu devi fare obj secondo me resta il formato migliore.
  7. Nessun problema le mesh composte da più parti. Volendo la texture può essere unita in un unica immagine, semplicemente ogni parte avrà le coordinate uv che si riferiscono ad una porzione di texture. Editando manualmente un filme mtl e cambiando la texture associata, la mappatura UV rimane la stessa. Non ho capito la questione dei due obj diversi. Forse intendi dire che il fatto di avere parti separate abbia reso più facile fare l'unwrapping per ogni parte invece che farlo per una mesh unica? Se così fosse sì...è proprio così. Separare in più parti aiuta anche a non dover fare l' unwrapping unico di una mesh unica che rischia di diventare complessa. Ma non c'è nulla di sbagliato nel farlo, anzi. Ti faccio un esempio che forse aiuta. Un oggetto può essere composto da più meshes (parti separate) non c'è nessun obbligo assoluto che la mesh sia tutta un pezzo unico. Perchè magari uno può voler nascondere e visualizzare delle parti o insomma può volerci fare qualcosa con quelle parti che richiede che siano separate. E' qualcosa di previsto/ammesso ,nei file obj ,che contengano più meshes. Parti separate per un singolo oggetto. Quelle parti hanno ognuna la propria mappatura UV che occupa il proprio "posto" nell'immagine. Che poi, non vorrei complicare la questione, ma in realtà tecnicamente la mappatura è UNA soltanto. Mi spiego meglio: Il fatto di fare l'unwrapping per ogni parte e di pensarle come tante mappature UV diverse è una cosa che si viene indotti a pensare erroneamente da come è strutturato Rhino. In realtà tutti quegli oggetti (parti) di cui tu stai facendo l'unwrapping.. fintanto che tu sotto la mappatura UV hai sempre lo stesso nome (oppure non hai messo nessun nome) stai modificando in realtà un unica mappa UV. Infatti se tu esporti questo insieme di "parti" meshes ( come oggetto obj) e lo importi su qualsiasi programma come 3D coat piuttosto che substance painter o qualsiasi... ciò che viene letto è un unico file obj con un UNICA mappatura UV contenente tutte le isole e tutte le parti che tu hai posizionato. Anche se hai fatto l'unwrapping separatamente per ogni parte. Verrebbero fuori più mappature UV se tu mettessi il nome solo in alcuni oggetti e non in altri. Oppure se mettessi più nomi. Se non metti niente, tutto ciò che esporti va a finire nella stessa mappa UV chiamata "default" o defaultUV o qualcosa del genere. Chiaramente più un "isola" occupa una porzione grande nello spazio della mappa, più quella parte potrà avere dettaglio perchè la texture ha una sua risoluzione limitata. Le isole uv che fanno riferimento a parti con meno importanza puoi renderle più piccole. Nel momento in cui applichi la texture, applichi la stessa texture a tutto l'oggetto.
  8. thumb
    Sono andato un po' avanti con il mio gioco di prova introducendo alcune novità fra cui il sistema di camere fisse che seguono il personaggio , il danno da caduta, la morte, la possibilità di usare la torcia elettrica e l'acqua interattiva. I comandi sono spiegati nel menù, mi sono dimenticato di scrivere che ,quando non si è inquadrati da una telecamera fissa, è possibile ruotare la visuale tenendo premuto il tasto sx del mouse e muovendo il mouse. Per chi vuole darci un occhiata può scaricare la demo da qua: https://1drv.ms/u/s!AtBsCW--PWHVrWvZxwzb_4uEdt_d?e=4lQZfu
  9. thumb
    Vendo GTX 1070 MSI Gaming X 8GB GDDR5 (256-bit) a 350€ Core clocks: 1797 MHz / 1607 MHz (OC Mode) 1771 MHz / 1582 MHz (Gaming Mode) 1683 MHz / 1506 MHz (Silent Mode) 1920 CUDA cores Units Memory speed: 8108 MHz (OC Mode) 8008 MHz (Gaming Mode) 8008 MHz (Silent Mode) Dimensioni: 279 x 140 x 42 mm DisplayPort x 3 (Version 1.4) / HDMI 2.0b / DL-DVI-D
  10. prova con questi settaggi: Parte a sinistra: sotto Render: Progressive attivato oppure niente di attivato. Quality (preset) su High Denoiser -> attivato Sotto Camera: Depth of field disattivato oppure attivato con un defocus a ~ 0,2 - 0,26 Vicino a "fixed distance" clikka sull'icona "mirino" e poi ,con lo snap attivo, clikka su un punto che deve essere a fuoco nell'immagine. sotto Render Output: cambia la risoluzione Parte a destra: sotto Antialiasing Filther: puoi lasciare Lanczoz oppure mettere Catmull Rom (quest'ultimo da un pochettino di sharpness in più.) Puoi mettere 1 o 2 come passaggi del filtro antialiasing. (Sempre nell'ottica di avere la maggior nitidezza). C'è anche chi l'antialiasing lo toglie completamente sempre in quell'ottica di ottenere l'immagine il più definita possibile, ma in quel caso dovresti aumentare la risoluzione del render e poi scalarlo alla dimensione voluta in photoshop possibilmente con metodo "bicubic sharper (best for reduction)". Ma io terrei l'antialiasing anche per non aumentare troppo i tempi di rendering. Sotto global illumination: puoi mettere primary rays : Irradiance map; secondary : light cache sempre qui, puoi ridurre "Interpolation" e mettere un po' meno di 40.. tipo 30 o 25. Sempre in global illumination, subito di fianco la freccina piccola (quella che espande) puoi clikkarla e scorrendo giù e trovi nuove opzioni fra cui "Ambient occlusion". Se vuoi puoi attivare questa per avere un ombreggiatura aggiuntiva che mette in risalto forme che normalmente si confondono come ad esempio delle modanature su un oggetto dal colore bianco che si trova illuminato frontalmente o con una luce troppo diffusa per la quale,non essendo visibili zone d'ombra ed essendo tutto bianco, le forme tendono ad appiattirsi / non essere chiare. L'ambient occlusion applicato in maniera così "globale" può essere utile ma tuttavia non concorre ad un illuminazione realistica. Sotto Denoiser: metti "mild" al posto di default. Con "mild" dovresti avere un risultato comunque soddisfacente ma ,idealmente parlando, il denoiser potresti anche disattivarlo e cambiare sopra "noise limit" e mettere tipo 0,005 Il denoise fa risparmiare tanto tempo ma comunque la perdita di dettagli già quando impostato su "normal" è percettibile ad un occhio attento. Quindi idealmente non bisognerebbe neanche usarlo e mettere noise limit molto basso, tuttavia questo allunga molto i tempi. Quindi puoi anche usarlo e vedere se il risultato ti soddisfa.
  11. Non è possibile farlo. Non in modo "automatizzato". Non partendo da una sola immagine. Una vera mappa di profondità può essere fatta solo dispondendo di un modello 3D della scena ritratta nell'immagine e usando ad esempio Zdepth di vray. Oppure avendo una serie di foto che ne danno una rappresentazione stereoscopica. Se si tratta di una semplice immagine.. come può il pc determinare quali parti sono sporgenti e quali rientranti e quanto? Quasi impossibile. Non esiste un algoritmo simile. E probabilmente non esisterà per un bel po'. Sebbene ci stiano provando..
  12. Le luci compaiono nel pannello di Vray? Nel cercare di riprodurre il problema ho solo trovato un bug per il quale se inserisci una luce (vray) e poi la cancelli e poi annulli la cancellazione con ctrl+z , accade che la luce sia presente nella viewport ma non nel pannello vray come luce vray e dunque non emetta più nessuna luce. Al di là di questo bug, se creo una scena nuova e inserisco un piano, gli attribuisco un colore scuro e inserisco una IES o spotlight, non riscontro nessun problema.. funzionano entrambe fintanto che sono presenti nel pannello vray. Se vuoi condividi una scena con luci che non funzionano e cerchiamo di capire cosa può essere il problema.
  13. sembra già funzionare abbastanza bene in rhino 6... Il comando è "ToSubD" Può essere utile per alcune forme...
  14. Ciao ho disegnato (in Rhino) qualche oggetto random semplice e importato in UE4 (con il solo scopo di vederli ,in realtà) poi già che c'ero ho scriptato qualche semplice interazione spero vi piaccia se avete voglia di darci un occhiata. Pensavo man mano di crearne e poi disporli per una sorta di piccola stanza punta e clikka molto semplice e fine a se stessa. https://1drv.ms/u/s!AtBsCW--PWHVrRsroutt6gJVesSp?e=WgSIfc
  15. Prima che mi appassionassi di Rhino, anni fa, usavo 3D studio max (e altri software prima e durante, a dir la verità). Certo: non c'è alcun dubbio del fatto che la suite 3D studio sia bella corposa, versatile, a tutto tondo, con un intento e una strategia completamente differente da Rhino, strumenti per rig, animazione, simulazione.. di tutto e di più. Ma mi permetto di dissentire sul fatto che 3D studio max o Cinema4D si faccia "tutto". Mi spiego meglio: non penso che sia neanche pensabile di tenere installato solo Max. Partendo dal fatto che personalmente non trovo la modellazione poligonale "tradizionale" in Max così tanto "versatile" per ogni occasione (anzi), questa potrebbe essere solamente una mia impressione se non fosse per un piccolo dettaglio: Quando uscì Z-Brush ebbe un successo stratosferico dato dal fatto che ,evidentemente, la modellazione attraverso gli strumenti tradizionali proposti fino ad allora da max, non si rivelava essere così "definitiva". In particolare per la modellazione organica. Molti artisti continuano a preferir realizzare alcuni soggetti in Z-Brush che non in Max (o Cinema). E ,volendo, si potrebbe trovare un programma ideale per ogni tipo di soggetto che occorre modellare. Si finirebbe per usarli tutti. Questo è solamente un esempio ma potrei farne un altro: Alzino la manina quanti usano max e ,nonostante esso integri tutta una serie di strumenti per la simulazione dei tessuti, accorpano ad esso Marvelous Designer? Tantissimi. Quanti accorpano a Max .. che ne so.. Real Flow?.. Speed Tree? Eppure max integra anche la simulazione particellare.. la creazione di piante. Su max si può fare anche il painting sul modello.. ma quanti poi usano 3D Coat o Substance Painter? Per ogni ambito si trovano programmi specializzati che soddisfano maggiormente le richieste di chi li usa. Anche perchè proporsi di soddisfare "ogni aspetto alla perfezione" in unica suite, è un intento veramente ambizioso. Quindi alla fine della fiera no: Nemmeno il ,pur vastissimo, 3DsMax è uno strumento "definitivo" di per sé.
×
×
  • Create New...