Jump to content
bn-top

Michele71

Moderatori
  • Posts

    10149
  • Joined

  • Last visited

  • Days Won

    150

Michele71 last won the day on June 25

Michele71 had the most liked content!

Professional Info

  • Employment
    Libero Professionista (Freelancer)

Recent Profile Visitors

69345 profile views

Michele71's Achievements

  1. Quindi quanto pensi di far pesare in numero di poly l'intero modello?
  2. Aooooooooooooooooooooooooooooooo!!! Ma che è tutta sta tristezza??? Ennamo è! Già ciò problemi de mio, nun ve ce mettete pure voi è! Quindi, bello vedere Rob alla ribalda con un wips, cosi mi aggrego anche io. Aggiungi software in uso, qualche chicca tecnica etc. etc che sono curioso! Dajeeeeee!!
  3. Il discorso è, se fosse il bios per davvero e hai interrotto il tutto, butta la scheda madre... comunque vediamo @zatta 3d che dice... Nel frattempo, per non saper ne leggere e ne scrivere, rimuovi tutti gli HD presenti (almeno ti prendi cura di loro). Poi prova a riavviare e vedi che succede. Fai cosi per tutti gli hardware che hai e si va per esclusione, finche non rimane solo la SM...
  4. E' il bios della scheda madre che sta aggiornando... non vorrei che facendo il reboot o altro hai compromesso il tutto...
  5. Materialize ha una funzione di "fusione" dei bordi. Quando crei la mappa "Heigh", è selezionabile il pulsante "Tile Map". Se lo premi noterai che la tua texture diventa un "pow*2" ovvero una texture 512x512 ecc (puoi deciderlo tu). Con "Edge Falloff", "Overlap x e y" ti sistemi la rifinitura dei bordi, rendendo cosi di fatto il materiale "tilable" o ripetibile. Una funzione molto utile perché ti permette di usare foto che non sono ripetibili, e che con le giuste accortezze le rendi tali. Sperimenta Materialize perché è più potente di quello che si vede in superficie
  6. Bello !! Materialize è fantastico, soprattutto poi è free!!!
  7. Puoi anche vedere: https://www.rendernode.com/creating-seamless-tileable-textures-in-photoshop/ https://medialoot.com/blog/how-to-make-a-seamless-texture-in-photoshop-redux/ https://nosatispassion.altervista.org/photoshop/3633/come-creare-una-seamless-texture/ https://youtu.be/SK26V0IyHIE C'è anche un bel programma che ha una funzione "seamless" e si chiama Materialized Esso fa per te, dato che vuoi creare pattern per videogame
  8. Michele71

    Photoshop freemium

    @roberto2004 prova con questo link: https://creativecloud.adobe.com/cc/photoshop A me lo da come Adobe Photoshop for Web
  9. Durante il discorso programmatico GTC del mese scorso del fondatore e CEO di NVIDIA Jensen Huang, è stato presentato un filmato per mostrare al meglio le capacità rivoluzionarie della piattaforma Omniverse. Si tratta di una cucina Ramen, modellata da più di 20 artisti Nvidia sparsi per il mondo renderizzata tramite GPU usando appunto la tecnologia NVIDIA Omniverse. I software utilizzati sono stati Substance 3D Painter, Substance 3D Designer, Blender, ZBrush, Cinema 4D, Houdini, 3ds Max. I connettori Omniverse e il formato Universal Scene Description di Pixar hanno consentito di importare i modelli senza problemi nell'app Omniverse Create. La scena finale conta oltre 22 milioni di poligoni, 350 modelli con texture uniche e 3.000 mappe di texture con risoluzione a 4K. La demo è stata creata per mettere in evidenza le capacità di rendering in tempo reale e simulazione fisica basate su NVIDIA RTX di Omniverse. Tutte le sue parti della sono fisicamente accurate e fotorealistiche, dagli elettrodomestici da cucina fino alle ricevute degli ordini sparse qua è là; infatti come affermato da Andrew Averkin, (senior art manager e lead environment artist di NVIDIA) "I membri del nostro team erano affamati solo a guardare i rendering"! Gli artisti hanno utilizzato Adobe Substance Painter per strutturare i materiali. Lo stesso Averkin afferma che "Alcuni dei nostri artisti sono arrivati al punto di cucinare delle ricette e di prendere riferimenti sulle proprie pentole per avere una idea di come potrebbero accumularsi macchie di salsa o bruciature". Gli artisti hanno utilizzato Omniverse Flow per la simulazione fluida e Omniverse Extension per fumo e fuoco. Il software SideFX Houdini ha aiutato ad animare l'acqua bollente, anch'essa importata utilizzando un connettore Omniverse. Infine l'animazione della telecamera di Omniverse Create ha permesso agli artisti di catturare la scena finale tracciata in tempo reale, esattamente come osservata attraverso il viewport. Nvidia Omniverse è liberamente scaricabile cosi come enterprise teams, piattaforma per condividere i progetti 3D. L'unica "limitazione" è che Omniverse è progettato per funzionare su qualsiasi macchina alimentata da RTX. Si consiglia di utilizzare GeForce RTX 2080, Quadro RTX 5000 o superiore. Per maggiori informazioni riguardante questo fantastico lavoro: https://blogs.nvidia.com/blog/2022/04/25/making-of-omniverse-ramen-shop/ Se vuoi scoprire di più su Omniverse : https://www.nvidia.com/en-us/omniverse/
  10. Michele71

    Photoshop freemium

    Per quello che ho capito è in versione "beta" per gli abbonati. Ho cercato molteplici fonti ma non ho trovato nulla. Prova a cercare sul sito Canadese di Adobe per qualche info in più. Se affermativo, dacci ragguagli in più
  11. Michele71

    Photoshop freemium

    Questa news è un'anteprima trapelata proprio in questi giorni. Adobe ha deciso di "regalarci" Photoshop sul Web gratuito per tutti. Nell'Ottobre scorso Adobe rilasciò per la prima volta la sua versione Web di Photoshop, un programma semplificato atta alla gestione di modifiche base (un po' come Photopea). Inquadrato inizialmente come strumento di condivisione tra abbonati, con possibilità di annotazioni e apportare piccole modifiche tra lavori diversi ma direttamente dal programma per Desktop tramite web, Adobe ha iniziato ad aprirlo oltre i casi d'uso della collaborazione dove qualsiasi utente registrato (e non in possesso del piano di abbonamento) può accedere e avviare un nuovo documento direttamente dal Web. L'obiettivo di Adobe è di utilizzare la versione Web di Photoshop per rendere il programma più accessibile e agganciare potenziali utenti che vorranno in futuro pagare per la versione completa (simile al percorso intrapreso per Fresco ed Express). La versione gratuita viene attualmente testata dagli utenti del solo Canada, ed il servizio è descritto come "freemium"; ciò significa che alcune funzionalità saranno esclusiva dei soli abbonati. Come afferma Maria Yap (VP of digital imaging di Adobe) "Vogliamo rendere Photoshop più accessibile e più facile per consentire a più persone di provarlo e provare il prodotto". Non ci resta che aspettare la versione "gratuita" sia disponibile per tutti, quindi rimanete sintonizzati qui su Treddi per futuri aggiornamenti!
  12. Vediamo se @zatta 3d può aiutarti. p.s: Non aprire più discussioni identiche per avere visibilità. Se qualche utente vuole rispondere, lo farà sicuramente. Verrà cancellato il clone.
  13. Partiamo con il dire che questa non è una e vera propria news, ma bensì un'anteprima su di un nuovo modo di "vedere" ciò che ci circonda con l'ausilio del rendering fotorealistico, supporto scientifico e sperimentale. A tal proposito la tecnologia NeRF e tutte le sue implicazioni, risulta essere la punta di diamante di un intero studio verso future applicazioni. Questa news potrebbe essere "pesante", ma se si libera la fantasia che è in noi, a fine lettura scopriremo miliardi di possibilità offerte da questa tecnologia. Memories from Portland - The Portland Japanese is a splendid place NeRF synthesized using @NVIDIAAIDev's Instant ngp by Hugues Bruyère Nel 2020, il documento NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis presentò un nuovo metodo per sintetizzare viste di scene complesse ottimizzando una funzione di scena volumetrica continua e un insieme sparso di viste di input. Mip-NeRF, dimostrò che era possibile estendere NeRF per rappresentare scene su scala a valore continuo, riducendo efficacemente gli artefatti di aliasing e migliorando significativamente le prestazioni dell'approccio originale. In sintesi, è possibile creare rendering fotorealistici 3D di scene molto grandi da nuove angolazioni della telecamera preservando i dettagli molto fini con l'ausilio dei campi di radianza neurale, la quale, hanno dato risultati impressionanti di sintesi della vista su oggetti e regioni delimitate dello spazio. A NeRF capture of the sculpture outside Glyptoteket in Copenhagen: “Lion with Snake” @NVIDIAAIDev's Instant ngp by Nikolaj Stausbøl I modelli basati su NeRF sono efficaci su di una scena illimitata, in cui la telecamera può puntare in qualsiasi direzione e il contenuto può esistere a qualsiasi distanza? Da questa domanda nasce Mip-NeRF 360 (estensione di Mip-NeRF) la quale utilizza una parametrizzazione della scena non lineare, una distillazione online e un nuovo regolatore basato su distorsione, per superare le sfide presentate dalle scene illimitate in cui la telecamera ruota di 360 gradi attorno a un punto. (profondità e rendering) Quando si parla di campi di radianza neurale, significa che abbiamo coinvolta, ovviamente, una rete Neurale, una Radianza (nient'altro che la luminosità della scena emessa dalla rete neurale o quanta luce viene emessa da un punto nello spazio in ciascuna direzione) e dei Campi, ovvero la Rete Neurale che modella una rappresentazione continua della scena che apprende. In parole povere, un campo di radianza neurale è una rete neurale che modella il punto e una direzione di osservazione in uno spazio 3D alla quantità di luce che viene emessa da detto punto in ciascuna direzione in modo non discrezionale. Mip-NeRF 360 è fondamentalmente una variante del NeRF originale, il quale è basato su coordinate per modellare la densità volumetrica e il colore di una determinata scena utilizzando un modello di rendering volumetrico simile al Ray-Tracing. Purtroppo questo sistema ignora sia l'impronta relativa del pixel dell'immagine corrispondente, sia la lunghezza dell'intervallo lungo il raggio contenente il punto cosi da avere artefatti di aliasing durante il rendering di nuove traiettorie della telecamera. Mip-NeRF risolve questo problema utilizzando l'impronta dei pixel proiettata per campionare i tronconi conici lungo il raggio anziché gli intervalli, e utilizza distribuzioni gaussiane multivariate per rappresentare volumi 3D in una determinata scena. Partendo da questo presupposto, nascono alcuni problemi; Le scene a 360° illimitate possono occupare una regione arbitrariamente ampia dello spazio, ma Mip-NeRF richiede che le coordinate della scena 3D si trovino in un dominio limitato. I tipi di parametrizzazione usati sono NeRF++, che utilizza una rete aggiuntiva per modellare oggetti distanti, e DONeRF, che propone una procedura di deformazione spaziale per ridurre i punti distanti verso l'origine ma entrambi hanno delle limitazioni. In Mip-NeRF, le telecamere proiettano gaussiani nella scena, ma in uno spazio illimitato ciò si traduce in gaussiane molto lontane dall'origine e molto allungate. Questo è un problema per Mip-NeRF la quale richiede uno spazio di coordinate limitato e gaussiane isotropiche. Si tenta cosi di risolvere la parametrizzazione di scene a 360°, definendo un warp che mappa uniformemente tutte le coordinate al di fuori di una sfera di raggio 1 (mostrata in blu nella figura seguente) in una sfera di raggio 2 (mostrata in arancione nella figura seguente). Questa curvatura è progettata per contrastare la spaziatura non lineare definita dalle Gaussiane Mip-NeRF. Ciò consente di deformare le gaussiane in modo tale che in una scena illimitata risieda in una sfera di raggio 2 (mostrata in arancione nella figura seguente). Una sfida fondamentale nell'affrontare scene illimitate è che quest'ultime sono grandi e dettagliate e richiedono un numero significativamente maggiore di campioni lungo ciascun raggio per localizzare accuratamente le superfici. Ciò rende il ridimensionamento della rappresentazione computazionalmente costoso. Per accelerare notevolmente la rappresentazione, si tenta di "distillare" la geometria della scena da un grande MLP NeRF in un piccolo MLP durante l'ottimizzazione con un "addestramento" e campionamento dei pixel e istogrammi con procedure complesse (vedi alla fine dell'articolo per maggiori informazioni). Sebbene i NeRF siano tradizionalmente ottimizzati utilizzando molte immagini di input di una scena, il problema del recupero di un NeRF che produce viste sintetizzate realistiche da nuove angolazioni della telecamera è ancora fondamentalmente limitato. Questo problema di ambiguità viene affrontato nella pipeline Mip-NeRF 360 utilizzando un semplice regolarizzatore sull'istogramma di ciascun raggio minimizzando la distanza assoluta ponderata tra tutti i punti lungo il raggio e questo incoraggia ogni istogramma ad essere il più vicino possibile a una funzione delta. Warehouse Skyway - NeRF synthesized using @NVIDIAAIDev's Instant ngp by Hugues Bruyère Il risultato di questi complicate operazioni è mostrato tramite le prestazioni di Mip-NeRF 360 su un nuovo set di dati di 9 scene interne ed esterne. Come mostrato, Mip-NeRF 360 è in grado di produrre rendering fotorealistici di una scena da posizioni invisibili della telecamera date un paio di centinaia di immagini in posa della scena. Ablating Parameterization Ablating Online Distillation Ablating the Regularizer Comparison with Mip-NeRF Comparison with NeRF++ Comparison with Stable View Synthesis + COLMAP Alcuni esempi di NeRF: https://twitter.com/jonstephens85/status/1530758807294316545?s=20&t=dL2QP9asmPely1EHPZrQaw https://twitter.com/_ScottCondron/status/1535219176972992512?s=20&t=4fZXIB048SjgFUE1n9wcMQ https://twitter.com/AlexTench/status/1534699004969242624?s=20&t=4fZXIB048SjgFUE1n9wcMQ Sebbene Mip-NeRF 360 superi notevolmente Mip-NeRF (e altri lavori precedenti), esso non è perfetto dato che alcune strutture sottili e dettagliate potrebbero non essere rilevati, come i raggi del pneumatico nella scena della bicicletta o le vene sulle foglie nella scena del tronco. Come la maggior parte dei modelli simili a NeRF, il recupero di una scena richiede diverse ore di addestramento su un acceleratore, precludendo l'addestramento sul dispositivo In conclusione, la tecnologia NeRF in associazione con le nuove frontiere "neural networks" o Nvidia IA dev ad esempio, portano l'immagine oltre la naturale finalizzazione, aprendo progetti e prospettive infinite. L'attualizzazione del rendering basato sul ray-tracing, sulla neuralità, sui campi, sui pixel, sui livelli di luce portano l'inimmaginabile di qualche anno fa alla realtà attuale, dove le immagini, video e la condivisione si sono fusi in un tutt'uno rendendo possibile l'impossibile. Per leggere in modo più approfondito e dettagliato l'argomento toccato in questa news riguardante la tecnologia NeRF e i suoi campi di utilizzo: https://wandb.ai/geekyrakshit/mip-nerf-360/reports/Mip-NeRF-360-Unbounded-Anti-Aliased-Neural-Radiance-Fields--VmlldzoxOTc4Mjk4 Per maggiori informazioni a riguardo l'intero universo e il suo sviluppo dell tecnologia NeRF: https://wandb.ai/pandeyparul/posts/Launching-the-W-B-Blogathon---VmlldzoyMDg4NjQz
  14. Michele71

    USD Hydra Plug-in per Blender

    Disponibile USD Hydra, versione 1.1. Tra le novità troviamo: Supporto per il riferimento e l'esportazione di file USD animati. Rendering con delegati RenderMan Hydra della Pixar. Supporto per Blender 3.1 e 3.2. Molte altre correzioni basate sul feedback degli utenti. Per il download: https://github.com/GPUOpen-LibrariesAndSDKs/BlenderUSDHydraAddon/releases/tag/v1.1.1
×
×
  • Create New...