Jump to content

Search the Community

Showing results for tags ' vr'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Help
    • F.A.Q.
  • Discussioni
    • Presentazioni
    • General
    • (W.I.P.) Work In Progress
    • Hardware
    • Job Offering
    • Mercatino dell'usato
  • 3D and 2D Graphics Programs
    • 3ds Max
    • Blender
    • Maya
    • Cinema 4D
    • SketchUp
    • Rhinoceros
    • Autocad and CAD programs
    • BIM programs
    • Unreal Engine, Unity and realtime engines
    • ZBrush
    • CG Software
  • Render Engines
    • V-Ray
    • Corona Renderer
    • Render Engines
  • Final
    • [FINAL] Architettura e Interior Design
    • [FINAL] Immagini CG/VFX
    • [FINAL] Animazioni CG/VFX
    • [FINAL] Immagini e disegni 2D
  • Old Forum
    • Contest Terminati
    • Tips & Techniques
    • Tutorial Professionali con il supporto del docente
    • Forum Commerciali
  • Lighting Design & Render's Forum
  • Lighting Design & Render's Risorse e Link utili
  • BIM, Revit e dintorni.'s Generale
  • BIM, Revit e dintorni.'s Famiglie e masse
  • BIM, Revit e dintorni.'s Architettura
  • BIM, Revit e dintorni.'s Strutturale
  • BIM, Revit e dintorni.'s MEP
  • BIM, Revit e dintorni.'s Dynamo
  • BIM, Revit e dintorni.'s Risorse
  • finalRender4's Forum
  • Unreal Engine's Forum
  • CORONA RENDERER's Forum
  • V-Ray's Forum
  • Blender's Forum
  • 3ds Max's Forum
  • Rhino & Grasshopper's Forum
  • DDD - Digital Drawing Days's Forum
  • Cinema 4D's Forum
  • Game e dintorni...'s Forum
  • Contest Natale 2017's WIP Contest
  • Campus Party 2019's Discussioni
  • FSTORM RENDER's Forum

Categories

  • Tutorial
  • News
  • Hidden
  • Show Room
  • Articoli
  • Interviste
  • Making Of
  • Cinematiche, Corti e Spot

Categories

  • Meshes e Scene
    • Archviz & Interior Design
    • Furniture
    • Lights
    • Lumina Lamps
    • Appliances and Electronics
    • Vegetation
    • Vehicles
    • Organic
    • Misc Objects
  • Textures e immagini HDRI
  • Script e utilities
  • Premium
  • Collezione di Shader
    • 3DSMax - VRay
    • 3DSMax - Mental Ray
  • Misc
  • Treddi Open Contests

Product Groups

There are no results to display.


Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Sito Web

Found 58 results

  1. Enscape è un motore di rendering in grado di interfacciarsi come plugin in Rhino, Revit e SketchUp per produrre contenuti real time a video o in VR, sulla base dei principali supporti attualmente disponibili (Oculus Rift e HTC Vive). Enscape è inoltre in grado di produrre contenuti pre-renderizzati, tra cui le utili immagini 360 visualizzabili con Google Cardboard o viewer mobile equivalenti. L'integrazione con Rhino (in modalità Live Link) costituisce la principale novità di Enscape 2.1. Il progetto è visualizzabile in tempo reale nell'interfaccia di Enscape. La modalità Live Link con il software in cui vengono creati i contenuti è ovviamente molto utile a supportare le fasi di progettazione. Fondamentale inoltre la possibilità di creare un eseguibile indipendente, che consente di visualizzare in walktrough la scena esternamente, feature studiata appositamente per condividere il progetto con i clienti e tutti coloro che non sono necessariamente tenuti a disporre di Rhino. A livello di integrazione, Enscape è presente con una toolbar all'interno di Rhino, mentre la visualizzazione avviene in un'applicazione indipendente, la cui viewport si aggiorna in tempo reale a seguito delle modifiche effettuate sulla scena e sui vari setting. Le modalità di utilizzo sono relativamente intuitive, in quanto il software è concepito per offrire soluzioni di rendering semplici ai progettisti, non necessariamente agli esperti in visualizzazione architettonica. I seguenti trailer, tratti da una sezione video che contiene peraltro una serie di videotutorial molto pratici, offrono una sintesi efficace delle feature presenti in Enscape. Enscape è disponibile anche per Revit e SketchUp, avendo quale target di riferimento l'architettura ed il settore AEC e viene proposto con un price vario, basato su licenze rental che vanno da 449 a 679 dollari all'anno. Disponibile una trial version limitata a soli 14 giorni. Per ulteriori informazioni relative al funzionamento di Enscape.
  2. Unity Technologies ha rilasciato la prima versione beta di Unity 2018.1. Le novità introdotte riguardano Scriptable Render Pipeline, una nuova pipeline di rendering scriptable che promette di rendere più facile ottenere il massimo dall'hardware odierno e personalizzare la pipeline di rendering tramite codice C# e shader di materiali. Per lavorare con SRP, Unity 2018.1 include un nuovo Visual Shader Editor che consente agli utenti di costruire shader in modo visuale usando un'interfaccia basata su nodi invece di collegare linee di codice. Non ancora disponibili invece il C # Job System e il sistema di componenti Entity che renderanno più semplice scrivere codice multithread sicuro in modo da aumentare le prestazioni. Per maggiori informazioni: https://blogs.unity3d.com/2018/01/10/get-early-access-to-unity-2018-1-the-beta-is-out/
  3. Il connubio tra arte e digitale si arricchisce ogni giorno di esperienze in grado di andare ben oltre la dimensione della novità, della curiosità sulla tecnologia del momento. Quel non so che di trendy in grado di attirare pubblico senza nemmeno porsi il problema del contenuto. La Tate Gallery di Londra ce lo dimostra con The Ochre Atelier, un'esperienza in Realtà Virtuale in grado di catapultarci all'interno dello studio parigino di Amedeo Modigliani. L'iniziativa, realizzata in collaborazione diretta con HTC, è disponibile sia al centro della mostra dedicata all'artista livornese, dove sono installati ben nove HTC Vive, che sulla piattaforma Viveport. La VR Experience, dalla creazione dei contenuti 3D all'installazione interattiva, è stata realizzata dallo studio londinese Preloaded, che ha collaborato in strettissima collaborazione con i ricercatori e i curatori della mostra. L'esperienza digitale è infatti il risultato di un lungo percorso di studi e analisi, utili a reperire un'ampia base documentale, indispensabile per consentire agli sviluppatori le informazioni essenziali per realizzare un prodotto credibile dal punto di vista scientifico, oltre che in grado di generare coinvolgimento presso un pubblico generalista, spesso tutt'altro che evangelizzato dal punto di vista della realtà virtuale. Il processo di ricerca è durato ben cinque mesi ed è consistita nel passare al setaccio sia l'edificio, che gli interni e gli oggetti che componevano l'ambiente in cui Modigliani ha realizzato i suoi ultimi capolavori. All'interno dello studio in VR di Modigliani sono state ricostruite in 3D anche due opere dell'artista: Jeanne Hebuterne (sua compagna nel momento della realizzazione, NdR) e Autoritratto, risalenti al 1919, l'anno che ha preceduto la scomparsa dell'artista. Un reference board sviluppato da Prealoaded per la ricostruzione in 3D dello studio di Modigliani (credits Preloaded) L'obiettivo congiunto dei curatori della mostra e di Preloaded, è quello che generare una vera immersione, dare la sensazione di trovarsi accanto all'artista, ed è la ragione per cui l'attenzione non si sofferma soltanto sulle tele, sui pennelli e sulle tavolozze, ma su moltissimi dettagli, a cominciare dal lighting dell'ambiente, risultato di un'attenta analisi delle finestre che caratterizzavano le aperture dello studio. A completare il tutto, particolari apparentemente superflui, ma decisivi nel rendere completo il racconto di un'esperienza immersiva, come le scatole di sardine e i pacchetti di sigarette. Prealoaded, nella redazione del proprio caso studio sull'esperienza VR su Modigliani, ha sintetizzato in cinque fattori chiave il briefing della propria collaborazione con la Tate Gallery. 1 - Entry level basso, facile da usare e accessibile a tutti, anche a chi è inesperto dal punto di vista informatico; 2 - Creare empatia con Modigliani, come l'uomo che avremmo potuto conoscere; 3 - Grande attenzione per l'autenticità, sia nei concetti che nei dettagli della scena; 4 - Allinearsi agli standard della Tate Gallery in merito al rigore intellettuale e scientifico delle rappresentazioni; 5 - Realizzare un'esperienza esclusiva, che non si potrebbe vivere in un altro modo; In generale potrebbero essere i cinque comandamenti per qualsiasi VR Developer in ambito culturale, e lo sono a maggior ragione se guardiamo nello specifico la figura di Modigliani. Innanzitutto la capacità di esprimere come l'artista non utilizzasse l'atelier soltanto come studio, ma anche come abitazione, in un periodo molto particolare della sua vita, in procinto di sposare Jeanne Hebuterne, con un bambino piccolo ma con l'inesorabile debito di salute non certo agevolato da una vita da bohemienne. Conoscere questi aspetti, relativi alla vita privata di Modigliani ha agevolato notevolmente il compito degli artisti chiamati in causa per ricreare lo studio in 3D. Queste informazioni hanno consentito di ricreare alla perfezione il quadro delle condizioni in cui viveva Modigliani e generare quell'empatia con il visitatore che costituisce una chiave essenziale per il successo di qualsiasi esperienza immersiva in VR. La direttrice della Tate Modern, Frances Morris, si è detta molto soddisfatta del risultato della collaborazione con Preloaded per quello che è stato l'esordio assoluto da parte della Tate Gallery con questo genere di tecnologie a supporto di una grande mostra d'arte: "Siamo entusiasti del risultato della collaborazione, ci consente di offrire ai visitatori un nuovo genere di esperienza. Per noi è indispensabile esplorare le possibilità creative, e la realtà virtuale ci aiuta a guidare il pubblico verso una comprensione più profonda di un artista amato come Modigliani". La mostra rimarrà aperta alla Tate Gallery di Londra fino al 2 aprile 2018. La fruizione della Modigliani VR Experience non comporta costi aggiuntivi sul tagliando dell'ingresso, ma è obbligatoria un'apposita prenotazione. La mostra, al di là della sua finestra virtuale, comprende circa un centinaio di opere tra pitture e sculture, articolati sul periodo dell'intera carriera di Modigliani. Se passate da Londra nei prossimi mesi, sapete certamente come occupare il vostro tempo libero. Per informazioni su Modigliani Virtual Reality.
  4. Se Unity e Unreal Engine la fanno da padroni sulla scena dei software 3D real time, ci sono altri prodotti molto interessanti, che chi intende specializzarsi in questo ambito deve necessariamente tenere in considerazioni. Prodotti come Lumberyard, erede di quel CryEngine acquisito da un colosso come Amazon, piuttosto che sostenuti da sviluppatori decisamente più Indie. E' il caso di Unigine. Il recente Unigine 2.6.1, pur proponendosi principalmente come un "maintenance update" aggiunge feature molto interessanti ad un software già molto promettente, introducendo elementi molto importanti come il Rendering Multi-Channel ed un complesso sistema di creazione e gestione di vegetazione, strade ed elementi ambientali, con un Landscape tool proprietario reso sempre più completo. Per avere un'idea delle potenzialità di Unigine è sufficiente uno sguardo ad alcuni filmati dimostrativi, come quelli che vi proponiamo. In particolare il video del simulatore di volo integra molte delle feature introdotte in Unigine 2.6 Vi riportiamo un estratto (in lingua inglese) delle feature di Unigine 2.6.1, rilasciate sul sito ufficiale dello sviluppatore. UNIGINE 2.6.1 - KEY CHANGES Better configurator for nonlinear image warping and edge blending.More robust multi-channel rendering with remote projection configuration.Improved CIGI protocol support.Improved generation of grass and clutters, increased performance, runtime modification.Added distributed terrain generation for Landscape tool.Improved UnigineEditor 2.Overall engine improvements and bugfixes.More C++ samples.APP PROJECTION PLUGIN The AppProjection plugin has evolved with support for adaptive grid, complex-shaped masks, blend maps and C++ API. Configuration of nonlinear image warping and edge blending for multi-projector setups has become an easier task. The complete list of improvements includes the following: Support for adaptive grid, now it is possible to set an arbitrary number of control points.Improved visual editor offers flexible tuning of warping parameters for each control point.It is now possible to create and edit masks to cut certain regions out.Added C++ API and a set of new methods (The complete list of API changes is available in the API Migration Guide).The interface of Projection Configurator has transformed and became more convenient, all settings are now displayed on different tabs. Warp tab contains geometry correction settings. New adaptive grid lets you set an arbitrary number of control points along horizontal and vertical axes. Precise positioning and flexible tuning of warping parameters for each control point, provided by the improved visual editor, give you full control over the image geometry to fit the required screen configuration. You can also use the Render Debug option to temporarily set individual colors for different projections. This helps to visualize overlapping regions for different projections and facilitates the setup process.Color tab contains color correction settings. Here you can set up color intensity, and adjust color balance for the selected projectionBlend & Mask tab allows you to configure edge blending and create complex-shaped masks to cut certain regions out. You can create and modify multiple masks using visual editor. SYNCKER After a huge revamp introduced in the previous release the Syncker plugin continues to evolve. Syncker options can now be changed via the Plugins tab of the system menu, displayed when the Esc button is pressed. GUI View Configuration Introducing new GUI view configuration for Syncker, making it possible to set up projections remotely on a Slave computer. To configure projections on the Master or a Slave, open the system menu by pressing Esc, go to Plugins tab and enable Show projections configuration option. IMPROVED GENERATION OF GRASS AND CLUTTERS Generation of ObjectGrass, ObjectMeshClutter and WorldClutter objects has improved, with the use of multithreading and other performance optimizations. Overall performance has increased significantly. Now it is possible to modify grass and clutters at runtime (cut trees and stamp the grass flat) via API. The complete list of improvements includes the following: Clutter generation is now performed in separate threads.Optimized grass / clutter generation performance and improved update logic (no more jitter on parameter change).Added new invalidate() methods for regeneration of grass / clutter cells.Added bend parameter for ObjectGrass, that allows you to create bent grass.Added ObjectMeshClutter::getClutterTransforms() method, that makes it possible to obtain transformations for all clutter meshes. The precision flag indicates whether clutter transformations will be collected for meshes within bounds,or within clutter cells.Added ObjectMeshClutter::setClutterExclude() method,that allows you to remove all the cells within certain area and skip their generation.Added world_spawn_list console command to monitor generation requests for ObjectGrass and ObjectMeshClutter nodes.Removed excessive ObjectGrass updates when a node is not visible. LANDSCAPE TOOL The evolution of the Landscape Tool brings a number of new features and improvements. Terrain generation is a complex task and may require a substantial amount of time depending on the area size and data resolution. Landscape Tool now enables you to use the advantages of distributed computing in the process of terrain generation. Generation time for large terrains can be significantly reduced, as the performance increases linearly for certain tasks. For more information on distributed terrain generation please refer to the Distributed Computing article. Roads generation has also become better. Terrain heights and masks can be adjusted for generated roads to provide better alignment and prevent vegetation from growing on the roads. This can be done in one click by simply selecting the Adjust terrain masks and heights option when setting up road generation parameters. No roads Roads with adjustment EDITOR 2 We continue our work on improving the new UnigineEditor 2 to make it even more convenient and powerful tool. The following improvements were made for this release: Added support for per-node property modification.Improved assets validation time. All *.asset files will have to be re-committed once, as hash values for all files will change.Added progress bars for assets validation and reimporting at startup.Improved GUI performance on operations with multiple objects.Improved organization of UI elements in the Parameters window with a new Accordion widget. You can now collapse and expand groups of UI elements.Improved structure and added tooltips for states, textures and parameters of the core base materials displayed in the Parameters window.Overridden property and material parameters are now highlighted in green.Fixed various issues with FBX support.Added support for OBJ, 3DS and DAE (COLLADA) formats.Added a Merge similar materials import option, that allows you to merge multiple identical materials with different names into a single one. This option is very useful for importing complex models from various CAD systems.Extended the set of supported image formats and added point filtering for imported textures.Added support for rotation and scale to the Randomizer tool.All assets in the Asset Browser are now sorted by name.Asset names are now displayed in the fields of the Parameters window instead of the names of runtime files.The contents of the NodeReference tab of the Parameters window are now merged into the Node tab.NodeReference content is now automatically selected when Edit button is clicked.Fixed applying changes to nested NodeReferences.Improved usability of the FieldHeight attenuation slider.Added undo/redo for grass and clutters mask editing.Fixed incorrect object movement with snapping enabled.Editor configuration file is now stored in the following folder:C:/Users/AppData/Local/Unigine/Editor/ (Windows)~/.config/Unigine/Editor/ (Linux)Other bugfixes and UI improvements.TERRAIN GLOBAL Improved intersection detection. Added ObjectTerrainGlobal::setForceIntersection() method, that enables/disables forced loading of necessary terrain tiles to ensure correct intersection detection. When enabled, this option may significantly reduce performance. Thus, it is recommended to enable it, perform intersection check, and disable it again.Now it is possible to add new LODs atop of the most detailed one. This feature can be used for creating high-detail insets with brushes or via API.Improved Brushes UX.Asset system now supports terrain detail arrays.Fixed crashes with LODs removal in cases when vegetation objects present on the terrain.Fixed incorrect brushes projection when viewport camera is locked.Fixed bug when terrain mask list was not refreshed after terrain re-generation with the Landscape Tool.RENDERER Improved the billboards_base material, now it is possible to use billboards to simulate various types of specialized lights. The list of key improvements includes the following: Added geometry inflation allowing the user to limit minimum billboard screen size (in pixels) to a fixed value in order to provide visibility from far distances.Added billboard size scale.Added horizontal and vertical angle limits (negative Y axis will be selected as forward axis) for angle-dependent visibility.Added haze support for emission pass. OTHER CHANGES Fixed instanced omni lights in OpenGL.No more driver crashes on shader errors.More robust shader cache generation.Removed various shader warnings.DOCUMENTATION The complete list of API changes is available in the API Migration GuideThe complete list of Console command changes is available in the Console Migration Guide.Added Video tutorials on UnigineEditor 2 interface:Added UnigineEditor 2 section.Added article on the *.spl file format.La documentazione integrale è disponibile al seguente link. https://developer.unigine.com/en/devlog/20171222-unigine-2.6.1
  5. Im-Arch è la Conferenza Internazionale di Architettura Immersiva che si terrà a Venezia il 1-2 giugno 2018 sull'isola di San Servolo. Si parlerà di realtà virtuale, realtà aumentata e mixed reality in architettura, nel design, nelle installazioni per musei e per negozi, e tutte le tecnologie saranno a disposizione del pubblico nelle cinque VR Room. Se sei iscritto alla Community di Treddi.com potrai usufruire di uno sconto di 25 euro su tutti i biglietti della Conferenza Im-Arch (anche su quelli già scontati). Inoltre, solo per la Community di Treddi.com, la scadenza della Call for Speakers & Call for Showcase è prorogata di 10 giorni (termine ultimo il 25 dicembre 2017) Per richiedere i codici sconto personali mandare una email a: info@treddi.com indicando la propria username su Treddi.com Per informazioni e approfondimenti: www.im-arch.com
  6. 3ds Max 2018 riceve il suo quarto update ufficiale, che contiene sostanziali migliori a main feature introdotte nei tre precedenti main pack. Al di là di una lista che prevede oltre 100 punti tra implementazioni e bug fixes, le note di rilievo sono soprattutto tre. 3DS MAX INTERACTIVE 2.0 Max Interactive è una modalità introdotta in 3ds Max 2018.1 che consiste sostanzialmente nell'integrazione di Stingray, game engine acquisito da Autodesk per consentire ai suoi principali software 3D di sviluppare applicazioni interattive a partire dai contenuti 3D creati. Si tratta di uno strumento ben più limitato nelle potenzialità e nella gestione rispetto ai vari e blasonati Unreal Engine o Unity, ma presenta il vantaggio di essere integrato in Max, pur con un'interfaccia dedicata, dunque consente ai max user di non dover per forza utilizzare middleware esterni. Un bel time saver specie per i progetti più semplici. A proposito di middleware, è opportuno ricordare come Stingray sia sostanzialmente l'unico prodotto di questa categoria per cui non è cessato lo sviluppo da parte di Autodesk. Soluzioni come Scaleform, Humanik, Navigation e Beast non sono state altrettanto fortunate ed a luglio è stata decretata la loro end of life. Per quanto riguarda le novità introdotte in Max Interactive 2.0, ritroviamo buona parte di quelle già viste in Stingray 1.9, con il nuovo sistema di luci fisiche in grado di supportare i profili IES. Per il resto, diverse implementazioni minori ed miglioramenti generali nell'interfaccia, come un sistema di gestione degli asset più intuitivo e vicino alla praticità d'uso tipica dei game engine. Max Interactive consente di sviluppare contenuti interattivi e immersivi, con possibilità di output VR. A seguire la lista completa delle novità di Max Interactive 2.0 (fonte Autodesk) What's new in 3ds Max Interactive 2.0: Physically-based lights. Use data from real-world lights to create a realistic distribution of light in your scene.Clear coat is now more energy conserving, which reduces bloom when using a clear coat material.A new shading environment property lets you disable default tone mapping, and extend tone mapping through a custom plugin.Add frequently used assets or folders as favorites in the Asset Browser.The Capture Frames tool now supports PNG format, plus additional codecs.The Deployer supports bundling a project in a self-extracting zip file instead of creating an installer when you use the Deployer panel to create a standalone package of your project for Windows. See the Self Extracting Zip option in Package the project for Windows.Updated Project Manager.Scripters and programmers can now debug a project’s Lua code from the Visual Studio Code editor.Complete 3ds Max Interactive documentation is now available within the 3ds Max Help.Oltre a 3ds Max Interactive 2.0, ricordiamo che è stato rilasciato Revit Live 2.0, il tool scritto per consentire rapidi e semplici output interattivi (a video o in VR) dei progetti sviluppati con celebre software BIM di casa Autodesk. Autodesk ha pubblicato anche una serie di video quickstart relativi a Max Interactive 2.0, molto utili per avere un'idea di massima in relazione al suo funzionamento, soprattutto per chi non avesse ancora provato questo tool, forse ancora un po' acerbo, ma dalle potenzialità certamente interessanti, che ne rendono obbligatorio un attento monitoraggio in merito agli sviluppi. 3DS MAX FLUIDS Introdotto in 3ds Max 2018.3, il nuovo toolset per la simulazione dei fluidi è la naturale trasposizione di quello che per Maya è noto come Bifrost, con cui condivide almeno la tecnologia di base, mentre un discorso a parte andrebbe fatto per quanto concerne l'implementazione, che in 3ds Max pare maggiormente orientata a consentire uno strumento rapido e semplice da usare, per consentire di risolvere almeno le simulazioni più semplici senza dover ricorrere a software ben più blasonati e specifici. In 3ds Max 2018.4 sono state introdotte nuove modalità iterative per le simulazioni e nuovi preset per quanto riguarda le tipologie di liquidi utilizzabili. Tra le nuove feature, la possibilità di utilizzare l'esito di una simulazione come punto di partenza per una nuova simulazione. Introdotta anche la capacità di proiettare le UV direttamente sul volume liquido e di esportare i dati della simulazione nel formato PRT di Krakatoa, direttamente dal menu contestuale del solver. Per avere un'idea circa le caratteristiche di 3ds Max Fluids vi riportiamo i quattro video quickstart pubblicati da Autodesk con 3ds Max 2018.3, in occasione della loro prima implementazione. 3DS MAX BATCH E SCENE CONVERTER Totalmente rinnovato il 3ds Max Batch (introdotto in 3ds Max 2014.2), reso eseguibile stand-alone ed in grado di supportare un sistema di gestione certamente più efficiente, che comprende la reportistica in merito agli errori, al logging oltre ad una serie di strumenti pratici che consentono all'artista di poter utilizzare un'interfaccia a linea di comando. La grande comodità del sistema di batch di 3ds Max è quella di poter definire ed utilizzare degli script in grado di gestire i file delle scene attraverso le operazioni pianificate. Con il Batch è stato rinnovato anche lo Scene Converter di 3ds Max, ora più smart in termini di rilevamento e risoluzione degli asset mancanti o non compatibili dai formati file precedenti. Per approfondimenti vi rimandiamo agli articoli 3ds Max 2018.1 3ds Max 2018.2 3ds Max 2018.3 3ds Max 2018.4 release page ufficiale Autodesk 3ds Max 2018.4 news sul blog ufficiale di 3ds Max _
  7. News originariamente scritta il 17/ott/2017. Vedere sotto per gli update. Ufficiale la data di uscita di Lumion 8. La nuova major release del popolare software 3D real time per l'architettura è attesa per il prossimo 6 novembre. Molte le novità promesse, anche se per ora non ci sono conferme in merito alle feature che saranno ufficialmente introdotte. Una mossa di marketing mirata a creare aspettativa, come dimostra il seguente teaser ufficiale. Per seguire gli sviluppi relativi a Lumion 8 è possibile seguire la sezione riservata alla novità sul sito ufficiale https://lumion.com/what-s-new.html UPDATE 06/nov/2017: annunciata la disponibilità della versione finale. Qui di seguito pubblichiamo alcuni tutorial presenti anche sulla pagina ufficiale di Lumion. Per altri tutorial: https://lumion.com/what-s-new.html
  8. La View Conference si è sempre caratterizzata per essere un evento dal forte carattere... Inspirational, per usare un'espressione particolarmente azzeccata della lingua d'Albione. Se c'è qualcuno che è stato in grado di ispirare, è proprio Donald Greenberg. Per farlo non ha avuto bisogno di effetti speciali, di sequenze video mozzafiato tratte dai più spettacolari film, come hanno potuto fare tanti premi oscar saliti sul palco della View nelle sue prime 18 edizioni. Greenberg ha ispirato con una serie di slide old school su sfondo blu, dal look molto "powerpoint anni '90". Immagini che nella loro estrema semplicità sono state una lezione di divulgazione straordinaria. Saper esporre e far capire anche ai comuni mortali concetti di computer grafica che prendono forma grazie a formule chilometriche, mettendo in gioco variabili anche molto complesse. Greenberg ha sintetizzato i concetti scientifici che sono alla base della percezione umana e pertanto di come vadano trasmessi nella Realtà Virtuale, rivelando, numeri alla mano, il gap che tuttora esiste tra quanto la computer grafica è in grado di generare e quanto l'occhio e il cervello umano si aspettano di vivere nella loro esperienza. La nostra professione, innovativa per definizione, è ogni giorno costellata da difficoltà, una su tutte, far capire agli altri che il nostro lavoro è utile a risolvere dei problemi. Ed è proprio questa la lezione principale che il decano della Cornell University, ateneo in cui tuttora insegna, ha voluto trasmetterci. Ricordando come, negli anni 60, quando con i 4 poligoni che i processori di allora erano in grado di visualizzare, cercavano di rappresentare le prime missioni spaziali. Tutti gli dicevano che la computer grafica era una scienza senza speranze, che non ce l'avrebbero mai fatta. Evidentemente si sbagliavano. Ma è facile dirlo oggi. Vivere e affrontare le sfide dell'innovazione comporta ogni giorno un grande spirito di sacrificio, che va ben oltre la ricompensa economica della propria professione. A 83 anni suonati, Donald Greenberg ha lo spirito e l'animo di un ragazzino che vede per la prima volta un computer e ha voglia di giocarci, di scoprire il mondo con i propri occhi. Ha la semplicità di chi veste con la maglia della propria alma mater e le inseparabili scarpe da tennis Wilson, a ricordare i trascorsi sportivi in gioventù. Ha l'entusiasmo di chi vuole condividere con gli altri il proprio sapere per far crescere una disciplina in cui ha sempre creduto, sin da quando non esisteva. Ha l'umiltà di chi sa che nella ricerca non esiste un punto di arrivo. Ha la passione di fermarsi a parlare a lungo con tutti, a partire dai ragazzi degli istituti superiori, che guardano alla CG e con meraviglia gli chiedono come faranno a diventare dei professionisti in questo settore. Ha l'umanità di chi vuole ricordare, di fronte ad alcuni dei nomi più importanti dell'industria della CG, come alcuni suoi allievi abbiano perso il lavoro dopo aver prodotto un capolavoro come Life of Pi (Che vinse il premio Oscar 2013 per i migliori VFX quando ormai Rhythm and Hues era irrimediabilmente fallita. La vicenda resta una delle storie più drammatiche nell'ambito delle produzioni VFX a livello mainstream ed è servita a sollevare, anche agli occhi dell'opinione pubblica, come vi sia un forte squilibrio economico nelle grandi produzioni hollywoodiane, NdR). Donald Greenberg è una leggenda vivente, la storia della Computer Grafica, e la standing ovation della View Conference 2017 è stata tutta per lui. Tra le invenzioni di Donald Greenberg figura anche il notissimo Cornell Box. Chiunque abbia una certa confidenza teorica con il ray-tracing non può non conoscerlo. Si tratta di un metodo per verificare la precisione dei motori di rendering, mettendo a confronto una scena benchmark con l'equivalente reale, prodotto fisicamente. Il primo test venne eseguito con Pov-Ray (credits Cornell University) La View Conference 2017 si conclude con un grande successo per una rassegna che ha come di consueto portato sul palco torinese alcuni mostri sacri della computer grafica mondiale e tantissime novità, come le ultime implementazioni del software 3D real time, del compositing ed esperienze in VR di alto livello, sia nel settore media & entertainment che in ambito enterprise. La View Conference rinnova il proprio appuntamento per il 2018, per quella che sarà l'edizione numero 19.
  9. La grande novità dei Digital Drawing Days 2017 è caratterizzata dalle nuove Masterclass. Un'area che si aggiunge ai tradizionali scenari dell'Arena e del Teatro, dove saranno in programma gli attesissimi Workshop del DDD tenuti da una selezione dei migliori artisti attualmente in attività nei loro rispettivi ambiti. OBIETTIVO ALTA FORMAZIONE: LE MASTERCLASS CERTIFICATE Le Masterclass dei Digital Drawing Days costituiscono un'occasione di alta formazione, tenuta dai trainer e certificatori ufficiali di software house come McNeel, Epic Games e Chaos Group, che figura oltretutto tra i main partner dell'evento, offrendo totale sostegno e supporto all'evento. Le Masterclass vengono offerte a prezzi estremamente contenuti. Il numero di posti limitato per ogni masterclass è di 30 persone. Per cui conviene affrettarsi nel caso in cui si fosse realmente interessanti a partecipare. Per info e iscrizioni alle Masterclass del DDD 2017 http://digitaldd.org/masterclass/ A seguito della partecipazione alla Masterclass, ogni allievo riceverà un attestato ufficiale di partecipazione, contrassegnato da tutti gli estremi della certificazione, attendibile per via delle partnership con le software house interessate, grazie inoltre alla collaborazione tra Treddi.Com e 3DWS. Vediamo nel dettaglio quali sono le prime Masterclass del DDD 2017. V-RAY MASTERCLASS (per 3DS MAX E SKETCHUP) Chaos Group sarà ufficialmente presente al DDD con due Masterclass, dedicate rispettivamente a V-Ray per 3ds Max e V-Ray per Sketchup. Un'occasione unica per scoprire i dettagli di un motore di rendering sempre più diffuso. V-Ray 3.x ha sta ottenendo un grande successo commerciale non soltanto per 3ds Max, ma anche per Rhino, Sketchup e Revit, software cui manca sicuramente un valido renderer interno e che, grazie alle qualità di V-Ray, possono fare il salto di qualità. Una masterclass su V-Ray per Sketchup rappresenta oltretutto un'occasione estremamente rara sul panorama italiano. RHINO + GRASSHOPPER MASTERCLASS Giuseppe Massoni, master trainer italiano di McNeel, formerà una classe con un crash course su Grasshopper. Tre ore molto intense, da cui uscire con concrete basi operative per implementare i propri progetti. La programmazione visiva si basa su concetti molto semplici, che possono consentire di argomentare progetti anche estremamente complessi, con il massimo controllo. UNREAL ENGINE VR MASTERCLASS Enea Le Fons, master trainer ufficiale di Epic Enterprise, farà un workshop intensivo di 4 ore relativamente all'utilizzo di Unreal Engine per produrre esperienze in realtà virtuale in architettura. "From zero to hero" come ama definire uno dei formatori più esperti in assoluto, al punto da vantare ormai molte migliaia di ore certificate. Immagine realizzata da Pasquale Scionti con Unreal Engine 4 A cui si aggiunge la masterclass, gratuita grazie alla collaborazione di Enea Le Fons e Treddi.com, sul confronto tra i principali engine 3d real time, di cui vi abbiamo parlato nel presente articolo: Sistemi 3D Real Time a confronto. Per info e iscrizioni alle Masterclass del DDD 2017 http://digitaldd.org/masterclass/ I Digital Drawing Days si terranno ad Arezzo il 3 e il 4 novembre.
  10. Nel ricco programma dell'edizione 2017 di Udine 3D Forum una particolare attenzione sarà dedicata a tutti gli aspetti di quello che convenzionalmente viene definito lo studio fotografico virtuale. WORKSHOP - Lighting e composizione virtuale di un prodotto di design Valerio Fissolo (Protocube Reply), basandosi su una casistica professionale concreta, mostrerà come è possibile creare digitalmente il prodotto e declinarlo per vari utilizzi. Dal catalogo virtuale, alle presentazioni online, fino agli eventi live, con video in animazione e come supporto alle proiezioni ad ologramma. Valerio affronterà tutti i passaggi necessari, dal rapporto con la direzione artistica del brand fino alla tecnica necessaria per realizzare le immagini finali. Il workshop, basato su Blender, Cycles e Photoshop, è in programma per sabato 11 novembre alle ore 9:00 http://www.udine3d.it/contenuti/workshop/fissolo-lighting/ WORKSHOP - Modelling 3d ad elevato livello di dettaglio per cataloghi di arredamento, anche per configuratori e per VR Oltre al rendering e alla post produzione, uno dei temi centrali quando si parla di prodotto è senza dubbio la modellazione, l'anima della sua versione digitale. Carlo Zattarin (@zatta 3d) esperto di modellazione 3D per il settore arredamento, mostrerà i workflow necessari per gestire la produzione low-poly e high-poly per creare gli asset utili a produrre cataloghi di prodotto per la stampa e il web, i configuratori 3D di prodotto e le applicazioni VR. Carlo affronterà nello specifico la modellazione di un divano, oggetto che presenta tutte le complessità ricorrenti in questo ambito produttivo (modellazione hard+soft details, necessità di definire le UV, ecc.). Il workshop, basato su 3ds Max, ZBrush, V-Ray, Marvelous Designer, Unity 3D e Unreal Engine 4, è in programma per sabato 11 novembre alle ore 14:00 http://www.udine3d.it/contenuti/workshop/zattarin-modelling-3d/ Per informazioni e iscrizioni a Udine 3D Forum 2017 http://www.udine3d.it/partecipa/pass/
  11. Human Inside è il tema di Udine 3D Forum 2017. Un claim che intende identificare l'uomo al centro dell'esperienza tecnologica. Non tanto nella risposta alle provocazioni che vorrebbero i robot e le intelligenze artificiali rubarci il lavoro nell'immediato futuro, quanto piuttosto per sottolineare come il successo derivi dalla qualità delle idee dell'uomo nel produrre soluzioni utili a risolvere le esigenze dell'uomo. In piena intesa con questi principi, Treddi.com rinnova la propria partnership con uno degli eventi dedicati al 3D, alla tecnologia e all'innovazione più interessanti sul panorama italiano. Udine 3D Forum si propone di essere una vetrina per gli artisti emergenti, come il talentuoso Danilo Lombardo, atteso per un workshop sulla creazione degli Environment. Nonostante la giovane età, Danilo può vantare uno showreel e collaborazioni di tutto rispetto. L'edizione 2017 di Udine 3D Forum rinnova il proprio palinsesto di workshop con un'offerta orientata sia verso le principali skill in ambito 3D, che sulle competenze necessarie per poter fare, come si suol dire, di una passione una professione. Sotto vari aspetti, Il 3D, nelle sue più recenti espressioni, si pensi soltanto alla realtà virtuale e alla realtà aumentata, consente di rappresentare e vivere tutte le forme del futuro, offrendo incredibili prospettive professionali a chi saprà utilizzare la tecnologia per concretizzare idee davvero innovative. Il 3D è oggi sempre più protagonista nel mondo del lavoro e consente opportunità importanti in molti ambiti, dall'Architettura, al Design, al Medicale, al segmento Industriale e Manufatturiero, senza dimenticare la naturale vocazione del settore Media & Entertainment ed il Design di Prodotto. Martin Benes non ha bisogno di presentazioni. Autentico guru della post produzione, sarà tra le novità più attese del programma di Udine 3D Forum 2017 Il programma dei workshop è stato strutturato nella prospettiva di offrire esperienze, dimostrazioni tecniche e creative in grado di supportare proprio la prospettiva professionale, con un nesso costante tra la teoria e l'applicazione, utile a far intuire le potenzialità concrete delle varie espressioni del 3D, dei software più importanti e delle novità esclusive, come le tecnologie di Rendering Real Time e lo Sculpting VR. Tantissime le novità rispetto alle precedenti edizioni, che vedremo in maniera più dettagliata nel corso delle prossime settimane. i relatori di Udine 3D Forum sono innanzitutto degli straordinari professionisti. Creativi e tecnici che ogni giorno si confrontano concretamente con le esperienze in produzione. Per iniziare a scoprire i grandi speaker di Udine 3D Forum 2017 ed avere un dettaglio dei Workshop: http://udine3d.it/contenuti/workshop/ I concetti legati alla professione troveranno applicazione pratica nelle due Masterclass in programma nelle giornate di sabato 11 e domenica 12 novembre: http://udine3d.it/contenuti/master-class/ Tutta la potenza di Eevee, il nuovo straordinario engine real time di Blender, sarà protagonista ad Udine 3D Forum 2017, nell'attesissimo workshop di Emiliano Colantoni. _
  12. Finalmente online il programma ufficiale dei Digital Drawing Days 2017, in programma il prossimo 3 e 4 novembre ad Arezzo. Un sito interamente nuovo, in cui potrete trovare tutte le novità di un'edizione che punta moltissimo sulle novità hardware e software in molti ambiti del 3D. Sono ben quattro le aree tematiche che saliranno sul DDD@Teatro nel 2017. Vediamole insieme. DDD@ArchViz - L’eccellenza della visualizzazione architettonica, con tutte le novità sul rendering e la post produzione delle magiche immagini destinate a conquistare il cuore e la mente di progettisti e committenti in tutto il mondo. I segreti degli interiors ed exteriors ammirati svelati dai protagonisti della scena nazionale ed internazionale. DDD@Art&Design - L’essenza creativa del DDD, presente sin dalla prima edizione. Tutta la sfera creativa su cui gravita il 3D. Dalla concept art al creature & character design, passando per l’automotive e il product design. Artisti, creativi e designer che grazie al 3D riescono a esprimere tutta la potenza delle loro idee. DDD@Anim&VFX - Animazione in computer grafica ed effetti visivi stanno integrando in modo sempre più capillare le produzioni video, ad ogni livello. Il DDD ospita da sempre molti degli attori più importanti della scena nostrana, per dimostrare che in Italia è possibile eccellere in questo settore, grazie al supporto tecnologico dei marchi leader a livello mondiale. DDD@VirtualReality - A dispetto di tanti slogan mediatici, la realtà virtuale è molto di più di una moda del momento. Al DDD abbiamo selezionato soltanto l’eccellenza del settore, la VR più professionale in assoluto, quella destinata a cambiare per davvero tutti i livelli della user experience. Le migliori applicazioni immersive del momento e un’anteprima esclusiva sulla VR del futuro, quella che vedremo diffondersi nei prossimi anni. LE BATTAGLIE NELL'ARENA Oltre agli straordinari talk che si succederanno sul palco principale, il DDD sarà come sempre incentrato sulla grande DDD@Arena espositiva, in cui tutti potranno provare le principali novità hardware e software. Con la VR a farla da protagonista. Tornerà il divertimento del Treddi Test Drive, dove potrete tirare il collo alle workstation più performanti al mondo con le vostre scene. LE NUOVE MASTERCLASS (V-RAY, GRASSHOPPER, UNREAL ENGINE) Inoltre ci sarà una novità assoluta, il DDD@Bottega, con le Masterclass in esclusiva, su V-Ray per 3ds Max, Rhino e Sketchup, un crash course su Grasshopper e VR per l'Architettura in Real Time con Unreal Engine. Le Masterclass hanno un numero limitatissimo di posti a disposizione e rilasciano un attestato di partecipazione, essendo certificate da trainer ufficiali Chaos Group, McNeel e Epic Enterprise. Il consiglio è di registrarsi quanto prima per evitare di finire IL MEGLIO DELLA CUCINA TOSCANA E la sera? DDD@Osteria**. Tutti insieme a cena alla Corte dell'Oca di Subbiano. Imperdibile. La partecipazione al DDD è gratuita*, previa registrazione obbligatoria. Per informazioni e iscrizioni: http://digitaldd.org/come-partecipare/ L'evento è organizzato da 3DWS con la partnership ufficiale di Chaos Group e Treddi.com *alcune Masterclass prevedono un costo di iscrizione. **la cena alla Corte dell'Oca ha un costo indicativo di 30 euro, bevande incluse.
  13. Mancano ormai pochissime settimane al via della View Conference 2017, per quella che si prospetta con ogni probabilità la miglior edizione di sempre, soprattutto a giudicare dalla quantità e dalla qualità dei nomi attesi a Torino, dove Treddi.com sarà ancora una volta presente tra i media partner ufficiali della manifestazione. Sul palco si succederanno il meglio dell'animazione, dei vfx, dei games e della VR, tra i breakdown degli autori vincitori di premi Oscar, Sci-Tech Award ed autentici luminari nella loro disciplina. Un altro aspetto cui la direttrice Maria Elena Gutierrez tiene molto, al punto da dare un grandissimo risalto, è relativo agli aspetti artistici delle produzioni: regia, storytelling e concept art. Oltre a tutti gli aspetti più tecnici, approfonditi nei workshop e le masterclass calendarizzate durante la settimana dell'evento. Il programma infatti vede infatti un ricco palinsesto di talk, round table, workshop e masterclass, che consentiranno agli spettatori di ispirarsi ed imparare da nomi del calibro di: Joe Letteri (4 premi Oscar, Vfx Supervisor Weta Digital) Scott Stokdyk (premio Oscar, Vfx supervisor Valerian) Rob Pardo (CEO, Bonfire Studios) Mark Osborne (Regista Kung Fu Panda e Piccolo Principe) Eric Darnell (CCO Baobab Studios, Regista e sceneggiatore dei 4 Madagascar) John Nelson (premio Oscar, Vfx Supervisor Blade Runner 2049) Hal Hickel (premio Oscar, Animation Supervisor Rogue One: A Star Wars Story) Christopher Townsend (Vfx Supervisor Guardians of the Galaxy vol. 2) Kevin Lin (COO, Twitch) Martin Hill (Sci-Tech Award Winner, Vfx Supervisor, Weta Digital) Jason Bickerstaff (Character Artist, Pixar Animation Studios) Kim White (Direttore della Fotografia Cars 3, Pixar Animation Studios) Alessandro Jacomini (Direttore della Fotografia, Disney Animation Studios) Shannon Tindle (Regista e Sceneggiatore, Sony Animation Pictures) Martyn Culpitt (Vfx Supervisor Logan, Image Engine) Kris Pearn (Regista di The Willoughbys, Bron Animation) Oltre all'elite dei VFX mondiali, View Conference sarà il palcoscenico per conoscere le più importanti novità in merito alla VR, la grande tendenza tecnologica, e non solo, del momento, con relatori di livello assoluto: Donald Greenberg (Cornell University) Paul Devebec (Sci-Tech Award, Google VR) Vickie Dobb Becks (Executive, ILMxLAB) Elisabeth Morant (Tilt Brush, Google VR) Maureen Fan (CEO Baobab Studios) Larry Cutler (CTO Baobab Studios) Phil Chen (Co-Founder HTC Vive) Dylan Sisson (Pixar Animation Studios) Bernard Yee (Oculus Game VR) e tantissimi altri, tra cui Enea Le Fons di Epic Games, che ogni giorno terrà workshop e masterclass su Unreal Engine 4, tra cui un formidabile VR Hackaton. Per scoprire la straordinaria lista degli speakers di View Conference 2017 https://www.viewconference.it/it/speakers/ Per esaminare il programma completo dell'evento https://www.viewconference.it/it/pages/program/ Elenco dei talk della View Conference https://www.viewconference.it/topic/talks/ Elenco dei workshop della View Conference https://www.viewconference.it/topic/workshop/ Elenco delle masterclass della View Conference https://www.viewconference.it/topic/masterclass/ Per tutte le informazioni relative alla View Conference e alle modalità per assicurarsi i biglietti in esclusiva per tutte le zone dell'evento https://www.viewconference.it/pages/premium-registration/ View Conference 2017 si svolgerà a Torino dal 23 al 27 ottobre, presso la ormai tradizionale location di Torino Incontra. Oltre a seguire gli eventi di View Conference, gli spettatori possono approfittare dell'offerta culturale di un polo di eccellenza come Torino, dove a pochi passi dalle location dell'evento sorgono importanti istituzioni come il Museo Nazionale del Cinema e il Museo Egizio, che con il rinnovato Museo dell'Automobile caratterizzano realtà ormai riconosciute a livello internazionale, nel contesto di un centro storico in cui emergono i capolavori del barocco risalenti alla dinastia dei Savoia. Per informazioni ed iscrizioni, è possibile consultare direttamente il sito ufficiale della View Conference, dove è possibile seguire gli aggiornamenti in tempo reale al programma e ai contenuti proposti. https://www.viewconference.it/
  14. Quando leggi il programma del View Conference 2017 la prima cosa che ti chiedi è: ma siamo sul serio a Torino? Non è che si sono sbagliati con il SIGGRAPH? Come è possibile, in una realtà come la nostra, mettere sullo stesso palco oltre 50 nomi di livello internazionale, in tantissimi ambiti del 3D? E' uno dei segreti meglio custoditi da Maria Elena Gutierrez, ancora una volta alla guida della più importante Conferenza sulla Computer Grafica in Italia, giunta alla sua 18esima edizione. L'obiettivo, rinnovato ancora una volta nelle ambizioni, consiste nel garantire contenuti teorici, pratici e ispirazionali ad artisti, animatori, sviluppatori, storyteller, creatori di contenuti, professionisti e studenti che sognano un futuro nel mondo della computer grafica. "Una delle ragioni che distingue la View Conference - spiega Maria Elena Gutierrez - è data dal fatto che i relatori non vengono soltanto per il loro intervento, ma soggiornano per una settimana a Torino, assistendo ai talk degli altri relatori e rendendosi a più riprese disponibili per condividere la loro esperienza con gli spettatori. Un'occasione davvero unica per tutti i professionisti, studenti ed appassionati di CG". Il programma vede un ricco palinsesto di talk, round table, workshop e masterclass, che consentono agli spettatori di potersi ispirare ed imparare da nomi come Joe Letteri (4 premi Oscar, Vfx Supervisor Weta Digital), Scott Stokdyk (premio Oscar, Vfx supervisor Valerian), Rob Pardo (CEO, Bonfire Studios), Paul Devebec (Sci-Tech Award, Google VR), John Nelson (premio Oscar, Vfx Supervisor Blade Runner 2049), Christopher Townsend (Vfx Supervisor Guardians of the Galaxy vol. 2) Jason Bickerstaff (Pixar Animation Studios), Steve Beck (ILM), Hal Hickel (ILM), Shannon Tindle (Sony Picture Animation), Martyn Culpitt (Image Engine) e tantissimi altri, tra cui il professor Donald Greenberg (Cornell University), uno dei più importanti teorici della Computer Grafica e della Realtà Virtuale. View Conference 2017 si svolgerà a Torino dal 23 al 27 ottobre, presso la ormai tradizionale location di Torino Incontra. Oltre a seguire gli eventi di View Conference, gli spettatori possono approfittare dell'offerta culturale di un polo di eccellenza come Torino, dove a pochi passi dalle location dell'evento sorgono importanti istituzioni come il Museo Nazionale del Cinema e il Museo Egizio, che con il rinnovato Museo dell'Automobile caratterizzano realtà ormai riconosciute a livello internazionale, nel contesto di un centro storico in cui emergono i capolavori del barocco risalenti alla dinastia dei Savoia. Per informazioni ed iscrizioni, è possibile consultare direttamente il sito ufficiale della View Conference, dove è possibile seguire gli aggiornamenti in tempo reale al programma e ai contenuti proposti. https://www.viewconference.it/
  15. Tra le esperienze della Milano Design Week 2017 abbiamo potuto conoscere e testare a fondo un software nuovo, qualcosa che davvero non c’era nell’orizzonte della realtà virtuale. Un progetto innovativo sviluppato da una realtà tutta italiana come Digital Atom: stiamo parlando di Eyecad VR. Vogliamo ora scoprire nel dettaglio e presentarvi un progetto ambizioso, nato dall’idea di ragazzo siciliano, in grado di intuire come le enormi potenzialità delle tecnologie immersive potessero tornare utili agli architetti per presentare i loro progetti. E soprattutto che fosse necessario farlo con strumenti adatti nello specifico alle loro esigenze. L’IDEA: UN TOOL PER LA VR ACCESSIBILE A TUTTI Per scoprire le radici di Eyecad VR dobbiamo fare un salto indietro nel tempo. Prendiamo la nostra DeLorean e torniamo nel 2014, nelle aule della Facoltà di Architettura dell’Università di Catania. Dove troviamo Stefano Bosco. Ci aspetteremmo un guru del software development, ritroviamo un semplice studente di architettura con la passione del 3D. Durante le sue prime esperienze con gli studi professionali, Stefano modella e renderizza scene di progetti di vario genere, ma in testa inizia a maturare un pensiero fisso: “Mancava – spiega Stefano - uno strumento semplice, immediato per creare contenuti VR, svincolato dall’esigenza di dover sviluppare su piattaforme come Unity o Unreal Engine, favolosi, ma al di fuori della portata di architetti e designer, nella maggior parte dei casi sprovvisti di conoscenze informatiche così approfondite”. Stefano Bosco, Co-Fondatore e attuale CEO di Digital Atom, startup che ha creato Eyecad VR Sulla base di questa analisi, Stefano Bosco e i suoi soci hanno redatto il Business Plan per un software VR orientato alla progettazione, concepito per essere utilizzato dagli architetti, prima che dai tecnici della CG: “L’esigenza principale di uno studio di progettazione – analizza Stefano - è quella di poter disporre di un software in grado di produrre risultati in giornata. Sia per valutare il progetto, sia per revisionarlo con il cliente man mano che questo evolve. Farlo con la VR costituisce un notevole valore aggiunto. Ma quanti studi possono permettersi stabilmente degli sviluppatori su Unity o Unreal Engine in grado di generare quotidianamente questi contenuti? La maggioranza dei professionisti necessita di una soluzione autonoma perché sia realmente funzionale alle sue esigenze”. L’ingresso nel TIM WCAP Accelerator consente a Stefano di trovare le collaborazioni ed i finanziamenti necessari per creare la startup Digital Atom. Il resto è storia recente. Riprendiamo dunque la DeLorean e torniamo nel 2017, dove scopriremo le caratteristiche di Eyecad VR. LA SOLUZIONE: EYECAD VR Basato su una logica “architect friendly”, Eyecad VR si struttura attraverso il workflow sintetizzato nel seguente trailer. Nella sua prima edizione, Eyecad VR è già in grado di importare le geometrie di una scena in molti formati, dal .3ds al .FBX, fino ai comuni formati di interscambio .obj e .dae, in attesa che il supporto venga esteso anche ad altri formati proprietari. All’interno del software si procede con la definizione dei materiali e l’inserimento di tutti quegli elementi necessari al completamento del progetto, come le luci, fino ad impostare tutte le interazioni e le opzioni di configurazione che l’utente finale potrà esplorare nell’esperienza in realtà virtuale. L'interfaccia operativa del software consente di muoversi liberamente all'interno dello spazio. Non vi sono differenze sostanziali tra la fase di creazione e quella di output, se non per la qualità dell'immagine finale. L'obiettivo è quello di cercare di rendere immersiva l'esperienza dell'utente in tutti i momenti di utilizzo del software (credits Digital Atom) Tutta la fase di creazione è vissuta all’interno della viewport prospettica in tempo reale. Oltre a rendere particolarmente intuitivo il workflow, ciò consente di avere un feedback il più possibile immediato e naturale di quanto accade nel progetto e di modificarlo di conseguenza. La dimostrazione pratica di come l’architetto non debba preoccuparsi dei comandi, dei settaggi, ridotti all’essenziale, ma possa concentrarsi soprattutto sulla componente creativa del suo lavoro. L’AMBIENTE REAL TIME DELLA VR EXPERIENCE In Eyecad VR la scena è configurabile attraverso un HDRI environment in grado di recepire le variazioni di lighting che si susseguono nell’arco della giornata. L’esperienza real time consente all’utente di variare l’ora del giorno, con un feedback immediato della luce ambientale. E’ inoltre disponibile un sistema di luci artificiali posizionabili e configurabili a piacimento all’interno degli spazi di progetto. L’utente finale potrà pertanto accenderle o spegnerle sulla base delle interazioni previste. Lo slider orologio consente, sia in editing che in VR mode, di impostare l'orario della scena, variando in tempo reale le condizioni di lighting della scena, gestite da Eyecad VR con un sistema HDRI (credits Digital Atom) PIU’ DI UN SOFTWARE VR, UN VERO ECOSISTEMA PER LA PROGETTAZIONE Eyecad VR nasce per un’esperienza immersiva in realtà virtuale, ma è innanzitutto un software 3D real time e come tale consente molte possibilità di rendering, che vanno ben oltre quelle visualizzabili con i VR headset. Nel dettaglio, Eyecad VR si configura nelle seguenti tre modalità. DESKTOP / MONITOR: E’ la situazione di default, cui si accede quando si avvia il software. In questa modalità è possibile creare ed esplorare a video il progetto, oltre a poter “scattare” dei rendering statici della scena.HEADSET VR: premendo semplicemente “go to vr”, ci si ritrova all’interno del nostro visore preferito. Attualmente Eyecad VR risulta pienamente compatibile sia ai sistemi Oculus Rift che Htc VIVE, comprensivi dei relativi controller, attraverso cui l’utente può interagire con tutti i menu e le opzioni di interazione.MOBILE: installando sul proprio smartphone la app “Eyecad VR”, è possibile accedere ad uno spazio cloud personale, collegato direttamente al proprio account, in cui Eyecad VR può salvare più rendering 360°, visualizzabili sia con un visore Cardboard che senza. Attualmente disponibile agli utenti come beta, la app è in costante sviluppo e verrà presto resa disponibile nella sua prima versione finale. La app mobile di Eyecad VR garantisce di poter visualizzare ovunque le immagini 360 esportate dalla scena di progetto e poterle visualizzare ovunque, sia con che senza Cardboard. Questo consente ad esempio agli architetti di far provare un'esperienza immersiva del progetto ai propri clienti con un semplice smartphone, senza dover avere sempre con sé un kit VR (credits Digital Atom) Grazie alle tre modalità previste, Eyecad VR è in grado di assecondare le esigenze del progettista in tutte le situazioni che possono configurarsi durante la sua attività professionale, senza dover per forza disporre di un Headset VR. IL 3D REAL TIME SEMPRE A PORTATA DI MANO, NON RIMANE CHE PROVARLO Che si tratti dunque di creare un rendering per una revisione al volo, di un progetto interattivo da allestire in uno stand o di un 360 da vedere ovunque su un semplice smartphone, Eyecad VR è in grado di rispondere davvero “in real time” alle esigenze di un architetto o di un interior designer. In qualsiasi momento, sia il progettista che il cliente possono dunque avvalersi di contenuti immersivi utili per qualsiasi fase operativa, dalla progettazione alla vendita. In attesa di presentarvi la nostra recensione, sulla pagina software di Eyecad VR potete approfondire le features relative alle varie versioni, registrarvi e scaricare la trial, con cui provare direttamente il software, importando direttamente uno dei vostri progetti.
  16. Qualcosa sta cambiando nell'allestimento delle mostre d'arte. Le sequenze delle opere stanno lasciando spazio a configurazioni ibride, in grado di rivoluzionare l'esperienza del visitatore grazie all'utilizzo di proiezioni e applicazioni in realtà virtuale ed aumentata. Lo dimostrano mostre di recente successo. Oltre al già citato Caravaggio, approdato a Venaria dopo le esperienze di Roma e Napoli, vanno infatti citate anche le iniziative analoghe su Kandinskji e Klimt, magistralmente allestite presso il Museo delle Culture (Mudec) di Milano. Si parla sempre più spesso di esperienza. Nel caso di Caravaggio addirittura non vi sono opere originali del pittore, ma il percorso dell'iniziativa prodotta da MedialArt si articola a mezzo di un sistema di proiezioni, in cui il visitatore si immerge diventando il protagonista di un'esperienza in grado di coinvolgere attivamente più sensi, dalla vista, all'udito e persino all'olfatto, grazie alla diffusione negli ambienti della mostra di particolari fragranze. E' quella che potremmo definire l'immersione in una realtà aumentata grazie alle proiezioni in altissima risoluzione, che per quasi un'ora guidano il visitatore alla scoperta di 58 opere del Caravaggio, rileggendole attraverso i temi della luce, del naturalismo, della teatralità e di quella violenza che ha sempre caratterizzato i principali episodi della vita dell'artista. L'imponente installazione di Caravaggio Experience è ospitata presso i suggestivi spazi delle Citroniere Juvarriane della Reggia di Venaria, una location d'eccellenza, riconosciuto patrimonio UNESCO in grado di ospitare eventi e iniziative di livello internazionale. Dal G7 ai grandi appuntamenti con l'arte. All'ingresso di questa straordinaria esperienza, ci ritroviamo in una mostra nella mostra, con le installazioni HTC Vive curate da Modo Comunicazione, che consentono di immergersi totalmente al cospetto di alcuni dei principali capolavori romani del Caravaggio. L'obiettivo, in linea con il paradigma della VR, è quello di garantire un'esperienza altrimenti impossibile. Nella realizzazione del progetto, Modo Comunicazione, si è avvalsa del supporto dell'esperienza di sviluppo e ricerca di Rainbow CGI degli studenti del Master di Architettura Digitale di Rainbow Academy. Freschi dell'esperienza formativa, i ragazzi hanno dovuto confrontarsi con la realtà di una produzione vera, con ritmi serrati e vincoli ben precisi. Un dettaglio che sottolinea la grande attenzione di Rainbow Academy nel garantire ai propri studenti non soltanto le basi teoriche su cui costruire il proprio futuro professionale, ma concrete occasioni per mettersi alla prova in contesti assolutamente realistici, formando esperienze decisive nella prospettiva di entrare con successo nel mondo del lavoro. I ragazzi di Rainbow hanno sviluppato in circa due settimane i contenuti 3D utilizzati sia per l'installazione VR real time che per la app mobile per Cardboard, scaricabile direttamente ai principali App Store, che consente di avere un'esempio della Caravaggio Experience anche a chi non avesse modo di visitare personalmente la mostra torinese. Uno screenshot dell'applicazione real time per HTC Vive allestita a Venaria per Caravaggio Experience (credits Modo Comunicazione) Il progetto Caravaggio VR Experience è stato coordinato, per Modo Comunicazione, da Luca Modugno, che si focalizza sugli aspetti più generali della progettazione di un'esperienza 3D immersiva: "Negli ultimi anni ci siamo dedicati all’esplorazione di nuovi territori della comunicazione e della cultura visiva proponendo, attraverso la Realtà Virtuale ed Aumentata, soluzioni innovative e ad alta tecnologia. Dalla valorizzazione dei beni culturali all’intrattenimento, dalla riabilitazione psicomotoria al mental training la volontà è di creare nuovi linguaggi e nuove forme esperienziali per facilitare l’informazione, l’apprendimento ed il coinvolgimento dell’utenza in contesti sempre più immersivi". Cosa porta la Realtà Virtuale nella Caravaggio Experience? "La nostra partecipazione alla mostra nella Reggia di Venaria rappresenta una parte di un più ampio progetto culturale che tende alla diffusione della cultura del nostro Paese attraverso la Realtà Virtuale. E’ questa grande flessibilità nella ricostruzione della realtà, nel tempo e nello spazio, che rende la tecnologia della realtà virtuale particolarmente adatta alla valorizzazione e promozione del patrimonio culturale. Sono infatti illimitate le possibili applicazioni. La ricostruzione in realtà virtuale di un bene di interesse storico, artistico o culturale ne consente la divulgazione immediata in tutto il mondo, per esempio, attraverso applicazioni mobili distribuite via Internet, così da stimolare l’interesse dei potenziali visitatori". La mostra Caravaggio Experience, curata scientificamente dal prof. Claudio Strinati, grazie alle installazioni video di The Fake Factory e alle musiche originali del compositore Stefano Saletti, sarà visitabile a Venaria fino al 1 ottobre 2017. Per ulteriori informazioni - http://www.lavenaria.it/web/it/calendario/mostre/details/350-caravaggio-experience.html A seguire, il video curato dallo sponsor tecnico Canon in occasione della prima edizione della Caravaggio Experience, tenutasi presso il Palazzo delle Esposizioni di Roma nel 2016. credits Canon _
  17. Dopo avervi presentato ormai in più occasioni Eyecad VR ed averlo visto all'opera in alcuni importanti eventi di settore nei mesi scorsi, è arrivato il momento della prova sul campo. Il chiaccheratissimo software VR per l'architettura sviluppato da Digital Atom vale davvero tutte le attenzioni che sta catalizzando su di se? E' davvero la killer application per la VR, come è stato di recente apostrofato da un noto portale di startup? Scopriamolo insieme. EYECAD VR - UN SOFTWARE PER LA REALTA' VIRTUALE IN ARCHITETTURA Mettere le mani su un software come Eyecad VR non è semplice. Non perché il software in sé sia complesso. Anzi, scopriremo presto che proprio l'immediatezza e la facilità d'uso sono le sue armi migliori. Non è semplice, piuttosto, valutare un prodotto che sostanzialmente non ha termini di paragone attualmente sul mercato. Il seguente trailer offre una discreta panoramica sulle caratteristiche principali del software, utile per focalizzare al meglio di cosa andremo a parlare. PIU' DI UN SOFTWARE, UNA VERA PIATTAFORMA 3D PER LA VR Come avrete facilmente intuito dal trailer, definire Eyecad VR un semplice software sarebbe riduttivo, non tanto per il fatto di tendere a sminuirne le potenzialità, quanto piuttosto perché rischieremmo di perdere la concezione della caratteristica più importante alla base del suo sviluppo, che mira a risolvere una serie di esigenze operative tipiche di ogni architetto o designer utilizzando un'ampia gamma di strumenti e soluzioni. La prova che vi proponiamo parte proprio da questo aspetto, anche se non ci limiteremo ad un punto di vista univoco, quello dell'architetto per lo più ignaro di approfondite conoscenze nell'impiego di software 3D. Tenderemo piuttosto a chiederci se Eyecad VR è a tutti gli effetti pronto a dare una risposta a tutte le esigenze di presentazione del progetto architettonico, a qualsiasi livello. Per le esigenze del libero professionista, del piccolo studio, così come della grande società di progettazione. L'ECOSISTEMA 3D DI EYECAD VR - CARATTERISTICHE E REQUISITI In sede di recensione di un software, solitamente si affrontano i requisiti di sistema in sede di sintesi e valutazione finale. La scelta di anticipare questo momento non è data da un improvviso attacco di anticonformismo, quanto dalla semplice presa d'atto di un aspetto fondamentale. Eyecad VR, più che un singolo sistema, costituisce un vero e proprio ecosistema di soluzioni ed output 3D, che si appoggiano su sistemi hardware differenti. E' pertanto necessario fare subito chiarezza su quali sono le piattaforme per cui Eyecad VR è stato progettato, e cosa serve per poterlo sfruttare al meglio. Eyecad VR è al momento compatibile con qualsiasi pc Windows, che consente di utilizzare il walkthrough a video, senza la necessità di un visore VR. La scelta è mirata all'ottimizzare l'usabilità soprattutto durante le fasi di progettazione, quando non è essenziale avere un feedback costante in VR, che rischierebbe soltanto di rallentare alcune fasi di lavoro. Di base, per utilizzare Eyecad VR è sufficiente un semplice monitor, con supporto a tutte le risoluzioni principali (full hd, quad hd e ultra hd 4K). L'utilizzo dei kit Oculus Rift o HTC Vive è però assolutamente consigliato per sfruttare al massimo le caratteristiche di Eyecad VR in termini di presentazione 3D immersiva ed interattiva. Le stesse che gli consentono di fare la differenza nell'attuale mercato del software 3D per l'architettura. Oltre ai sistemi desktop e VR, Eyecad VR garantisce pienamente il supporto al mobile con una app integrata che consente di esportare walkthrough interattivi su Cloud, per accedervi da qualsiasi smartphone o tablet e visualizzarne i contenuti su schermo normale o in VR, grazie a visori come Google Cardboard, Samsung Gear VR e dispositivi analoghi. Data la sua particolarità, al comparto mobile di Eyecad VR dedicheremo un apposito articolo di approfondimento. A livello di requisiti hardware, anche grazie ad una buona scalabilità nei settaggi, un buon portatile sarebbe ampiamente in grado di consentire l'utilizzo di Eyecad VR nella sua modalità editing, ma se si intende utilizzare i visori VR e poter premere il famigerato pulsante "GO TO VR" diventa assolutamente indispensabile rispettare i requisiti consigliati dai singoli produttori. Per utilizzare in maniera soddisfacente Oculus Rift e HTC Vive occorre un Intel i5 di recente generazione, una NVIDIA GTX 970, ed un sistema con almeno 8GB di Ram. Parliamo di requisiti equiparabili ad un discreto pc gaming. Per utilizzare Eyecad VR non serve assolutamente una workstation 3D di alta gamma, di quelle che siamo soliti considerare quando parliamo di configurazioni per il rendering spinto. La differenza, piuttosto, è data dall'opportunità, assolutamente consigliata, di dotarsi di almeno uno dei due principali kit VR attualmente presenti sul mercato. PERCHE' EYECAD VR E' UNA PIATTAFORMA PER LA VR? Eyecad VR nasce per garantire un walkthrough 3D real time, un aspetto che non lo renderebbe di per sé così differente da soluzioni commerciali ben più note, presenti sul mercato da tantissimi anni. Basti pensare a Lumion 3D o Twinmotion. Soluzioni cui Eyecad VR indubbiamente si ispira in termini di interfaccia utente, estremamente semplice e minimal nella concezione, nell'ottica di un software di moderna concezione, che intende garantire all'utente la possibilità di concentrarsi più sul progetto e sugli elementi presenti nella scena, contestualizzando il più possibile i comandi, resi disponibili soltanto all'occorrenza. Dov'è dunque la differenza? Mentre Lumion 3D e Twinmotion nascono per il walkthrough in animazione, Eyecad VR si pone nativamente l'obiettivo di garantire un walkthrough in realtà virtuale immersiva. Si tratta di una diversa concezione nell'utilizzo della tecnologia 3D real time. Questi aspetti emergono sin da subito. Non è necessario indossare il visore VR per capire che Eyecad VR è progettato per progettare esperienze in realtà virtuale immersiva. E' sufficiente esplorare le sezioni dell'interfaccia per capire come tutto sia ragionato per interagire con la scena di progetto. Il progettista, nel definire la scena, prova sensazioni molto simili a quelle che proverà l'utente finale dopo aver premuto il tasto "GO TO VR". Eyecad VR non è dunque l'ennesimo clone più o meno riuscito di Lumion, ma qualcosa di totalmente innovativo nel panorama delle soluzioni 3D per l'architettura. Vediamo ora alcune delle funzioni chiave di Eyecad VR. IMPORT E GESTIONE DELLA SCENA Eyecad VR non consente di definire il modello della scena, ma è concepito per importare le geometrie progettate con i principali software 3D in dotazione agli architetti ed ai designer. L'importer di Eyecad VR consente di gestire i principali formati file 3D, tra cui naturalmente figurano i vari .fbx, .dae, .obj, .3ds, ecc. Non è al momento previsto alcun linking bidirezionale con un software specifico, ma grazie alla consueta importazione per layer e la gestione di un sistema di coordinate assolute risulta piuttosto semplice integrare o sostituire successivamente le parti di un progetto. Le nostre prove hanno garantito buoni risultati anche con scene decisamente pesanti a livello di mesh. La logica di gestione della scena, sulla base dell'importazione da software di terze parti, segue lo schema logico "materiale-layer" per agevolare i passaggi successivi, quelli che permettono di assegnare lo shader desiderato ad ogni oggetto. Una volta importato il modello, si passa alla definizione dello stesso, con i settaggi dell'environment, del lighting, e l'assegnazione dei materiali alle varie parti della scena. Alle operazioni basilari va aggiunta la possibilità di definire l'interazione dei vari elementi e le opzioni di configurazione che l'utente finale può godere durante l'esperienza in VR, come vedremo a seguire. L'area di lavoro di Eyecad VR consente di avere una previsualizzazione in tempo reale dal buon grado di realismo, grazie alla possibilità di avvalersi di una una notevole serie di effetti in grado di simulare il lighting della scena in 3D. Buona anche la resa in real time degli shader. Eyecad VR si avvale di un engine GI real time proprietario, sviluppato direttamente da Digital Atom. Eyecad VR consente di salvare in qualsiasi momento dei rendering statici a partire dalla scena 3D in tempo reale. Una feature molto comoda soprattutto in sede di revisione di progetto. Eyecad VR supporta sia le luci spot puntiformi che le area light, utilizzate anche come light portal in corrispondenza delle aperture dell'edificio. Le area light agevolano soprattutto il calcolo delle riflessioni sui materiali applicati all'interno dello spazio. L'environment lighting è invece garantito da una HDRI, che consente di gestire l'ambiente in cui è inserita la scena ai vari orari della giornata. Il pannello environment di Eyecad VR è molto completo ed intuitivo nell'utilizzo, risultato di un buon lavoro in fase di UI/UX design. In generale, l'interfaccia del software è stata progettata per consentire di definire qualsiasi settaggio della scena con il minor numero di operazioni possibile. Un risultato ottenuto con un numero complessivo di comandi tale da non disorientare l'utente meno esperto. Le icone consentono di identificare facilmente le funzioni previste dai vari comandi. La semplicità d'uso non preclude la personalizzazione delle risorse. Eyecad VR è in grado di gestire agevolmente modelli di varia complessità, un particolare che lo rende particolarmente flessibile considerando la necessità di importare costantemente le geometrie da software di terze parti. Le proprietà dinamiche e le interazioni sono configurabili grazie all'ausilio di comodi helper visivi, un particolare che rende particolarmente rapido il workflow di Eyecad VR, oltre a ridurre sensibilmente i margini di errori, grazie alla presenza di vincoli molto precisi. Eyecad VR consente di visualizzare la scena anche in modo semplificato, senza tutti gli effetti di luce e le riflessioni garantite alla qualità massima. In questo modo è possibile alleggerire notevolmente il calcolo della simulazione real time, garantendo una buona fluidità in viewport anche ad alte risoluzioni o su sistemi non particolarmente performanti a livello di scheda video. Oltre ad essere un simpatico dummy tutto blu, Eddie ha una funzione fondamentale, quella di definire il punto di partenza del VR Tour per tutte le piattaforme esportabili, compresa la app mobile. ENVIRONMENT LIGHT & VR SETTINGS Una delle caratteristiche più comode e, occorre ammetterlo, divertenti di Eyecad VR, è data dal fatto di poter configurare in maniera dinamica qualsiasi situazione di Lighting ed Environment in tempo reale, utilizzando direttamente i controller VR. I menu flottanti consentono infatti di personalizzare la contestualizzazione in cui è inserito il progetto, per viverlo a qualsiasi ora del giorno e della notte. I MATERIALI Una delle feature più singolari di Eyecad VR è data dal modo con cui si definiscono i materiali. Come è semplice riscontrare dal trailer in coda al presente paragrafo, Eyecad VR si avvale di un sistema di definizione dei materiali proprietario, che non sarebbe corretto annoverare né come tradizionale né come PBR, anche se in buona sostanza è il risultato di un processo di semplificazione dei molti parametri che ormai gli shader dei principali software 3D propongono. I tre canali di mappatura principali: Image, Normal e Bump map, consentono di settare e combinare ben più dei tre effetti che si presumerebbe esaurissero dai nomi che hanno. Allo stesso modo, ogni shader ha la possibilità di definire quattro parametri fondamentali: Trasparenza, Lucidità, Metallico ed Emission, il cui senso è logicamente molto intuitivo. Il fatto di aver provveduto ad una sintassi propria può, almeno inizialmente, costituire un'arma a doppio taglio. Se l'utente meno esperto può trovarsi facilmente a suo agio grazie alla disponibilità di un termine intuitivo, la deviazione rispetto agli standard consolidati può altresì generare un po' di confusione a chi ha invece una certa confidenza con i software 3D più diffusi. Un senso di smarrimento che si risolve comunque in breve tempo, dato il numero molto limitato di parametri a disposizione. L'applicazione dei materiali sugli oggetti presenti in scena è agevolato da un gestore UV di impostazione molto classica, che consente di definire facilmente posizione, scalatura e rotazione delle mappe. Eyecad VR è dotato di una libreria di materiali propria, oltre a consentire la creazione di nuovi elementi, personalizzabili in ogni singolo aspetto, che possono essere logicamente salvati e riutilizzati in ogni progetto. IL CONFIGURATORE IN VR Coinvolgere il cliente è ormai la chiave del successo di qualsiasi strategia di Digital Marketing. Offrire al cliente la possibilità di personalizzare il progetto secondo le proprie preferenze e le proprie inclinazioni è una vera e propria arma vincente. Per venire incontro a questa esigenza, Eyecad VR offre un Configuratore 3D utilizzabile direttamente dall'utente finale grazie ai Controller VR. Predisporre questa configurazione è davvero semplice, attraverso la selezione di materiali da applicare alle varie parti del progetto, che siano pavimenti, pareti, piuttosto che le finiture degli arredi, come ci dimostra il seguente filmato. IMPRESSIONI D'USO: PREGI E DIFETTI Quando si entra nel merito delle impressioni d'uso relative ad un software, è indispensabile cercare dei riferimenti, dei punti di confronto che consentano di avere dei parametri di valutazione. Nel caso di Eyecad VR, risulta complesso impostare un processo di questo genere per quanto riguarda la parte relativa alla VR, in quanto gli unici software con cui potrebbe essere messo in relazione, come vedremo anche in seguito, sono estremamente più complessi, sotto tutti i punti di vista. Le sensazioni in merito alla VR experience ci hanno sorpresi in positivo, sia su HTC Vive che su Oculus Rift. L'esecuzione della semplice scena tutorial è sufficiente per far immergere nel progetto anche gli utenti in gergo profani alla questione. Coloro che non hanno ancora provato la VR. Sono sufficienti pochi minuti per diventare a tutti gli effetti padroni del progetto. L'aspetto più sorprendente di Eyecad VR, al di là della qualità di resa complessiva dell'esperienza, è data dalla verosimiglianza con cui, indossato il visore, ci si ritrova all'interno degli spazi virtuali. La VR experience è calibrata molto bene e si ha pertanto una corretta percezione della misura degli ambienti e del proprio posizionamento all'interno degli stessi. Un aspetto che rende molto realistiche anche le interazioni con i vari oggetti presenti all'interno della scena, anche si tratti semplicemente di dover spostare o ruotare qualcosa, piuttosto che accendere o spegnere una luce. Tutto appare molto naturale. Chi ha esperienze con simulazioni VR per l'architettura, sa benissimo che un risultato di questo genere non è per nulla facile da ottenere, per via dell'elevato numero di variabili che incide sulla qualità del risultato. Eyecad VR soffre per contro di alcuni difetti di gioventù, ad esempio alcuni crash occasionali, di cui in verità abbiamo riscontrato un forte calo con le ultime release ufficiali, contrassegnate da un sensibile miglioramento in termini di stabilità generale. Il principale limite tecnico di cui attualmente Eyecad VR soffre è una certa lentezza nei caricamenti, comprensibili in fase di importazione iniziale, quando il software deve di fatto tradurre informazioni derivanti da altri software. Il problema persiste però anche nei comuni caricamenti dei file proprietari, che possono richiedere anche alcuni minuti nel caso di scene di grandi dimensioni. Il problema è comunque notevolmente mitigato dal workflow, che non prevede quasi mai la necessità di dover ricaricare la scena di progetto. Eyecad VR al momento è apparso inoltre piuttosto limitato in termini di risorse e librerie 3D in dotazione, ad esempio per quanto riguarda gli elementi di arredo e personalizzazione della scena. Questo comporta un maggior lavoro a monte, in sede di definizione delle geometrie della scena, e a valle, in quanto ogni oggetto va logicamente gestito singolarmente per quanto concerne l'applicazione dei materiali. In merito a questi aspetti, come si è già avuto modo di riflettere in merito ad altri software, esistono, per così dire, varie scuole di pensiero. E soprattutto di atteggiamento. Si va dal "iper personalizzatore", colui che vuole definire nel dettaglio qualsiasi aspetto della scena, al "massima resa, minimo sforzo", che non vuole modellare nulla più di quanto non sia composto dai muri e dalle aperture principali di un ambiente, in cui buttare poi dentro ogni risorsa disponibile ritenga possa essere utile al suo caso. Personalmente ritengo che il successo di questa tipologia di software, rivolta ad un pubblico molto ampio di progettisti e visualizzatori, sia dato proprio dall'immediatezza e dalla disponibilità di risorse drag and drop che consentono di definire qualsiasi scena in modo pratico e soprattutto veloce. Saremmo più, per intenderci, nell'orbita del "massima resa, minimo sforzo". Gli "iper personalizzatori" è più facile si orientino verso soluzioni software di complessità ben maggiore, proprio in virtù della volontà di poter disporre del massimo controllo possibile. Il fatto di disporre di librerie 3D limitate costituisce al momento un limite che Eyecad VR dovrebbe risolvere al più presto, ed in merito al quale abbiamo interrogato gli sviluppatori per sapere se, al momento, fossero o meno previste delle implementazioni concrete. La risposta è stata fortunatamente affermativa. Sarebbero infatti in via di definizione alcune partnership con una serie di fornitori, per poter finalmente integrare una serie di librerie raffiguranti elementi di arredo realmente esistenti in commercio, oltre all'implementazione di una serie di risorse generiche, altrettanto utili al completamento delle scene. Chi utilizza già da tempo Eyecad VR potrebbe dunque ritrovare una piacevole sorpresa a partire dalle prossime release ufficiali del software. Le sensazioni d'uso dell'esperienza in VR e le feature che Eyecad VR consente di gestire, ossia le questioni più importanti relative al risultato e all'usabilità del software, ci hanno impressionati in maniera assolutamente favorevole, così come l'ampia gamma di output disponibili. Complessivamente, non abbiamo quasi mai a che fare con veri e propri difetti, o controindicazioni in grado di condizionare negativamente le fasi di lavoro o le presentazioni finali del progetto. Parliamo piuttosto di limiti di gioventù per quanto concerne lo sviluppo e l'implementazione delle risorse, su cui il team di Digital Atom sta lavorando concretamente, con risultati importanti, come avremo modo di vedere nel prossimo paragrafo. UN'ESPERIENZA CHE CRESCE OGNI GIORNO Avendo avuto a disposizione il software per alcuni mesi, al di là della valutazione qualitativa dello status attuale, abbiamo avuto modo di seguire anche l'evoluzione che ha caratterizzato il rilascio di varie versioni di Eyecad VR. Un aspetto che ci ha sorpresi in modo favorevole è stata la notevole vivacità con cui il team di sviluppo opera sul software. Sia in termini di introduzione di nuove feature, sia in termini di miglioramento di quelle già presenti, con l'obiettivo di migliorare complessivamente l'esperienza d'uso. Nelle fasi di sviluppo di un software così ambizioso, è infatti indispensabile avere delle buone doti d'ascolto, per focalizzare al meglio quelle che sono le esigenze del proprio target di riferimento, trovando di volta in volta le soluzioni più indicate per il raggiungimento di determinati obiettivi. In tal senso, il team di Digital Atom ci pare stia andando decisamente nella direzione giusta. CONCLUSIONI La prova sul campo ci ha resi consci di vari aspetti. Eyecad VR è un software che deve ancora migliorare alcuni aspetti per essere davvero completo sotto tutti i punti di vista, soprattutto integrando quelle risorse drag and drop che enfatizzerebbero la sua vocazione di grande velocità nella configurazione e nella pubblicazione del progetto che è già ora uno dei suoi principali punti di forza, unita alla sua estrema semplicità d'uso. Una volta colmate queste lacune, Eyecad VR sarà la risposta concreta a tutte le esigenze di presentazione 3D di un progetto in realtà virtuale. Ad oggi Eyecad VR rappresenta comunque una soluzione in grado di di risolvere la maggior parte delle esigenze dei progettisti che abbiano l'esigenza di mostrare ai clienti in maniera innovativa i propri progetti. Per queste ragioni, Eyecad VR è un prodotto estremamente interessante, unitamente alla rapidità con cui il software si sta sviluppando ed al fatto che non vi sono all'atto pratico alternative all'altezza, a meno di non voler prendere in considerazione piattaforme come Unity 3D o Unreal Engine 4, tanto più complete quanto più complesse e ad oggi decisamente fuori della portata di un architetto o designer che non abbia ottime competenze in materia di sviluppo 3D real time. Anche senza entrare nel merito degli aspetti VR. Oltre alle valutazioni tecniche, che vedono Eyecad VR uscire certamente promosso dalle nostre prove, è importante considerare anche l'approccio in termini di marketing. Dotarsi di uno strumento in grado di offrire al proprio cliente un contenuto in VR oggi può costituire un vantaggio competitivo notevole, se consideriamo il contesto di un mercato sempre più saturo di soluzioni 3D. Questi fattori, unitamente al prezzo a cui attualmente vengono proposte le varie versioni del software rendono Eyecad VR un acquisto davvero molto consigliato per chi vuole introdurre la VR nella propria pipeline di produzione e presentazione del progetto. SINTESI VALUTAZIONE EYECAD VR PRO - Un vero software VR per l'architettura, al momento davvero unico nel suo genere. - Ottima VR Experience. Presenza nella Realtà Virtuale verosimile e naturale. - Estremamente intuitivo e semplice da usare, davvero concepito quale strumento per i progettisti. - Buona qualità generale, nella resa e negli strumenti (es. configuratore 3D real time). - App Mobile comoda, pratica e davvero utile come supporto alle revisioni e alle presentazioni di progetto. Un valore aggiunto cui diventa col tempo difficile rinunciare. CONTRO - Alcune funzioni sono ancora un po' acerbe. Crash occasionali. - A volte lento nei caricamenti, soprattutto con le scene di grandi dimensioni. - Risorse drag and drop e librerie 3D al momento limitate. PREZZI E DISPONIBILITA' Eyecad VR è attualmente commercializzato in due versioni: Lite ed Advanced, con prezzi che vanno da 599 a 1249 euro, comprensivi di IVA e due anni di regolare subscription per ricevere tutti gli aggiornamenti rilasciati. Per avere un quadro sempre aggiornato, oltretutto per sfruttare le frequenti promozioni proposte, il consiglio è di visitare con costanza il seguente link - http://www.eyecadvr.com/software.html da cui è possibile anche scaricare la trial version di Eyecad VR.
  18. Foundry ha rilasciato un'anteprima di Modo VR, una tecnologia in fase di evoluzione che consente agli utenti di visualizzare e manipolare contenuti in realtà virtuale direttamente nel viewport di Modo utilizzando un headset Oculus Rift o HTC Vive. In buona sostanza, Modo VR raddoppia il viewport di MODO a monitor, per consentire l'anteprima di quanto viene sviluppato in VR e permette all'artista di utilizzare direttamente il visore VR durante le fasi di editing, in modo da garantire un feedback diretto dei contenuti immersivi sviluppati. Per provare Modo VR è possibile fare la application al beta program - https://www.foundry.com/trends/research/modo-vr/beta
  19. Il Digital Sculpting è una disciplina tra le più creative nell'universo delle produzioni 3D e può vantare un range di applicazioni davvero molto ampio, che va dalle varie industrie dell'entertainment (cinema, games, comics, ecc.), al product design fino a settori come il medicale o business legate ad industrie molto specifiche. O di nicchia, come il modellismo e le miniature. Ne parliamo con Daniele Angelozzi, universalmente noto come Danko in una 3D community che lo vede ormai impegnato da tantissimi anni come scultore digitale ed insegnante certificato di ZBrush. In particolare faremo tesoro della sua natura dichiaratamente freelance, che lo ha portato a confrontarsi con tantissime realtà in ambito professionale, garantendogli una conoscenza molto approfondita del mercato 3D. (FLT) - Il mercato della miniatura e del modellismo muove milioni di appassionati, hobbisti e professionisti in tutto il mondo. Un movimento silenzioso, ma capillare e sempre alla ricerca di nuove creazioni, oltre che di metodi di produzione. Come sei entrato in questo mondo? Come si è accesa la proverbiale scintilla? Il Danko che conosciamo nasce come scultore digitale o nasconde un passato da artista tradizionale? Detto in altri termini... La passione per i mostri in 3D l'hai sempre avuta o è nata con ZBrush? (Danko) - La passione per mostri, mostriciattoli e supereroi muscolosi ce l'ho avuta sin da bambino. A ben pensarci, anche prima di quella per le donne in vestitini succinti. A livello formativo, nasco come modellatore digitale, in quanto a parte qualche pasticcio col das e pongo, prima dei 30 anni non avevo mai preso in considerazione l'idea di fare di questa passione un lavoro. Come si è poi effettivamente verificato. (FLT) - Lo scultore digitale, al di là dei pregiudizi e dell'ignoranza nei confronti delle professioni creative, è un lavoro vero, in grado di offrire solide opportunità in tutto il mondo. In tanti anni di esperienza, cosa puoi dirci a proposito di questo mercato? Qual è l'aspetto che oggi ti sorprende maggiormente? (Danko) - Il mercato del 3d e della scultura digitale è molto florido, con una valanga di opportunità lavorative, molte delle quali inerenti la creazione di asset per la stampa 3d, quindi per la produzione di un oggetto fisico. Come ogni mercato florido che si rispetti quello che vede protagonista la scultura digitale si è velocemente saturato. Tanti ci provano, attirati proprio dalle opportunità che si presentano. Questo vuol dire che oggi per emergere è necessario assicurare uno standard qualitativo parecchio elevato. Di cose che mi sorprendono ce ne sono diverse, ogni giorno, purtroppo non tutte in positivo, ma la cosa che adoro di questo lavoro è il fatto che la meritocrazia paga sempre, non esiste miglior biglietto da visita del proprio portfolio. Internet rende lo scenario molto vario e caotico, per cui puoi trovare il totale improvvisato come il grande professionista. Non solo nell'ambito della scultura digitale ovviamente. Ma proprio il fatto di poter dimostrare le proprie capacità consente di differenziarsi e far emergere davvero la qualità. Questo fattore penso sia una grande opportunità anche per chi il talento lo cerca, non solo per chi lo offre. Nightmare Catcher, lavoro personale di Danko, eseguito con ZBrush (credits Daniele Angelozzi) (FLT) - Come funziona, per un artista, una commissione con un'azienda che produce collezioni di sculture e miniature? Quali sono le fasi di lavoro strutturate? Dal concept fino alla consegna del lavoro a tutti gli effetti? (Danko) - Non credo ci sia una regola generale. Ogni azienda approccia il lavoro in maniera un po' diversa. Di base c'è, o per lo meno ci dovrebbe essere, sempre un concept e una linea guida per ciò che si deve eseguire. A seconda del committente si può avere più o meno libertà in termini di fedeltà stilistica e dell'iniziativa che viene lasciata alla discrezione dell'artista 3D. Una cosa da tenere sempre in considerazione è il tipo di produzione per cui è destinato il modello, in quanto sulla base di questo vi sono dei vincoli tecnici da seguire, in termini di materiali e di scala, ed è meglio sempre pianificare prima la soluzione. Un planning per strutturato evita di trovarsi a fine lavoro con un modello inusabile o non ingegnerizzabile. Senza giri di parole, a dover buttare nel cesso tutto il lavoro fatto, magari per non aver tenuto conto di un banale vincolo tecnico. (FLT) - In ambito tradizionale, a differenza di altri contesti artistici, propriamente figurativi, lo scultore ha lo specifico della fabbricazione della sua opera. Nella cultura digitale un artista può invece plasmare una creatura in 3D in grado di esaurire pienamente il suo compito orbitando sul video. Basti pensare a quanto viene prodotto per l'industria del cinema, piuttosto che dei videogame. Quali sono le sostanziali differenze tra la scultura digitale finalizzata al visual e quella destinata alla fabbricazione? (Danko) - La creazione di contenuti finalizzati alla fabbricazione, al di là dei vincoli di cui abbiamo accennato in precedenza, presenta in realtà meno step tecnici: un character da animare per un vfx o un videogame deve avere una topologia atta a potersi deformare con il massimo controllo possibile, deve possedere una mappatura UV per la applicazione delle texture e uno shading per avere una resa materica corretta. Tutto questo comporta che in una pipeline del genere, il lavoro di scultura costituisce meno della metà di tutto il processo. Probabilmente anche la più divertente, ma il suo peso nel complesso della produzione è sicuramente più marginale, considerando tutti i contributi che intervengono per garantire il risultato finale. Quando si parla di fabbricazione, la scultura ha un rapporto molto più diretto e vicino al risultato. Cambia totalmente il modo di impostare un modello, anche se il risultato finale può apparire decisamente simile a un non addetto ai lavori. Modello stampato e pitturato di un robot realizzato a partire da un modello 3D realizzato da Danko (credits Daniele Angelozzi) (FLT) - Ormai diversi anni fa, quando Photoshop e Painter iniziavano a farla da padroni nell'illustrazione, un noto artista tradizionale, di cui non farò il nome, mi disse chiaramente che pur avendo imparato a produrre in digitale, non si sarebbe mai sognato di migrare professionalmente verso quegli strumenti, per un fatto molto semplice. Non avrebbe più avuto a disposizione le opere originali, che sul mercato, in misura proporzionale alla notorietà dell'autore, valgono molto. Il digitale è per propria natura immateriale e riproducibile, pertanto fa cadere il concetto del pezzo unico. Senza scomodare la distinzione tra arte e design, ritieni sia possibile, in termine di business, una sinergia tra i due approcci? Hai eventualmente avuto delle esperienze dirette in tal senso? (Danko) - Senza tirare in ballo discorsi sull'arte ma rimanendo su problematiche oggettive e lavorative legate alla scultura digitale, questo è un tema scottante nella creazione di contenuti per la stampa 3d. Essendo in una fase, se non embrionale, comunque relativamente giovane, magari pochi si pongono il problema, ma i service di stampa stanno facendo archiviazione massiva di modelli, che potrebbero essere tranquillamente ristampati o ridistribuiti. Per esperienza diretta, posso confermare almeno due episodi che mi hanno fatto considerare la cosa come un problema oggettivo. Mi auspico che venga presto trovato un modo per poter salvaguardare il proprio lavoro tramite protezione/criptazione dei file, o con qualche accorgimento simile. Il problema c'è, ed è concreto, non si può far finta di niente. E' comprensibile la diffidenza nel far uscire i propri modelli 3D. Questo proprio perché non essendoci l'unicità del pezzo, il valore della propria produzione è nel modello digitale. (FLT) - Non c'è arte senza strumenti. Lo scultore digitale è cresciuto attraverso una rivoluzione, adattandosi a tavolette grafiche di ogni tipo, sempre più sofisticate, piuttosto che ai software di 3D sculpting, che hanno reso semplici e alla portata di tutti operazioni altrimenti decisamente ardue se affrontate con i workflow di modellazione 3D tradizionali. Oggi, la corsa all'innovazione tecnologica pare rallentata. Tant'è che lo stesso Zbrush fatica a fare il salto verso una nuova major release. Da grande conoscitore del software di Pixologic e da scultore professionista, ritieni che oggi l'artista digitale abbia a disposizione tutto ciò che gli serve? Altrimenti, cosa manca davvero tra gli strumenti digitali in questo momento? (Danko) - I software di scultura e modellazione offrono un palco di features davvero molto ampio. Personalmente non sento la necessità di una qualche funzione che non sia già attualmente disponibile, ad eccezione del mitologico tasto "make awesome" che fa tutto da solo. Va pur detto che spesso, da utilizzatori, non ci si rende conto dell'utilità di una cosa fino a quando non viene creata. Non parlo di funzioni enormi come il dynamesh o lo zremesh di Zbrush, o degli insert mesh. Mi riferisco a funzioni più marginali, anche apparentemente sciocche come il polish by features, oppure il comando grow all, o ancora i nuovi pennelli che si basano sul vector displacement. Chi conosce ZBrush sa perfettamente a cosa mi riferiesco. Una volta che uno impara a usarle divengono parte talmente integrante del workflow che poi diviene dura farne a meno. Sono però funzioni che a priori non sarebbero certamente sembrate necessarie. La necessità stessa deriva però in qualche modo dall'utilità, per cui ben vengano sempre nuovi strumenti da valutare. Una miniatura da 28mm come quella ritratta nell'immagine necessita di una modellazione 3D in grado di enfatizzare in modo marcato alcuni dettagli. Le ridottissime dimensioni dell'esemplare devono indirizzare l'artista ad evitare dettagli troppo piccoli, che verrebbero neutralizzati nella post produzione, in cui vengono applicate un primer ed uno strato di pittura per il colore e la finitura superficiale. In altri termini, se il modello prevede delle discontinuità, queste vanno rese più evidenti durante la modellazione 3D, se il pezzo finale sarà di dimensioni ridotte, rispetto a quanto non sia necessario fare per stampe di dimensioni maggiori. (credits Daniele Angelozzi). (FLT) - Una novità emergente nel modellismo è l'avvento, concedimi l'accezione quasi mistica, della stampa 3D. Inizialmente vissute quali un costoso spauracchio, le tecnologie di produzione additiva hanno di per sé tutte le caratteristiche per diventare lo strumento ideale per chi intende realizzare delle statue su varia scala. Dalla capacità di realizzare forme molto complesse fino all'efficienza nella produzione in piccola serie. Quanto è in realtà diffusa oggi la stampa 3D nell'industria legata alle collezioni di sculture? Siamo negli "early days", come in altri ambiti, oppure c'è già una certa maturità? (Danko) - Sulla base di quanto abbiamo affermato in precedenza, mi sentirei di ribadire che la stampa 3d è ormai una tecnologia consolidata in produzione. Grazie ad esse la scultura digitale sta rimpiazzando sempre più la scultura tradizionale. Le maggiori realtà mondiali nel campo delle miniature e delle statue oramai si affidano ormai con continuità anche al digitale. Uno scenario impensabile fino a poco tempo fa. Consideriamo comunque che in questo settore può tranquillamente esserci una compresenza tra scultura tradizionale e digitale. Non vi è una ragione di reciproca diffidenza. (FLT) - Dal digitale al reale, un percorso inevitabile, che si traduce nel dover trasferire alla materia le intenzioni figurative. E' sufficiente seguirti anche sporadicamente sui social per rendersi conto che stai sperimentando molto in tal senso. Quali sono le tecnologie di stampa 3D che si accompagnano meglio alle esigenze di uno scultore digitale? Ritieni sia più conveniente una pipeline interamente basata sulla stampa 3D o sia tuttora meglio ragionare in termini di processi quantomeno ibridi, con un assemblaggio di parti date da varia provenienza? (Danko) - Dipende sempre da ciò che uno deve realizzare. Io sono un fan delle "statue statue", ovvero quelle che sono scolpite in ogni loro parte, mentre storco il naso per quelle figures che hanno elementi realizzati in altro modo, tipo le statue con vestiti veri, che mi sanno molto di bambola, più che di statua. Ma non dobbiamo generalizzare. Dipende anche molto dalla preponderanza di un determinato elemento e dal design specifico. Tanto per citare un esempio ultimamente sono divenuto felice possessore delle statue della sideshow della serie dei "Masters of the Universe", ed in quel caso il mantello in tessuto funziona bene, in quanto può essere piegato in diversi modi o rimosso, e se fosse stato scolpito sarebbe stato un elemento troppo ingombrante e pesante a livello visivo. L'ibridazione consente di raggiungere grandi risultati, ma non è facile da gestire. Se si adopera una tecnica senza un forte nesso funzionale con il prodotto, il fallimento è quasi assicurato. Confronto tra la versione digitale e la miniature commerciale di un drago per un board game. Il modello finale è di 60mm, un oversize per una scala di riferimento da 35mm. Sui pezzi eccezionali di una serie è consentito spingersi su livelli di dettaglio, altrimenti problematici da realizzare, per aspetti legati alla risoluzione di stampa o ai materiali applicati in post produzione (credits Daniele Angelozzi) (FLT) - Modellare per la stampa 3D è qualcosa di specifico, che deve necessariamente tenere conto di vincoli, sezioni minime ed altre caratteristiche fisiche. Questo può avere delle ripercussioni sulla componente artistica, sulla libertà creativa della scultura digitale? Oppure si imposta la modellazione seguendo la linea più breve? Del tipo, io modello comunque come avrei fatto, poi cerco la tecnologia più idonea per stampare ciò che desidero? (Danko) - Ops, probabilmente ho già risposto almeno in parte a questa domanda, ma mi offri comunque lo spunto per approfondire alcuni aspetti che a mio avviso sono molto importanti se ci si vuole occupare ad esempio di miniature, dato che questo è uno degli aspetti che ci interessa maggiormente. Di base la libertà creativa non risente così tanto dei vincoli, ma quando si va su misure molto piccole. si veda il caso delle miniature 28-35mm, bisogna tenere bene a mente le problematiche di spessori ed esagerazione delle forme, altrimenti certi dettagli non verrebbero certamente fuori o darebbero problemi sia a livello di produzione che di pittura. Non dimentichiamo che molti prodotti sono finalizzati con un processo di pittura, dunque spessori e forme troppo blande potrebbero scomparire anche con una lieve passata di primer. La stampante 3D magari riuscirebbe a realizzare i dettagli minuscoli definiti nel modello 3D, ma il materiale applicato successivamente renderebbe dunque vano il tutto in modo problematico, perché si perderebbe anche il controllo del risultato estetico della scultura. La serie Goblin è stata realizzata da Danko per una serie di miniature da 28mm, che rientrano tra le più piccole in questo genere di prodotti (credits Daniele Angelozzi) Quando ci si occupa di modellazione 3D per taglie più grandi ci sono meno problemi. Ovviamente gli spessori vanno sempre tenuti un minimo a mente. Mi riferisco ad esempio al fatto che sarebbe sempre opportuno evitare di fare vestiti che stampati avrebbero lo spessore di un'ostia, più che altro perché poi quando si fa la produzione in serie si rischia di veder sbriciolare tutto. Ma a parte casi limite, che chiunque si ritenga un professionista del digital sculpting deve conoscere, si va con meno pensieri. Un'altra variabile che incide molto è il service di stampa. Prima cosa, la qualità delle stampanti 3D deve essere sempre al top. Io ho una Form 2, che è un ottimo prodotto di fascia prosumer, ma se devo fare produzione non mi sognerei mai di usare quella, sarebbe come pretendere di vincere una gara di formula 1 correndo con una ferrari da strada. Sarebbe una macchina sicuramente performante, ma rispetto ad una versione da corsa non sarebbe mai competitiva, perché non nasce per soddisfare certi obiettivi e certi livelli di performance. Il secondo aspetto fondamentale è la scelta del service. Alcuni si prendono carico anche dell'ingegnerizzazione del file, curandosi direttamente di ispessire il modello e riempire eventuali vuoti ritenuti eccessivi, nel caso ve ne fosse necessità. Il fatto che il service abbia il controllo del risultato di stampa e sia in grado di ottimizzare il modello costituisce un vantaggio non da poco. In alcuni casi rende il lavoro dello scultore molto più semplice, in quanto si sente molto più libero di creare. Se sai che il modello sarà verificato da chi lo stampa, tanti dubbi, tante paure di sbagliare, lasciano spazio all'attenzione sul dettaglio e sulle parti estetiche. Per contro, anche il miglior service non può far venire meno nell'artista una coscienza tecnica nei confronti della modellazione. La statua Chaplin il risultato di una scultura digitale 3D per un modello da 24 cm, stampato da un service professionale. La conferma di come il supporto tecnico garantito durante la produzione del modello possa garantire all'artista una libertà molto elevata, scoraggiando il pregiudizio per cui la stampa 3D mortificherebbe l'artista nella fondamentale fase creativa (credits Daniele Angelozzi) (FLT) - Mentre alcune tecnologie, come la resina monocromatica, hanno ormai un costo relativamente accessibile, che si ritrova in prodotti desktop come la Form 2 che usi spesso anche tu, altre soluzioni professionali, come la stampa 3D full color (es. Stratasys J750) non sono certamente per tutte le tasche. L'artista ha due alternative. Collaborare con realtà che ne dispongono internamente o rivolgersi ai service esterni. Qual è la tua esperienza in tal senso? Anche per quanto concerne l'ottimizzazione del modello. (Danko) - Ti confesso che, pur interagendoci molto spesso, non sono un gran conoscitore di tecnologie e modelli di stampanti 3D. Quanto mi sento di affermare per esperienza diretta è che tutte le stampe di miniature finalizzate a una produzione "seria e in serie" vengono comunque realizzate in resina monocromatica. A conti fatti la stampa serve per la creazione del prototipo per il casting, e quindi non necessita a priori di un output colorato. Anche nel caso di stampa con resina monocromatica, nonostante oggi vi siano stampanti prosumer molto buone come la Form 2, quando si punta a creare un prototipo finale bisogna rivolgersi a service con macchinari di ben altra fascia di prezzo, che assicurano non solo una maggiore risoluzione, ma aree di stampa maggiori e minore problemi con supporti. Non conosco al momento aziende di miniature in grado di gestire internamente questo processo. Il confronto tra il modello digitale di Crono ed il corrispettivo realizzato in stampa 3D. Danko ha utilizzato la resina monocromatica standard della Formlabs Form 2, stampante 3D apprezzata per uno straordinario rapporto qualità/prezzo, che di fatto la rende tuttora praticamente unica nel suo genere (credits Daniele Angelozzi) (FLT) - Strumenti consolidati, strumenti emergenti, strumenti del futuro, legati a tecnologie in un certo senso ancora alla ricerca di una precisa identità. Pensiamo a TiltBrush, l'app VR di google che consente di dipingere direttamente in realtà virtuale. C'è oggi qualcosa di simile per la scultura? Ma sopratutto, ritieni che un'applicazione di questo genere possa essere utile allo scultore digitale? (Danko) - Ora come ora ti dico in tutta franchezza che non ne sento proprio il bisogno. Già trascorro gran parte della giornata davanti a uno schermo, doverlo fare addirittura IMMERSO dentro lo schermo mi pare eccessivo. Sicuramente la tecnologia avanza e fra qualche tempo probabilmente, se mi rifarai la stessa domanda, ti risponderò che non capisco come facevo prima a scolpire senza il mio casco VR. Vedremo cosa succederà.
  20. Adobe ha annunciato l'acquisizione di Mettle, sviluppatore di SkyBox Studio, una serie di tool finalizzati al camera tracking e alla produzione di contenuti VR e 360. L'operazione segue una linea di continuità operativa, dal momento che SkyBox era già disponibile quale suite di plugin per After Effects e Premiere Pro e conferma la volontà di Adobe di voler garantire agli abbonati alla CC nuovi strumenti per produrre contenuti video 360 e VR, rendendoli di fatto seamless, perfettamente integrati all'interno dei propri software. In particolare, SkyBox risulta molto comoda per via delle sue librerie di transizioni, titoli ed effetti, che completano e consentono di sfruttare appieno le potenzialità offerte dai software Adobe nella creazione dei contenuti video immersivi. Contestualmente all'acquisizione da parte di Adobe, il co-fondatore di Mettle, Chris Bobotics, è stato nominato direttore della divisione video professionale di Adobe. Per avere un'idea complessiva delle feature di Mettle Skybox Studio vi rimandiamo al trailer di presentazione della v2, rilasciata nel gennaio scorso.
  21. Sull' App desktop di Autodesk è diponibile l'update 2018.1 per 3ds Max 2018. Eseguito l'aggiornamento è possibile scaricare dall'account Autodesk nella sezione prodotti e servizi sotto download di 3ds max 2018 l'installazione di 3ds Max Interactive. Il pacchetto consistente in circa 2 GB è attivabile con lo stesso numero seriale di 3ds max 2018. 3ds Max interactive è basato su Autodesk Stingray, si tratta di un motore real time che offre strumenti per creare contenuti immersivi e virtuali (VR). Combinando così gli strumenti di modellazione 3D e di animazione di 3ds Max con nuovi strumenti per esperienze interattive. 3ds Max Ineractive mira a fornire flussi di lavoro semplici, efficienti e familiari per la creazione di contenuti accattivanti. Concepito in prevalenza per l'architettura, è in ogni caso possibile utilizzarlo per sviluppare giochi, environment o qualsiasi altra esperienza immersiva e interattiva. di seguito alcuni link di approfondimento: guida in linea Introduzione http://area.autodesk.com/blogs/the-3ds-max-blog/bruno-landry-talks-vr-in-3ds-max
  22. D@ve

    Unreal Engine 4.16

    Epig Games ha rilasciato la versione di Unreal 4.16. La nuova versione del motore consente di accedere a nuove funzioni di rendering, animazione soft e rigid body, simulazione di tessuti a basso livello e la possibilità per il Mesh Editor di utilizzare le OpenSubDiv direttamente all'interno della VR experience. Le novità introdotte in questa versione sono veramente tantissime: Volumetric FogImage-Based (FFT) Convolution for BloomDistance Field Lighting OptimizationsLightweight Rigid Body SimulationLow-level Clothing SimulationRelease Games on Nintendo Switch!VR Mode UI and Interaction UpdatesEdit Sequences in VRPhysics Simulation in VR ModeSmart Snapping in VR ModeXbox One Renders with DirectX 12HTML5 Support for WebAssembly and WebGL 2e molto altro ...Per conoscere nel dettaglio tutte le novità introdotte in questa versione vi rimandiamo alla news ufficiale su: https://www.unrealengine.com/en-US/blog/unreal-engine-4-16-released
  23. Secondo fonti di Bloomberg, successivamente confermate dai diretti interessati, Unity Technologies, ha ceduto azioni a Silver Lake per un totale di 400 milioni di dollari, che vanno a dotare di un'ingente liquidità una delle società più interessanti in ambito 3D technologies. Il CEO di Unity Technologies, John Riccitiello, ha confermato che parte della liquidità sarà direttamente trasferita agli impiegati con maggior anzianità, anche in sede di riconoscenza per il loro operato, oltre ad essersi fatti direttamente carico di cedere parti delle azioni in loro possesso. Ovviamente buona parte della disponibilità verrà investita per sostenere una crescita vertiginosa, che non accenna ad arrestarsi. Anzi. Secondo quanto Riccitiello ha affermato a Bloomberg: "Penso che Unity sia molto interessante per gli investitori per il fatto che copre circa il 70 per cento della produzione dei contenuti AR e VR". Non sono esclusi pertanto altri finanziamenti ed ingressi di capitale in società, anche a breve termine, dato l'interesse che si sta catalizzando sulle principali tecnologie 3D immersive. Nata nel 2004, Unity Technologies è attualmente quotata per 2,6 miliardi di dollari, una cifra destinata inesorabilmente a crescere, così come la popolare piattaforma nata come game engine, ma oggi sempre più il punto di riferimento per la produzione di contenuti 3D real time interattivi ed immersivi. Il recente intervento, concretizzatosi con la formula del private equity, segue a breve distanza la super capitalizzazione da 181 milioni di dollari conseguita da Unity lo scorso anno, sempre nell'interesse di spingere nello sviluppo delle proprie tecnologie VR / AR.
  24. Update 20 maggio 2017 - Rilasciato YVR nella sua versione commerciale, oltre ad un nuovo video esplicativo delle feature annunciate in precedenza. YCIDVFX, studio portoghese, già noto per Nyx Voltron, Nyx Sidekick, Google Panorama Extractor e diversi altri software nati direttamente dall'esperienza in produzione, ha presentato la sua ultima creazione: YVR, un tool, attualmente in fase di sviluppo, che consentirà di avere un'anteprima in tempo reale dei rendering 360 direttamente all'interno di 3ds Max e Houdini. YVR lavora dunque in locale per aiutare gli artisti a visualizzare in tempo reale quello che sarebbe il risultato sul viewer. Oltre al tool in locale, concepito per gli artisti, YVR ha anche una viewer app che consente di visualizzare in modo classico i rendering 360 su molte piattaforme, tra cui PC, IOS, Android e WebGL. La YVR viewer app lavora ovviamente online, in modo da consentire ai clienti di avere un feedback immediato su tutti i progetti condivisi in 360, sia in viewport che utilizzando un cardboard. YCIDVFX ha inoltre pubblicato una serie di sneak peek per presentare in maniera dettagliata il workflow di YVK. I video, pubblicati a seguire, consentono di focalizzare un'idea precisa in merito al funzionamento di questo interessante tool per gestire gli output VR 360. _
  25. Tra le tantissime novità presentate da Google al suo I/O 2017 abbiamo avuto il piacere di conoscere Seurat, la nuova tecnologia di rendering "light-field" concepita in modo specifico per ottenere in mobile VR dei rendering con una qualita finalmente paragonabile a quelli normalmente prodotti in ambito CGI. E non è finita qui, perché Google promette tutto questo ben di Dio in una modalità affine al real time, con scene potenzialmente enormi, che farebbero fatica a girare su sistemi desktop molto ben corazzati. E come se non bastasse, in file di dimensioni estremamente contenute, un particolare che renderebbe questa tecnologia perfetta per l'impiego in ambito mobile. Come è possibile questo "trucco"? Grazie alla tecnologia light-field, che consente alla camera di "catturare" dati volumetrici. Questo particolare consente al player non soltanto di ruotare da un punto univoco come nei tradizionali render 360, ma di muoversi all'interno di uno spazio 3D ricostruito, con un'esperienza simile a quella esplorativa del rendering real time. Ok, ma come funziona Seurat? Utilizzando una tecnologia denominata "surface light-fields", Seurat supera il concetto di punto di vista, definendo piuttosto una vera area di vista, in cui è possibile caricare una grande quantità di asset. Una tecnologia proprietaria è dunque in grado di ridurre significativamente il numero di poligoni senza che questo comporti una perdita di qualità nel player mobile VR. La tecnologia light-field, essendo basata su dati "volumetrici", consente di renderizzare luci e ombreggiatura corrette anche variando la direzione del punto di vista nella scena. Proprio la capacità di "comprimere" la scena costituisce la principale novità di Seurat. Altre tecnologie di tipo light-field sono eccellenti dal punto di vista qualitativo, ma peccano di scalabilità, nel senso che le scene sono e rimangono enormi, dunque è possibile utilizzarle soltanto su sistemi desktop dalle performance elevate, non certamente su un normalissimo smartphone, per quanto le ultime generazioni, tanto più quelle certificate per Daydream VR, siano ormai assolutamente rispettabili in termini di specifiche hardware. Secondo Google, l'utilizzo di Seurat consentirà agli sviluppatori di realizzare giochi e applicazioni interattive mobile VR con una qualità finalmente paragonabile a quella oggi ottenibile con gli headset VR desktop o l'annunciato Daydream stand-alone, un'altra delle principali novità del Google I/O 2017. Quando sarà disponibile pubblicamente Seurat? Ad oggi non è dato saperlo. Mistero totale anche in merito a costi, modalità di utilizzo e licensing. Per capire le reali potenzialità di questa tecnologia di rendering, sarà necessario attendere maggiori dettagli tecnologici, nel frattempo possiamo valutare il risultato prodotto da ILMxLAB, la divisione di Lucasfilm specializzata nello sviluppo di nuove tecnologie che ha prodotto una versione sperimentale di Star Wars per mobile VR. Una curiosità: il nome Seurat è un tributo di Google al celebre pittore francese.
×
×
  • Create New...