Vai al contenuto

Francesco La Trofa

Moderatori
  • Portfolio

    Portfolio
  • Numero messaggi

    5895
  • Registrato

  • Ultima Visita

  • Days Won

    131

Francesco La Trofa last won the day on December 14 2017

Francesco La Trofa had the most liked content!

7 che ti seguono

Info su Francesco La Trofa

  • Rango
    treddizzofrenico

Informazioni professionali

  • Impiego
    Libero Professionista (Freelancer)
  • Sito Web
    http://www.treddi.com

Ospiti che hanno visualizzato il profilo

16795 lo hanno visualizzato
  1. Francesco La Trofa

    Il Master di Architettura Digitale IUAV

    Il boom delle professioni digitali sta comportando un notevole incremento nella richiesta di professionisti nel mercato della visualizzazione architettonica. Per soddisfare questo grande fabbisogno è necessario formare le figure impegnate ogni giorno a modellare e renderizzare i progetti degli studi di tutto il mondo. Quella che potremmo definire la "golden age" della visualizzazione architettonica ha dato il via ad un proliferare di scuole e corsi, con le proposte didattiche più varie: uno scenario di iperofferta formativa in cui non è affatto semplice orientarsi, soprattutto per chi, giustamente, è ancora digiuno di esperienza nel settore. Si trovano infatti soluzioni in grado di assecondare quasi ogni esigenza, dal corso breve su un software o un motore di rendering specifico, al corso di specializzazione della durata di alcune settimane, fino a soluzioni come il Master in Architettura Digitale IUAV (MADI), che rappresenta ormai un vero punto di riferimento per chi cerca un percorso formativo assolutamente completo sotto tutti i punti di vista. Con le sue 1500 ore articolate lungo un intero anno accademico, il Master Universitario di II livello diretto da Fabio D'Agnano rappresenta con ogni probabilità la soluzione più esaustiva attualmente disponibile in Italia. I feedback degli architetti che hanno avuto modo di frequentare il MADI in questi anni sono pressochè unanimi nel riconoscerne le qualità essenziali. E' il caso di Lara Negrisin, allieva della seconda edizione, ora in forza a RSI Studio a Parigi: "Il MADI pone ottime basi nell’apprendimento di svariati campi dell’architettura digitale, che possono aprire le porte a ottime posizioni lavorative". Le fa eco Giulia Adami, ora in Brick Visual: "Il MADI è stata per me un'esperienza molto positiva. Mi ha permesso di avere una visione globale nel mondo della visualizzazione e di conoscere da vicino molti studi che lavorano in questo mondo". Anche Andrea Bot non ha dubbi in merito: "Si tratta di un Master ben strutturato e sviluppato attorno a novità e tecnologie emergenti. Offre ottime connessioni per intraprendere una esperienza con importanti sviluppi professionali, soprattutto all'estero". Il segreto del successo del MADI risiede soprattutto nella qualità e nella completezza del suo programma didattico, in grado di coprire tutti gli aspetti più rilevanti dell'architettura digitale, dalla progettazione fino agli aspetti riguardanti la comunicazione e la visualizzazione. In altri termini, tutte le skill che occorre conoscere per proporsi con successo in ambito professionale. Immagine realizzata da Carla Di Girolamo e Grazia Vittoria Corsaro durante l'edizione VI del MADI (credits Di Girolamo, Corsaro) Secondo Isabella Severi, allieva della sesta edizione: "Il MADI è un'esperienza estremamente formativa, che mette a disposizione come docenti i migliori professionisti del settore a livello internazionale. Offre diverse opportunità professionalizzanti, facendo scelte che consentono l'accesso a questo corso anche a coloro che sono già lavoratori". Proprio nelle qualità del corpo docenti risiede probabilmente il vero valore aggiunto di un Master unico nel suo genere, grazie a nomi di grande sostanza e riconosciuta autorevolezza in moltissimi ambiti dell'architettura digitale, e non solo. Scopriamoli attraverso una rassegna dei principali moduli che caratterizzano il programma dell'ottava edizione. MODELLAZIONE La modellazione 3D riveste ormai un ruolo cruciale in tutti gli ambiti della produzione digitale. Il MADI copre in maniera esaustiva le tre principali metodologie. La Modellazione Poligonale in 3ds Max comprende due moduli, base ed avanzato, in cui si alternano Fabio D'Agnano e Alesssandro Deana. Un duo estremamente collaudato che vede la propria collaborazione nel volume 3ds Max per l'Architettura, che con le sue molteplici edizioni vanta una tradizione ormai ultradecennale, oltre a rappresentare l'indiscusso best seller in lingua italiana nella sua categoria. Profondamente differente a livello matematico rispetto all'approccio poligonale, la Modellazione Nurbs in Rhinoceros rappresenta l'altro principale metodo diffuso nell'ambito dell'architettura e del design. Il suo insegnamento è affidato alla grande esperienza di Michele Calvano. Michele Calvano è da sempre attivo nella ricerca e nell'applicazione di metodi innovativi per la modellazione Nurbs, utilizzando tecniche che vanno dalla modellazione parametrica al supporto dei software BIM, un altro degli standard che si imporranno in maniera sempre più determinante nei prossimi anni (credits Calvano, Sacco) In questo contesto non poteva certo mancare un modulo dedicato alla Modellazione Parametrica con Grasshopper, affidato ad Arturo Tedeschi, uno dei nomi più autorevoli a livello internazionale sul tema, autore tra l'altro del celebre volume AAD: Algorithms Aided Design. Sono sempre di più gli studi in tutto il mondo che utilizzano questo approccio alla generazione formale. Un caso molto celebre è rappresentato da Zaha Hadid Architects. Controllare la variazione di forme anche estremamente complesse può diventare davvero semplice grazie alla modellazione parametrica, che consente di definire gli algoritmi generatori, anzichè intervenire in modo creativo direttamente sull'esito formale. E' il caso di questo progetto, realizzato da Arturo Tedeschi, docente di modellazione parametrica con Grasshopper (credits Arturo Tedeschi) RENDERING L'edizione numero VIII per MADI si focalizzerà in particolare sui due motori di rendering più diffusi in ambito architettonico: V-Ray e Corona. Pur riuniti sotto egida di Chaos Group, i due software hanno mantenuto la loro identità operativa, al punto da essere utilizzati in maniera indistinta o risultare perfettamente complementari nell'ambito di workflow più articolati. La potenza e la flessibilità di V-Ray e la semplicità di Corona Renderer costituiscono delle qualità da cui è difficile prescindere nell'ambito della visualizzazione architettonica di alto livello. Il modulo Rendering con V-Ray vede la docenza di Alessandro Cannavà, mentre è ancora Alessandro Deana ad occuparsi nello specifico del modulo Rendering con Corona. Un'incredibile esempio dei risultati ottenibili con V-Ray nella simulazione avanzata di materiali complessi come il vetro. L'immagine è stata realizzata per Venini da Alessandro Cannavà, docente di Rendering con V-Ray del MADI (credits Venini) COMPOSITING E POST PRODUZIONE Dal rendering all'immagine finale di un progetto c'è un percorso di comunicazione che richiede nozioni tecniche e creative tutt'altro che improvvisabili. E' il motivo per cui il MADI ospita ben tre moduli dedicati alla fase di compositing e post produzione dell'immagine, a partire dalla Post Produzione Base con Photoshop, affidata ad un autentico veterano della disciplina come Martin Benes, apprezzato ed eccellente divulgatore sotto vari aspetti del mercato della comunicazione, come la realizzazione delle campagne commerciali e dell'advertising in generale. Di stampo più tipicamente architettonico è il contributo nella Post Produzione Avanzata di Laura Frascerra, senior archviz artist attualmente in forza alla londinese Cityscape Digital. Un particolare contributo alla Fotografia, Luci e Composizione dell'Immagine arriva inoltre da Ciro Sannino, autore del celebre testo Fotografia e Render con V-Ray, oltre che da molti anni formatore e mentor ufficiale del render engine di Chaos Group. Another Day of Sun, di Lucia Frascerra (credits Lucia Frascerra) ANIMAZIONE L'animazione è una delle frecce più efficaci con cui colpire il bersaglio nelle campagne di comunicazione in ambito Real Estate. L'approccio cinematico alla visualizzazione del progetto consente di raccontare gli spazi in maniera autoriale, toccando in maniera decisiva la componente emozionale dell'osservatore, che spesso coincide con il cliente finale del progetto. Saper fare animazione in architettura costituisce un grande valore aggiunto sia dal punto di vista tecnico-creativo che professionale. Il modulo di Animazione Video del MADI propone ben tre docenti, in modo da offrire tre differenti visioni operative sul tema, dal focus architettonico di Brick Visual, a quello generalista di Squint Opera, fino all'impronta VFX di Mauro Baldissera. Geneva Project, di Brick Visual. Realizzato con 3ds Max, V-Ray e una serie di tool proprietari (credits Brick Visual) REAL TIME - VR L'architettura del futuro sarà digitalizzata sempre più in tempo reale. Sono troppi i vantaggi di un metodo che consente di annullare di fatto i tempi di rendering, restituendo in sostanza un feedback immediato in tutte le fasi dello sviluppo di un progetto. Molti esempi di questo approccio vanno in scena ormai ogni anno sul palco di im-arch, evento internazionale che il team di Fabio D'Agnano organizza a Venezia per ospitare i nomi più interessanti nell'ambito delle tecnologie VR-AR in architettura. Da questo contesto emergono figure di primo piano come Luis Rivero, di Urban Simulations, cui è affidata al docenza del modulo Real Time - VR, una delle novità più importanti dell'ottava edizione del MADI. The Spiral, di Squint Opera, su progetto di BIG Architects (credits Squint Opera) Oltre ai moduli citati non mancano approfondimenti molto specifici, come la scansione 3D per la realizzazione del Texturing ad altissima risoluzione, un workflow sempre più utilizzato nella definizione dei progetti più realistici. Gli appassionati di digital fabrication troveranno inoltre pane per i loro denti nei moduli opzionali sulla stampa 3D, sul coding e sulla prototipazione elettronica. Il programma didattico del MADI, in corso di definizione, è disponibile al seguente link - http://www.masterad.it/calendario-viii/ IL TUTORAGGIO Uno degli aspetti fondamentali nell'ambito della didattica è la crescita degli allievi, attraverso le esercitazioni che vengono proposte e la realizzazione della tesi finale. Un percorso che, come testimonia la coordinatrice del master, Serena Ruffato, parte dalla formazione di classi il più possibile omogenee: "E' molto importante creare dei gruppi di studenti che abbiano un entry level simile, in modo che non si creino, sopratutto nelle prime fasi del Master, delle situazioni di squilibrio". Oltre al supporto dei docenti, il Master garantisce ad ogni allievo un costante tutoraggio, per i quali sono ingaggiati anche diversi ex allievi, che conoscono alla perfezione le dinamiche della didattica del programma messo a punto da Fabio D'Agnano. Per iscriversi all'ottava edizione del Master in Architettura Digital IUAV c'è tempo fino al 14 settembre. Tutte le informazioni sono disponibili al seguente link - http://www.masterad.it/program/ --------------------------------- articolo publiredazionale
  2. Francesco La Trofa

    MADI - Architettura Digitale con Fabio D'Agnano

    Negli ultimi anni abbiamo assistito ad un vero e proprio boom del digitale. Oggi il rendering è diventato uno strumento obbligato per rappresentare in maniera compiuta ogni progetto che si rispetti. Chi si è avvicinato di recente all’affascinante mondo della visualizzazione architettonica potrebbe trovare ovvia questa considerazione, ma un tempo nemmeno troppo remoto non era assolutamente così. Il rendering rappresentava quasi l’eccezione, qualcosa alla stregua di pochi appassionati visionari o di progetti ritenuti inarrivabili per le possibilità tecniche ed economiche dei comuni mortali. In questo contesto fa sempre estremamente piacere ritrovarsi a scambiare due chiacchere con uno straordinario professionista come Fabio D’Agnano, 30 anni di esperienza nell’architettura digitale, trasmessa attraverso la direzione del MADI (Master in Architettura Digitale IUAV), un percorso didattico assolutamente unico nel suo genere in Italia: ben 1500 ore di formazione calendarizzate in un Master universitario di II livello. Fabio D'Agnano (credits IUAV) L’incontro con Fabio rappresenta una preziosa occasione per fare un focus completo sui principali trend che stanno interessando l’evoluzione dell’architettura digitale, con le inevitabili ricadute a livello professionale. Temi da cui non possono prescindere soprattutto i giovani, coloro che si avvicinano, oggi, ad un mondo sempre più ricco di opportunità e potenziali soddisfazioni. Cosa si intende per architettura digitale? Tutte le tecnologie e gli strumenti digitali per l’architettura, tra le quali: Modellazione poligonale e parametrica, Scansione 3D, Rendering tradizionale e in real time, Animazione, VR-AR, Post Produzione, a cui si aggiungono aspetti meno evidenti come il coding, la prototipazione elettronica e la stampa 3D. Questa varietà è data dal fatto le opportunità professionali nell’ambito dell’architettura digitale sono più estese che in passato. Quale tra tutte le opportunità digitali è quella più rilevante sul mercato del lavoro? Senza dubbio la visualizzazione architettonica, almeno parlando in termini statistici. Su dieci richieste di lavoro per gli ex studenti che riceviamo al MADI, otto sono relative all’immagine. La prevalenza in tal senso è dunque molto netta. Per questo motivo architettura digitale e visualizzazione architettonica sono spesso considerate come una sola cosa, anche se in realtà la visualizzazione rappresenta soltanto una parte di un processo più ampio, che può includere prototipazione, fabbricazione digitale, e molto altro. Qual è a tuo avviso la più importante? A livello professionale è utile essere dei buoni generalisti, soprattutto nel mondo degli studi di architettura dove è difficile che si arrivi a una eccessiva specializzazione. Per questo motivo credo che un aspetto comune e da non trascurare sia proprio il controllo della modellazione. Costituisce la base per qualsiasi attività nella progettazione architettonica e nel design di prodotto, dal concept fino alla fabbricazione. Chi conosce davvero le varie tipologie di strumenti di modellazione può lavorare con facilità nell’ambito della visualizzazione architettonica, così come nel disegno industriale e nella stampa 3d, e affrontare nuovi problemi con relativa tranquillità. Essere dei bravi modellatori equivale a garantirsi molte porte aperte nel mondo del 3D. Si tratta dell'ambito che mi ha sempre affascinato di più e che tuttora tengo ad insegnare con estrema passione, insieme alla prototipazione elettronica. Immagine di Foster+Partners per il concorso internazionale "Cité de la Musique de Genève", realizzata da Alessandro Deana, allievo della primissima edizione del MADI ed attualmente docente di modellazione. L'immagine è stata realizzata con 3ds Max, Corona e Photoshop (credits de-cube, alessandro deana) Giunto alla sua ottava edizione, cosa offre il Master in Architettura Digitale ai suoi allievi? Lavoriamo ogni anno per migliorare l’offerta didattica e proporre un’esperienza che vogliamo sia davvero unica. Il Master offre un percorso estremamente pratico e concreto, perché vogliamo insegnare metodi e strumenti realmente richiesti dal mercato del lavoro. Non ci concentriamo su aspetti teorici, non perché ritenuti di scarso interesse, ma perché non è certo al percorso tradizionale delle università di architettura. Il MADI è un Master di II Livello, post lauream. Dopo tanti anni di università, un laureato in architettura o design possiede sicuramente un background culturale sufficiente e le sue carenze sono spesso strumentali. Nota - Per conoscere il calendario didattico provvisorio del MADI VIII - http://www.masterad.it/calendario-viii/ Quali sono i limiti della formazione dei corsi di laurea in Architettura che il MADI può compensare? Si tratta di percorsi didattici e formativi differenti. Il MADI non interviene su quanto svolto in precedenza, che è la base per essere davvero degli architetti, e si preoccupa piuttosto di colmare quelle lacune che limitano un architetto o un designer nel dare forma alle proprie idee. Il digitale offre grandissime opportunità, ma richiede competenze che non si improvvisano e che purtroppo vengono spesso trascurate nel corso dei piani didattici dei corsi di laurea tradizionali. Chi si iscrive ha sempre molto chiaro questo aspetto. Immagine realizzata da Giada Filippetti, studentessa della VI edizione del MADI, attualmente in forza ad AVR London, dove ha precedentemente svolto il tirocinio del Master (credits AVR London) Quali sono i requisiti di accesso al MADI? La condizione indispensabile è una laurea di cinque anni. Non è necessario invece avere conoscenze di carattere tecnico. Sicuramente saper già utilizzare alcuni dei software che utilizziamo nel programma può aiutare, ma in 1500 ore le competenze tecniche necessarie si acquisiscono anche partendo da zero, arrivando quasi sempre a risultati finali che superano sia le aspettative degli studenti che le nostre come docenti. È una circostanza che si verifica puntualmente ogni anno. Il nostro obiettivo non è direttamente la costituzione di un portfolio ad effetto. Non sarebbe sufficiente. È invece determinante insegnare a cavarsela davvero nelle situazioni che la produzione presenta ogni giorno. Per fare questo occorre tempo, perché i ragazzi devono arrivare a controllare lo strumento e a farlo loro, non semplicemente ripetere delle istruzioni. Le 1500 ore del MADI, sulla base di quanto emerso in sette anni, mi consente di poter dire con relativa consapevolezza che siano una misura più che sufficiente raggiungere questo livello. Il fatto di concentrare la didattica il venerdì e il sabato consente di includere chi lavora e intende specializzarsi o aggiornarsi per avere maggiori opportunità in ambito professionale. Il placement è un aspetto molto importante. Il MADI sa offrire opportunità concrete di stage a tutti i propri ragazzi, sia in Italia che all’Estero, in contesti socio-culturali anche molto differenti tra loro. Sicuramente in tutti questi anni abbiamo maturato decine di importanti contatti in tutto il mondo, ma non è un aspetto che intendiamo sbandierare. Passerebbe un messaggio non corretto. Invece i nostri allievi, posso garantirlo, vengono assunti in studi importanti come Foster+Partners, Renzo Piano Building Workshop, MVRDV, e molti altri, perché sono bravi, non perché li abbiamo mandati noi. Noi facilitiamo opportunità di stage, ma sono i ragazzi a doversi guadagnare sul campo la posizione. Se riescono in questo obiettivo, il merito è soltanto loro. E questo ci riempie di orgoglio. Parlando di contenuti, il programma appare incredibilmente completo per quanto riguarda i software che vengono insegnati. 3DS Max e Rhino guidano una lista davvero molto profonda. Ci concentriamo in particolar modo su 3ds Max e Rhino perché sono attualmente i software più diffusi, ma se uno volesse applicare certe nozioni in Blender, oppure che in Cinema 4D, non avrebbe alcun problema a farlo, perché i nostri docenti spiegano sempre nel dettaglio le logiche e le procedure. I software variano soprattutto nelle interfacce, ma a livello operativo sono molto simili. L’offerta è completata dal modulo su Grasshopper, uno strumento indispensabile per capire l’architettura contemporanea e molto richiesto nei grandi studi di architettura. Saper programmare, se pur visualmente, offre un sacco di alternative nel risolvere le sfide della progettazione, spesso con soluzioni che accelerano moltissimo le operazioni rispetto ai workflow tradizionali. Un insegnante come Arturo Tedeschi costituisce un grande valore aggiunto. Lo stesso discorso vale per tutti gli strumenti di scansione 3D, che utilizziamo anche per texturing di alta qualità, mirato al rendering. Non parliamo di qualcosa di indispensabile, ma conoscere strumenti come Quixel Megascans o Substance Designer agevola moltissimo il nostro lavoro. Il programma entrerà nel merito di alcuni motori di rendering ? Certamente, l'insegnamento prevede sia V-Ray che Corona. Anche in questo caso, parliamo dei software più diffusi nell’ambito del rendering architettonico. È inoltre importante affrontare almeno due motori di rendering, in modo da capirne il funzionamento generale, attraverso le loro analogie e differenze. Entrambi consentono di ottenere risultati eccellenti. Corona è davvero semplicissimo da usare, mentre V-Ray consente di personalizzare moltissimi aspetti del progetto. I due software hanno filosofie ancora diverse tra loro e di solito gli studenti scelgono quello che gli somiglia maggiormente. Immagine realizzata per Venini da Alessandro Cannavà, docente di V-Ray del MADI (credits Venini) Quale approccio prediligete tra il matte painting, basato sulla composizione 2D dell’immagine, ed il full 3D tipico dell’approccio real time? Personalmente non ho dubbi. Il futuro è nel real time. Sono troppi i vantaggi che questa modalità è in grado di garantire. Non soltanto nella definizione delle immagini finali, ma anche nel supporto alla progettazione, grazie all'interazione che Unreal Engine o Unity, in tutte le fasi, dalla progettazione alla manutenzione. Avere un modello completo in 3D ed un buon setup di lighting consente di fare infinite modifiche con la piena libertà di cambiare i punti di vista, e di alterare liberamente il progetto. Ma non per questo trascuriamo l’approccio compositivo tradizionale, basato sulla tecnica del matte painting. In molti casi partire da un 3D molto semplice e lavorare in composizione con Photoshop rimane un'alternativa valida. Dipende moltissimo anche dalle qualità e dalle inclinazioni personali dell'artista. Conoscere entrambi i metodi rimane professionalmente determinante ed è il motivo per cui abbiamo deciso di ingaggiare nel nostro corpo docenti dei grandi professionisti diversi tra loro come Martin Benes (post produzione con Photoshop), Lucia Frascerra (post produzione e compositing) e Ciro Sannino (composizione e lighting). In un contesto real time non poteva ovviamente mancare la VR e le applicazioni immersive. Conoscere la VR è molto importante nel contesto dell’architettura digitale, non soltanto in prospettiva, ma già in atto. Siamo molto felici di avere con noi come docente Luis Rivero, di Urban Simulations, che è stato in grado di ottenere già oggi risultati straordinari nei suoi lavori. Poter riunire il progettista e le altre parti in causa, simultaneamente anche da diverse parti del mondo, all'interno del progetto costituisce un'opportunità cui è impossibile rimanere indifferenti. Oltre al real time, una grande attenzione è rivolta all’animazione. I video in architettura sono prodotti sempre più diffusi. I grandi studi producono in misura crescente materiali di qualità, che sono sempre più vicini a quanto realizzato in ambiti come il cinema e la pubblicità. Le università purtroppo non forniscono neanche le basi della Video Animazione. Concetti come la regia o il montaggio sono del tutto sconosciuti a chi esce da una qualsiasi facoltà di architettura, non parliamo degli aspetti tecnici. Il programma del MADI offre più punti di vista, propri di vari ambiti della produzione video, che vanno da quella dichiaratamente architettonica di studi internazionali come Brick Visual e Squint Opera, fino a quella di chi proviene dalle produzioni VFX, come nel caso di Mauro Baldissera. Flowing è il progetto finale di tesi di Grazia Vittoria Corsaro e Carla Di Girolamo, studentesse della VI edizione del MADI, chiaramente ispirato all'opera di Carlo Scarpa. Si tratta di un progetto sorprendente per maturità tecnica e creativa, che si è meritatamente aggiudicato una nomination per i CG Architect Award 2018. Per realizzare questa animazione sono stati utilizzati: 3DS Max, Corona, Phoenix FD, Reality Capture, Nuke X e Premiere Pro (credits Corsaro-Di Girolamo) Come se non bastasse tutto questo, il Master offre la possibilità di frequentare dei corsi opzionali.. Si, anche se a dir il vero non si tratta di una novità, nel senso che abbiamo deciso di mantenere dei moduli di insegnamento che erano presenti nelle prime edizioni ma che, attualmente, avrebbero sforato il limite di ore previsto per un Master universitario di II Livello. I moduli di coding, prototipazione elettronica e stampa 3D continueremo a farli e saranno disponibili per tutti gli studenti. Ritengo sia una scelta molto importante, perché si tratta di argomenti poco noti ma di estrema importanza per l’architettura digitale. Capita inoltre che alcuni si appassionino e decidano di specializzarsi in questi ambiti, più legati al manufacturing che non al visual. Nel mio caso, professionalmente, è stato così. Ribaltiamo ora il punto di vista: come docente e direttore del MADI, cosa ti ha lasciato l'esperienza di tutti questi anni? C’è un momento in cui si devono trasmettere le competenze maturate in tanti anni di professione. Il docente per me è simile all’allenatore nello sport: si affianca all'allievo, cerca di spingerlo a dare il massimo, a capirlo e a direzionarlo. Non credo nei docenti lavorano dall'alto, trasferendo il loro modo di vedere il mondo e che cercano studenti pronti a mimarli. Preferisco figure che lavorano in orizzontale, curando invece il rapporto diretto con l'allievo. Molti ragazzi, dopo il master, hanno scelto di tornare da noi come tutor per aiutare i colleghi più giovani e questo mi fa enormemente piacere, in quanto esprime proprio quel concetto di trasmissione orizzontale delle competenze che ritengo essere il metodo didattico migliore per insegnare l'architettura digitale. Si crea un rapporto di grande rispetto e sinergia, che prosegue anche al di fuori dell'aula, in una sorta di terzo tempo in cui grandi professionisti e nuove leve si incontrano davanti a un bicchiere. _________________________________________________________ Tutte le informazioni sul Master in Architettura Digitale IUAV sono disponibili sul sito ufficiale: http://www.masterad.it/what/ Le pre-iscrizioni per l'edizione VIII, in partenza nel 2018, chiudono il 14 settembre. ___________________________________________________________________________ Articolo publiredazionale
  3. Francesco La Trofa

    EYECAD BIM TO VR

    La Realtà Virtuale è una tecnologia in grado di condizionare vari momenti dell’industria delle costruzioni. Grazie a strumenti dotati di enormi potenzialità nella collaborazione e nella visualizzazione dei progetti. La VR è ad esempio decisiva supporto che è in grado di garantire alle fasi decisionali, sia nelle fasi di progettazione che nelle campagne commerciali in ambito Real Estate. A livello operativo, la VR va inserita in un contesto più ampio, che non può prescindere dalle fasi operative tipiche della progettazione. Se la visualizzazione è interessata da un momento di transizione che vedrà l'imporsi di nuove varianti tecnologiche, ciò assume ulteriore grado di consapevolezza se si considera il modus operandi dei progettisti. I tradizionali CAD iniziano a cedere progressivamente spazio sugli hard disk ai software BIM (Building Information Modelling), strumenti di modellazione parametrica in grado di creare e gestire tutti i dati del progetto. Nella metodologia BIM il disegno del progetto non si limita alle sole informazioni geometriche, sintetizza piuttosto quel sistema di dati e informazioni che lo caratterizzano. Il BIM è in grado di integrare aspetti relativi al progetto architettonico, strutturale, impiantistico, oltre a tutte le informazioni relative alla vita della costruzione, informazioni determinanti per la sua manutenzione e il facility management. In questo contesto, caratterizzato da una nuova cultura informatica nell’industria delle costruzioni, trova conforto la tesi che vuole il workflow BIM to VR in grado di sostenere ogni momento della creazione del progetto: dal concept iniziale fino alla visualizzazione immersiva degli ambienti creati, elemento chiave per differenziare la propria offerta in un ambito saturo e competitivo come quello del Real Estate. L’aspetto più stimolante nella definizione di un flusso di lavoro interdisciplinare in architettura è dato dalla sinergia che andrà a generarsi tra le varie professioni del BIM (su tutti i BIM specialist) e i professionisti della VR. Il tradizionale confronto tra il caddista e il renderista evolve in una dimensione molto più ampia e sfaccettata, in cui concertano molte più specializzazioni, in funzione della dimensione e della complessità dei progetti. BIM TO VR: IL WORKFLOW DEL FUTURO SU EYECAD VR I principali software BIM sono dotati di tool interni per il rendering e talvolta dispongono già di un "output to VR", ma i risultati migliori si ottengono logicamente esportando verso software esterni, in grado di semplificare ed ottimizzare la gestione dei progetti, offrire una qualità di rendering superiore e coinvolgere maggiormente l'utente finale con scene interattive: è il caso di Eyecad VR. Attraverso un semplice plugin, disponibile sul App Store di Autodesk, Eyecad VR è in grado di importare i file di Revit, acquisendo tutte le informazioni geometriche da cui partire per impostare tutte le interazioni (es. apertura porte, spostamento arredi, variazioni di materiali e finiture, ecc.) e definire le variabili ambientali ed il sistema di illuminazione della scena di progetto. La stessa è esplorabile in tempo reale sia a video, come in un tradizionale videogioco, che attraverso i visori per la Realtà Virtuale. Eyecad VR agevola in maniera determinante il compito dei progettisti, grazie a molti preset che tengono conto delle esigenze più ricorrenti: dai materiali, agli oggetti utili per completare la scena (vegetazione, arredi, ecc.) fino ai settaggi di illuminazione naturale ed artificiale, per interni ed esterni. Con pochi click, il modello esportato dal software utilizzato durante la progettazione è pronto per il rendering. E per l'esperienza in VR. Il plugin si integra comodamente nell'interfaccia di Revit. Oltre all'opzione per lanciare l'exporter è presente un pratico help, capace di guidare l'utente nella configurazione delle opzioni possibili. La procedura è comunque assolutamente intuitiva e con pochi tentativi è possibile ottenere la totale padronanza delle operazioni. Eyecad VR consente di linkare direttamente ad un nuovo progetto i contenuti esportati da Revit. Il numero di opzioni del menu di importazione è ridotto al minimo e consente di importare o meno le texture dei materiali definiti con Revit. In alternativa è possibile ridefinire qualsiasi materiale sulle geometrie importate Una delle funzioni più apprezzate di Eyecad VR è la possibilità di convertire in modo automatico le risorse di Revit in oggetti editabili. Le famiglie vengono convertite in gruppi editabili. I materiali di Revit sono automaticamente trasformati nei materiali PBR proprietari di Eyecad VR, in modo da aumentare senza sforzi il livello di realismo complessivo Rispetto a Revit, Eyecad VR consente di avere un feedback visivo in real time sul progetto di qualità decisamente maggiore, agevolando le scelte del progettista. Attraverso i preset, Eyecad VR consente di variare materiali e finiture, oltre a poter impostare molti setup di lighting con un semplice click (Night, Day, Afternoon, Sunset, ecc.), per avere una percezione immediata del mood del progetto Una delle feature più interessanti che i software real time offrono agli architetti e ai designer è la possibilità di configurare i progetti, offrendo la possibilità di farlo anche ai clienti finali. Eyecad VR dispone di un apposita sezione che consente di pre-configurazione qualsiasi elemento con semplici azioni drag and drop. Il configuratore è disponibile sia nella modalità VR che nel rendering su display tradizionale NON SOLO BIM: EYECAD VR IMPORTA ANCHE RHINO E SKETCHUP Oltre alla connessione con Revit, Eyecad VR dispone da tempo di plugin collaudati per gestire i progetti sviluppati in Rhino e in Sketchup. Gli stessi vantaggi operativi che si hanno con Revit, sono infatti possibili anche utilizzando i modellatori 3D più diffusi nell'ambito della progettazione architettonica. I plugin di Eyecad VR sono strumenti in grado di automatizzare procedure spesso lunghe e macchinose, come nel caso dell'impostazione dei layer come parti distinte per applicare i materiali, con il significativo vantaggio di risparmiare tempo e ridurre la possibilità di errori nella gestione del progetto. Per scoprire tutte le versioni di Eyecad VR e scaricare la demo - https://eyecadvr.com/software/ Eyecad VR è disponibile anche su licenza educational e con soluzioni multilicenza personalizzate per le aziende. ---- articolo publiredazionale
  4. Francesco La Trofa

    #BIMisNOTrevit or #BIMisREVIT ?

    La storia, ed il caso betamax vs VHS calza a pennello, insegna che quasi sempre si è imposto lo standard tecnicamente inferiore
  5. Francesco La Trofa

    UQIDO Academy - VR e AR in scena al Open Day

    La Realtà Virtuale e la Realtà Aumentata sono tra le tecnologie emergenti più interessanti in assoluto sia a livello di applicazioni che per quanto concerne le opportunità professionali che stanno creando nel loro naturale processo di crescita. Seguendo questa prospettiva, UQIDO, software house con sede a Padova, ha incentrato una quota consistente della propria attività nello sviluppo di soluzioni immersive, introducendo molte realtà produttive al mondo dell'immersive computing, in ambiti quali l'industria (training, assistenza in remoto), healthcare, banking, cultura e turismo, oltre a supportare le aziende di prodotto nelle attivitià di marketing e comunicazione. Dettagli che via abbiamo di recente raccontato nell'intervista a Pier Mattia Avesani, CEO di UQIDO. ACADEMY OF IMMERSIVE TECHNOLOGIES UQIDO ha deciso di fondare una vera e propria Academy of Immersive Technologies, con il duplice ed ambizioso obiettivo di formare VR Developer con un particolare interesse verso le applicazioni business ed offrire alle aziende servizi di ricerca e sperimentazione per implementare le tecnologie immersive all'interno dei loro processi, piuttosto che sviluppare applicazioni finalizzate a risolvere obiettivi specifici. Stefanella Ebhardt, responsabile del progetto UQIDO Academy, spiega: "Cerchiamo la prossima generazione di sviluppatori talentuosi, pronti a lasciare un segno nel mondo dell'immersive computing. La nostra offerta si differenzia rispetto a quella orientata verso il gaming e l'entertainment in generale. Ci rivolgiamo nello specifico al VR e AR Development in ambito enterprise". VR E AR DEVELOPMENT: IL CORSO Il primo corso della UQIDO Academy sarà dedicato in maniera esclusiva alla figura dello sviluppatore VR e AR. Il programma didattico del corso VR AR Development prevede cinque macro moduli, per un totale di 400 ore complessive: - Unity 3D Development- Programmazione in C#- Realtà Virtuale (SteamVR e WebVR)- Realta Aumentata (Vuforia, ARKit, ARcore)- Project Workflow (Git, Assets e Agile Project Management)Ai fini di formare una classe omogenea, per accedere al corso è necessario superare un semplice Test di Accesso Online, utile a verificare le basi della programmazione (indipendentemente da linguaggi specifici). La conoscenza di Unity e dei fondamenti del 3D ovviamente costituisce un plus considerevole in virtù della gestione degli asset 3D, ma non rappresenta un prerequisito. La partenza del corso è prevista per il 2019. Nel 2018 è prevista un'edizione di lancio, a partecipazione gratuita, realizzata in collaborazione con Randstad, della durata di 5 settimane. I posti disponibili sono soltanto 8 ed è necessario anche in questo caso superare il test di ammissione. https://www.uqido.com/academy-admission-2018/ PORTFOLIO FINE CORSO E PLACEMENT Agli allievi viene proposto un approccio didattico project-based, per concludere il corso con un portfolio di contenuti VR e AR sviluppati nel contesto dei workshop e hackaton proposti dalle aziende partner. In queste occasioni gli allievi entreranno in diretto contatto con i manager delle aziende stesse e potranno sviluppare cosi i loro primi contatti professionali. "Ci teniamo a precisare - prosegue la Ebhardt - che durante il corso gli allievi non verranno mai impiegati da UQIDO in produzione, ma svolgeranno le applicazioni seguiti da docenti e tutor, con l'obiettivo di garantire loro le migliori condizioni funzionali ai tempi dell'apprendimento". A fine corso UQIDO offrirà direttamente almeno tre contratti ad altrettanti allievi, impegnandosi a segnalare ulteriori candidature presso i suoi Developer partner a Parigi, Londra, Berlino e Barcellona. STRUTTURA E DOTAZIONE A livello di dotazione, le aule e i laboratori sono sostanzialmente dotate degli stessi strumenti che UQIDO utilizza in produzione, dunque workstation e software costantemente aggiornati, con i principali device immersivi, tra cui HTC Vive, Oculus Rift, VR One backpacks, Mixed Reality e Stand Alone Headset. Agli studenti provenienti da fuori sede saranno offerte condizioni eccezionali presso le strutture ricettive convenzionate. Le strutture di UQIDO prevedono spazi ampi e funzionali alle lezioni informatiche cosi come ai momenti dedicati alla formazione frontale e di teamworking, come il workshop ritratto nell'immagine, tenutosi presso la Piazza di Uqido (credits UQIDO) UQIDO OPEN DAY Per scoprire ogni dettaglio gli interessati potranno frequentare il prossimo UQIDO OPEN DAY, in programma per il 10 luglio a Padova. Sarà possibile conoscere i docenti, provare le esperienze in VR e AR prodotte da UQIDO, oltre a godere di promozioni esclusive che verranno svelate direttamente in occasione dell'evento. Una opportunità da non perdere. Per prenotarsi al UQIDO OPEN DAY del 10 luglio - http://bit.ly/OpenDayAcademyUqido Durante l'Open Day sarà presentata anche l'edizione di lancio del corso VR-AR Developer, realizzata in collaborazione con Randstad. Per informazioni generali, sui costi, sulle borse di studio e sulle modalità di iscrizioni dei corsi di UQIDO Academy - http://bit.ly/academyXR -------------------------------- articolo publiredazionale
  6. con miracast (supportato da molti device) credo sia possibile condividere direttamente l'ambiente windows, dunque raggiungere quell'obiettivo. https://support.microsoft.com/it-it/help/15053/windows-8-project-wireless-screen-miracast altrimenti HDMI diretto da un qualsiasi notebook.
  7. Francesco La Trofa

    A scuola di VR: l'esperienza di UQIDO

    Il VR Development è senza dubbio una delle discipline in grado di offrire le maggiori opportunità professionali, ora e in via nettamente crescente nei prossimi anni, quando le applicazioni basate sulle tecnologie immersive inizieranno a diffondersi in modo capillare. Se in ambito consumer la Realtà Virtuale non è ancora matura per una grande diffusione, lo stesso non si può infatti dire per quanto riguarda l'ambito business, dove i progetti e le applicazioni VR-AR si stanno diffondendo molto rapidamente, grazie alla loro capacità di risolvere esigenze già in atto. Per approfondire il tema del VR Development e quali saranno le sue prospettive abbiamo incontrato Pier Mattia Avesani, fondatore di UQIDO, una delle realtà più interessanti in Italia per quanto concerne lo sviluppo di esperienze immersive per il business. Pier Mattia Avesani, CEO di UQIDO (credits UQIDO) Oltre a poter vantare una consolidata realtà in produzione, che conta ormai in circa 40 dipendenti, UQIDO cura ogni anno EICS (European Immersive Computing Summit), evento di alto profilo sulle XR in ambito enterprise ed ha aperto una divisione specifica dedicata alla formazione e alla sperimentazione delle tecnologie immersive in ambito professionale: UQIDO ACADEMY. (FLT) - Il VR Development suscita argomenti di grande interesse, ma tradotto in termini professionali, in cosa consiste? (PMA) - Lo sviluppo di applicazioni per esperienze in realtà virtuale ed aumentata richiede competenze al tempo stesso varie e specifiche. Il VR Development, in maniera simile al Game Development, in produzione prospetta tre figure principali, che sono il Coder, il 3D Artist e il Designer. Se il VR Dev può essere visto tecnicamente come un caso particolare del Game Dev, quando si parla di applicazioni business però il discorso cambia, in funzione della tipologia di progetti e di esigenze dei clienti. Varia inoltre il target di riferimento previsto per le esperienze VR e AR. E' dunque necessario acquisire competenze specifiche. Il VR Developer, soprattutto per quanto concerne il programmatore è una figura richiestissima ed attualmente tutt'altro che facile da trovare nel mercato del lavoro, soprattutto in ambito business. Il gaming vanta un background più consistente, ma è comunque un altro settore in crescita, dunque non è semplice trovare da quel segmento delle figure in esubero, a prescindere dal livello di esperienza. (FLT) - In termini di numeri, come potremmo quantificare questa grande voglia di VR? (PMA) - Negli ultimi due anni in UQIDO abbiamo ricevuto da parte delle aziende un incremento di richieste per progetti legati alle XR di circa otto volte rispetto ai periodi precedenti. E il trend pare destinato ulteriormente a crescere. (FLT) - Come nasce un progetto legato a VR e AR? Le aziende conoscono già la tecnologia e le sue potenzialità o vanno orientate passo per passo? (PMA) - Le aziende sanno che ci sono nuove possibilità offerte da VR e AR e sono interessate ad implementarle. In questo momento non c'è ancora una cultura diffusa in merito, quindi non sa come fare, ma la curiosità e la richiesta ci sono, così come la disponibilità a valutare gli investimenti necessari. Il nostro payoff è Complexity made Simple, in quanto è effettivamente ciò che va fatto. Il cliente arriva con un problema che gli appare complesso da risolvere. Ci sono sempre vincoli, paletti e situazioni molto specifiche da prendere in considerazione. La prima cosa da fare è rendere semplice la sua soluzione. I progetti partono quindi con un processo di Design Thinking con il cliente, finalizzato a capire quale sia effettivamente la strada migliore da prendere dal punto di vista progettuale. A quel punto, il comparto tecnico del Team XR applica le sue competenze per realizzarla. Le nostre esperienze di Augmented e Virtual Reality sono studiate sulle particolari esigenze di ciascun committente: dall’intrattenimento alla formazione, dall’ industry 4.0 all’ healthcare, passando per architettura e design di prodotto, illustriamo le potenzialità dell’Immersive Computing attraverso showcase esplicative. Ci avvaliamo di figure professionali trasversali, specializzate e competenti: Developer, Product Designer, UX e UI Designer, CG Artist, Technical Sound Designer, Game Designer. L'esperienza sviluppata da UQIDO per Credit Agricole consente ai clienti di visitare virtualmente Londra e Parigi nelle filiali delle banche. Entrambi i luoghi sono raggiungibili virtualmente grazie a visori HTC Vive e backpack VR-ONE di MSi. L’esperienza è creata interamente ad hoc, partendo dalla stesura della storyboard ed arrivando alla creazione in Computer Grafica delle ambientazioni, passando attraverso l’ideazione di interazione che permettano agli utenti di spostarsi da un’ambientazione all’altra (credits UQIDO). (FLT) - Cosa differenzia il programmatore VR dal programmatore che definiremmo tradizionale? (PMA) - Il fatto che la VR si basa su interazioni in ambienti 3D, che sono decisamente poco radicati nel contesto della programmazione tipica del settore IT. Emerge quindi una ulteriore differenza, tra lo sviluppo di applicazioni 3D interattive non immersive ed esperienze in VR. I concetti di base sono gli stessi ma soltanto con i concetti non si arriva in fondo ad un progetto. In questo ambito, oltre alle nozioni di VR usability, è necessaria una notevole cultura del fare, che consiste tra le altre cose nel conoscere in maniera molto approfondita i device VR e AR per cui si sviluppano le esperienze. Occorre dunque investire molto tempo e risorse sui vari dispositivi commerciali per la realtà virtuale e aumentata, oltre ai Development Kit per sviluppare sulle tecnologie ancora in fase di definizione. Si tratta di una situazione molto dinamica, che impone di essere, come si suol dire, costantemente sul pezzo. UQIDO, grazie alla sua esperienza pluriennale e alle competenze acquisite su decine di progetti in VR e AR è in grado di garantire il pieno supporto in tutti questi aspetti. I nostri laboratori sono dotati di tutti i device VR e AR commerciali, oltre a installazioni progettate ad hoc, come nel caso di The Edge Immersive Box. Oggi chi si forma come programmatore, genericamente non ha competenze di ambienti 3D, allo stesso modo, i 3D Artist sono spesso del tutto ignari a livello di programmazione. Non è un problema, ma oggi il mercato chiede nuove professionalità e competenze. Noi vogliamo condividere questa visione in termini molto concreti e per questo stiamo lanciando UQIDO Academy. (FLT) - UQIDO Academy nasce per formare VR-AR Developer, ma anche per sperimentare progetti a stretto contatto con le aziende partner. Verrebbe quasi da definirlo un competence center. (PMA) - La formazione deriva infatti dalle competenze concrete che occorrono per sviluppare progetti professionali in vari ambiti del business. Da un lato, vogliamo formare VR Developer, dall'altro, rispondere alle esigenze di ricerca delle aziende, che coincidono quasi sempre con le esigenze contenutistiche della formazione stessa. Creare un punto di contatto tra la formazione e la ricerca è essenziale. A questo aspetto va dedicata un'attenzione specifica, che difficilmente può essere messa in contatto con con le modalità e i ritmi imposti dalla produzione. (FLT) - A chi si rivolge nello specifico il primo corso in VR AR Development? (PMA) - Vogliamo formare figure che abbiano già competenze di base nella programmazione, perché diventino sviluppatori per la VR e la AR. E farlo con specifico riferimento all'ambito business. L'offerta formativa prevede un percorso full time di training specializzante "Theory Based Learning" + "Project Based Work", Lo studio della programmazione software specifica con Unity, supportato da ArCore, ArKIt, SteamVR, sarà applicato a progetti reali proposti da aziende e porterà alla produzione di applicazioni di AR o VR finite. Il fatto di lavorare su casi reali è finalizzato anche a trasmettere le nozioni relative alla gestione di un progetto (project management). Gli allievi dovranno prendere atto di come funziona una realtà professionale, quindi interfacciarsi con le esigenze del cliente vero e proprio, collaborare con altre figure all'interno di un team e rispettare precise deadline di consegna. Oltre agli aspetti legati alla programmazione, il corso prevede momenti applicativi in cui l'allievo entra in relazione con vari approcci metodologici, tra cui il Design Thinking, fondamentale per inquadrare in termini progettuali le esigenze del cliente (credits UQIDO) (FLT) - Un corso per molti, ma non per tutti. Quali sono le conoscenze necessarie per superare con successo il test d'ingresso? (PMA) - I concetti base della programmazione. Non richiediamo competenze di linguaggi specifici. Il corso prevede la programmazione in Unity, ma non è necessario conoscere Unity. Eventuali competenze in tal senso sono un plus, non un prerequisito. il corso prevede una formula molto intensiva, con 600 ore concentrate in 4 mesi, proprio perché ha intenzione di specializzare, non di formare da zero. Chi uscirà da UQIDO Academy sarà assolutamente produttivo sin dal primo giorno in un contesto professionale. (FLT) - Cosa rende unica l'offerta di UQIDO ACADEMY? (PMA) - Il fatto di essere molto specifica per lo sviluppo in VR-AR per il business e di mettere a disposizione tutte le tecnologie più avanzate a livello hardware e software per poterlo fare. Si studia programmazione software specifica per esperienze immersive, non "anche" per esperienze immersive. (FLT) - Per chi ha una formazione di base come 3D Artist quali prospettive professionali può offrire il VR Development? (PMA) - Quella di professionalizzarsi in un contesto aziendale, nell'ottica di un'assunzione, o sviluppare quelle competenze che possono garantirgli la possibilità di lavorare come Freelance in tantissimi ambiti. Soprattutto ai ragazzi che hanno interesse per lo sviluppo di giochi o applicazioni interattive, consiglio in modo spassionato di imparare a programmare. (FLT) - 3D e Coding non si escludono affatto. (PMA) Anzi, le ritengo assolutamente complementari per il tipo di prodotto che il mercato richiede ora. Anche nel caso di una volontà di specializzazione, conoscere le basi dell'altra disciplina consente di relazionarsi in modo più consapevole con le altre figure coinvolte nei progetti. Questo approccio oltretutto apre ulteriori prospettive professionali rendendo più facile l'evoluzione a ruoli di maggior responsabilità, come quello del Project Manager. (FLT) - Nelle 600 ore di corso è previsto un periodo di stage o produzione all'interno di UQIDO? (PMA) - No, l'Academy è un progetto referenziato in modo specifico. Il nostro interesse non è nel prendere corsisti per farli lavorare in azienda. Non intendiamo sfruttare nessuno. Il nostro obiettivo è formare gli allievi e garantire loro un futuro quali veri professionisti, rispettando le loro aspettative in termini di risultato. Queste meritano un'attenzione propria, costituita dai tempi dell'apprendimento, che non coincidono con i ritmi di un reparto produzione. I casi reali sviluppati durante il corso arriveranno da progetti proposti da aziende partner. Per fare un esempio diretto, citerei la situazione dell'Hackaton. Esperienze brevi ed intense, in cui mettere a dura prova le proprie competenze. E' un metodo di lavoro che consente di imparare moltissimo, soprattutto se si è supportato da tutor davvero esperti, come quelli che ci sentiamo in grado di garantire. UQIDO Academy dispone di hardware e software di ultima generazione, la stessa in dotazione al team XR in produzione. Ad ogni allievo viene garantita una workstation riservata, utilizzabile in qualsiasi momento, anche oltre l'orario di lezione. (credits UQIDO) (FLT) - A livello di placement promettete anche alcune assunzioni in azienda. Su quali basi sarete in grado di mantenere questa promessa? (PMA) - Sulla base del piano assunzioni che abbiamo in atto per UQIDO saremo in grado di inserire almeno tre VR Developer junior nel team XR. Si tratta di una garanzia che però non vuole condizionare il percorso formativo, né vogliamo che i ragazzi si iscrivano ai corsi per cercare lavoro da noi. Siamo infatti assolutamente convinti che una figura con le competenze acquisite in UQIDO Academy sia perfettamente in grado di ottenere grandi opportunità anche altrove. Il nostro obiettivo sarà quindi quello di cercare di garantire ad ogni allievo le migliori prospettive, anche grazie a segnalazioni dirette presso altri studi e aziende con cui collaboriamo a Londra, Parigi, Berlino e Barcellona. (FLT) - Sono previste agevolazioni per chi intende iscriversi? (PMA) - Certamente, i costi di iscrizione possono essere coperti parzialmente o totalmente da borse di studio, messe a disposizione da enti ed aziende partner, sulla base del soddisfacimento di determinati requisiti. L'obiettivo è partire con il primo corso al raggiungimento del numero minimo di 8 allievi in una classe, la cui omogeneità è garantita dal superamento del test di ingresso. L'edizione 2018, realizzata in collaborazione con Randstad, sarà in ogni caso totalmente gratuita per gli 8 allievi che supereranno le selezioni. (FLT) - In attesa di superare l'agognato test di ingresso, quale può essere il modo migliore per conoscere più da vicino la realtà di UQIDO Academy? (PMA) - Faremo una serie di Open Day (quest'anno si terrà il 10 luglio 2018, NdR) per far conoscere UQIDO. Suggeriamo a tutti di partecipare in quanto la nostra offerta formativa è particolarmente innovativa, quindi venire a conoscere i docenti, la struttura didattica e i progetti realizzati dal nostro team XR riteniamo sia l'opportunità migliore per prendere atto di quali siano le opportunità professionali che il VR development oggi è in grado di offrire. Vi aspettiamo. Per ulteriori approfondimenti sul corso VR-AR Developer di UQIDO Academy Programma didattico - https://www.uqido.com/resources/academy/program.pdf Informazioni generali sul corso - https://www.uqido.com/academy-admission/ Test di accesso all’Academy of Immersive Technologies - https://www.uqido.com/academy-test/ Informazioni generali e test di accesso per l'edizione 2018 (powered by Randstad) - https://www.uqido.com/academy-admission-2018/ ______________________ articolo publiredazionale
  8. Francesco La Trofa

    Udemy: i corsi 3D su Unity, Unreal Engine e Blender

    Le situazioni che possono portarci ad apprendere in breve tempo i fondamenti di un software o di una disciplina sono molte. Sono i casi in cui "google non basta". Vi cito una situazione che mi ha interessato in prima persona. La scorsa estate sono coinvolto in una iniziativa di Design Thinking. Bene. A pochi giorni dal workshop non sapevo assolutamente nulla di concreto in merito al Design Thinking. Certo, ne avevo sentito parlare, ma le mie competenze non mi avrebbero mai consentito di interfacciarmi in maniera seria con le altre figure presenti, senza aver generato l'imbarazzante situazione dell'improvvisatore dell'ultima ora. Dopo una breve ricerca online, ho trovato un corso online sulla piattaforma Udemy: "Cooper Crash Course: Design Thinking in 3 Steps". Il titolo era esattamente quello che faceva per me. Un crash course, in grado di darmi in breve tempo le competenze entry level di cui avevo bisogno per sopravvivere al workshop che mi attendeva. I commenti positivi al corso, le ottime referenze online del docente, Alan Cooper e la garanzia di rimborso in caso di insoddisfazione mi hanno convinto a procedere all'acquisto. Con il senno di poi, la scelta si è rivelata del tutto azzeccata. Con una spesa di dieci euro ho avuto modo di seguire esattamente il corso che cercavo. Lungi dal ritenermi un esperto in materia, oggi posso dire di sapere cos'è il Design Thinking e quali sono le operazioni basilari della prototipazione. Lo stesso ovviamente vale per quanto concerne le competenze nel 3D. Oggi sempre più ambiti del business richiedono contenuti 3D e capita sempre più spesso di dover apprendere in breve tempo i fondamentali di un nuovo software, per poter ampliare la propria varietà produttiva. Nell'ambito della produzione dei contenuti 3D, l'esempio lampante è costituito dai game engine. Fino a qualche anno, fa Unity ed Unreal Engine erano usati prevalentemente dai Game Developer. La crescente richiesta di applicazioni interattive ha in qualche modo "costretto" molti 3D Artist ad apprenderne i fondamenti. Dopo aver scaricato uno dei due middleware, arriva il momento in cui, oltre all'ampio range di risorse online disponibili, sarebbe comodo disporre di un corso online dotato di una struttura organica, in grado di darci una visione di insieme sui fondamenti di utilizzo del software. Qui entra in gioco tutta la flessibilità dei corsi di Udemy. L'offerta di Udemy prevede un catalogo di oltre 800 corsi sul 3D comprende sia una serie di corsi di riferimento a livello internazionale, che una crescente offerta di contenuti in Italiano, concepiti in modo particolare per i principianti. La maggior parte dei corsi viene inoltre aggiornata con l'introduzione di nuove lezioni, quando le nuove release dei software rilasciano nuove funzioni e a volte anche quando gli studenti stessi chiedono alcuni approfondimenti. Per ora, in merito a temi ed argomenti 3D, ho avuto modo di provare i seguenti corsi. Unreal Engine 4: dalle basi a uno Stealth Game, corso molto esteso in termini di feature, tenuto da Roberto De Ioris, docente di programmazione presso la Accademia Italiana Videogiochi (AIV). La tipica interfaccia di navigazione dei corsi Unity prevede a sinistra il navigatore, con le singole lezioni ed i contenuti da scaricare per realizzare il tutorial. La schermata principale prevede un player essenziale con tutte le funzioni utili a gestire lo svolgimento della lezione, compresa la possibilità di utilizzare dei comodi segnalibri, richiamabili in qualsiasi momento (credits Udemy) Programmare con Unity 3D: creare videogiochi da zero, utile per chi è del tutto digiuno a livello di coding, per capire a cosa serve la programmazione nell'ambito di un game engine. Corso di Blender: da Principiante a Esperto, che offre una panoramica molto estesa a livello di feature, decisamente utile per chi si avvicina ad un software 3D, ragion per cui il titolo sarebbe stato forse più appropriato con il riferimento ai soli principianti. Il docente Andrea Coppola si dimostra molto disponibile per seguire gli allievi e rilascia costantemente nuove lezioni, di pari passo con la dinamicità con cui Blender ci ha abituati all'introduzione di nuove funzioni. Nel momento in cui scriviamo, i tre corsi citati sono oltretutto offerti in promozione per pochi giorni ad un prezzo molto interessante: 11,99 euro con uno sconto superiore al 90%. A chi consiglierei questo genere di offerta formativa? Soprattutto a chi cerca corsi economici, da seguire comodamente in Italiano e a tutti quei ragazzi che pongono la solita domanda "meglio questo o quel software?" Prima di iscriversi a corsi e master presso accademie che impegnano molti mesi e migliaia di euro, seguire online un corso base. Per sua definizione, un corso di base ovviamente non forma "from start to end" un professionista, ma mira a formare una visione operativa da cui partire verso direzioni più approfondite. Udemy, con i suoi 20 milioni di studenti in 190 paesi in tutto il mondo è ormai da considerarsi a pieno titolo tra i colossi della formazione online, ed offre un catalogo immenso (ad oggi oltre 65.000 corsi, NdR), che riguarda moltissimi ambiti della produzione digitale, con un comparto dedicato alla formazione personalizzata, riservata in esclusiva alle aziende. Si ringrazia Udemy per il supporto e la collaborazione dimostrata nell'ambito della ricerca svolta per la produzione del presente articolo publiredazionale
  9. Francesco La Trofa

    Autodesk SketchBook diventa gratuito

    Anche la enterprise ha comunque un costo ora decisamente accessibile. Notevole il price cut operato da autodesk. Dopo fusion 360 un altro software di un certo calibro disponibile sostanzialmente gratis per la maggior parte dei comuni mortali.
  10. Francesco La Trofa

    30 Days in VR - l'epica impresa di Enea Le Fons

    Tra le esperienze VR più interessanti di un 2018 che si annuncia più che mai avvincente non possiamo prescindere da 30 Days in VR, sviluppato da Enea Le Fons in collaborazione con HTC VIVE. Enea è un nome noto nella 3D community sin dai tempi di Softimage, di cui è stato testimonial per molti anni. Dopo la nota acquisizione da parte di Autodesk che ha portato a chiudere lo sviluppo di XSI, per Enea è stata la volta di un'esperienza con Epic Games, che lo ha reso una figura di riferimento nella divulgazione e nella formazione di Unreal Engine. Chiusa la parentesi con Epic, è arrivata nuova avventura, assolutamente unica nel suo genere: un vero e proprio hackaton di 30 giorni in realtà virtuale. Scopriamo insieme i dettagli più significativi di questo originalissimo progetto. Durante 30 days in VR, Enea e il suo team hanno sviluppato in VR molte esperienze VR e AR, tra cui: - Augmenting a Living Space with AR- Merging Physical and Virtual 3D with Vive Trackers and Unreal Engine- Creating VR Worlds, in VR.- Design and Architecture beyond Earth, in VR.- Bringing Trainers in the Augmented Living Room via micro-apps- Achieving Open Source cross platform Remote Communication in VR- Bringing a sound-reactive Vive Focus VR app Prototype in a Club- DJing, VJing and making Music in VR- Meditating and Dreaming in VR- Tracked Objects as Haptic Interface for VR- Experimenting with World-Scale VRLo spirito pionieristico e il contagioso entusiasmo che contraddistingue la iniziativa di Enea hanno convinto niente meno che Alvin Wang Graylin, presidente di HTC Vive, personalmente presente in occasione del day zero. Cosa ha convinto HTC Vive a credere ed investire concretamente nel tuo progetto? (Enea Le Fons) - Ero da tempo in contatto con HTC VIVE e con Alvin siamo riusciti a condividere su tutta la linea l'intenzione di intraprendere un'azione prolungata. L'intenzione è quella di creare dei progetti in realtà virtuale per la realtà virtuale ed aumentata. Il nostro obiettivo comune è quello di definire esperienze in grado di migliorare la vita delle persone, superando la visione distopica che si ha attualmente nei confronti di questa tecnologia. La VR del futuro non è Matrix, ma l'esatto opposto, è qualcosa di assolutamente integrato con la nostra realtà. A chi non conosce queste tecnologie le mie parole potranno suonare bizzarre, ma grazie alla VR possiamo vincere la sedentarietà che contraddistingue il lifestyle di chi trascorre molte ore in ufficio. Facendo in VR le cose che tradizionalmente faremmo in ambiente desktop, possiamo passare da una media di 400 passi al giorno a superare tranquillamente i 10000 passi, che equivalgono alla misura consigliata per uno stile di vita sano, in associazione ad una dieta equilibrata. HTC VIVE ha inoltre scelto di puntare sulla nostra iniziativa per sperimentare hardware in prototipo o testare alcuni dispositivi ben prima della loro messa in commercio. Abbiamo avuto a disposizione in anteprima sia il Vive Pro che il Vive Focus, oltre ad accessori quali gli SteamVR Lighthouse v2, il Vive Wireless Adapter e molti Vive Trackers. A livello di endurance, sei stato in grado di raggiungere le 18 ore al giorno di immersione in VR. Senza dubbio un risultato estremo, ma in misura più consona alle possibilità dei comuni mortali ritieni che la durata di immersione sia una qualità allenabile? (Enea Le Fons) - Assolutamente si. I progressi che ho sviluppato nei 30 giorni lo dimostrano, dal punto di vista scientifico. Abbiamo monitorato questi aspetti attraverso il rilevamento dei miei parametri biometrici, attraverso una serie di sensori tipo fitbit. Sono partito con circa 5 ore di immersione, ho concluso costantemente oltre le 10 ore. Questo grazie all'allenamento fisico che ha accompagnato l'abitudine ad indossare il visore. Oltre a sviluppare, hai letteralmente vissuto in VR, con comparsate in discoteca, fino a mangiare e... dormire. Ma come è possibile dormire in VR? (Enea Le Fons) - Ho sviluppato un'app per il sonno polifasico, che ho successivamente sperimentato in prima persona con una serie di sessioni da 20 minuti. Ho utilizzato Neuroprogrammer Pro per sviluppare un'esperienza audiovisiva immersiva in grado di rilassare totalmente l'individuo o eccitarlo progressivamente fino al risveglio, sulla base delle impostazioni dei suoni e delle immagini. In questo ambito è stato fondamentale l'utilizzo del Vive Focus. Un device totalmente standalone con il see through è un requisito necessario per poter "vivere in VR", unendo alla portabilità una risoluzione apprezzabile. Enea mentre "dorme" in VR con il suo Vive Focus. Cosa serve alla realtà virtuale per diventare, come si suol dire, mainstream? (Enea Le Fons) - Le applicazioni 3D desktop che utilizziamo oggi, dai cad ai software 3D real time, sono molto avanzate. Perché sono il risultato di anni di utilizzo. Milioni di 3D user che offrono in maniera più o meno consapevole i loro feedback alle varie software house, hanno consentito di perfezionare anno dopo anno i tool, che al tempo stesso hanno beneficiato della maggior potenza di calcolo messa a disposizione dall'evoluzione dell'hardware. Ed è la situazione che dovrà riproporsi per la VR che attraversa, oggi, quello che per il 3D desktop è iniziato moltissimi anni fa. Il fatto che non ci sia ancora la tecnologia non vuol dire che si debba aspettare che questa arrivi, occorre portarsi avanti ed essere propositivi nella ricerca e nello sviluppo, per farsi trovare pronti quando i tempi saranno maturi. Vi faccio un esempio pratico, su cui abbiamo focalizzato gran parte delle attenzioni di 30 Days in VR. In questo momento mancano, a livello hardware, i device per completare l'esperienza immersiva con la realtà aumentata in tempo reale. Ma questo non vuol dire che non si possa iniziare a sviluppare in tal senso. Uno degli aspetti che abbiamo analizzato con HTC VIVE è stata la grande esigenza di un background sperimentale. Gli sviluppatori sono molto bravi. Ma necessitano di feedback, chi può darglieli? In primis i creativi, coloro che utilizzano le loro applicazioni, per sviluppare a loro volta i progetti di cui sono artefici. Quando avremo collezionato decine, centinaia, migliaia di ore di utilizzo in ambiente VR, avremo sviluppato quel know how necessario agli sviluppatori per perfezionare progressivamente gli strumenti creativi. Nè più nè meno di quanto avviene da decenni nell'ambito dello sviluppo software. La rete e le tecnologie cloud ci offrono oggi un'opportunità unica, che dobbiamo assolutamente essere in grado di cogliere. 30 Days in VR nasce quale progetto pilota, open source, per mettere nelle stesse condizioni di Enea altri sviluppatori in tutto il mondo. In breve, chiunque vorrà potrà fare la sua 30 giorni in realtà virtuale. (Enea Le Fons) - Questo è stato un altro dei motivi che ha spinto HTC VIVE a sostenere l'iniziativa. Abbiamo ragionato proprio in questo senso, per garantire a chiunque voglia continuare a credere in questo progetto tutte le basi necessarie. Non sarà necessario fare per forza 30 giorni. Abbiamo in programma anche delle formule più brevi, come 7 Days in VR. Un formato più agile, su cui noi stessi proseguiremo la nostra iniziativa. Non siamo assolutamente gelosi del risultato che abbiamo conseguito in questa esperienza pilota. Anzi, sono il primo ad ammettere che quasi tutte le applicazioni siano in una fase prototipale, per via del pochissimo tempo che abbiamo dedicato ad ognuna di essa. Condividere il codice e i file prodotti può consentire ad altri di proseguire, perfezionare, offrire alternative, proporre modifiche, ottenere anche risultati totalmente differenti rispetto a quelli che ci siamo prefissati. Questo è il senso della sperimentazione, del produrre esperienza utile a sviluppare quelle applicazioni che saranno la base della nostra produttività nei prossimi anni. 30 Days in VR non è inoltre concepito per un'utenza specifica. I risultati sono a disposizione di tutti, funzionalmente alle sue esperienze ed alle sue potenzialità. Dal dev freelance alla multinazionale. Non ci sono limiti, se non il tempo e le risorse che ciascuno decide di dedicare all'evoluzione del progetto. Enea non ha portato a termine questa impresa da solo. Una figura determinante per la riuscita del progetto è stata senza dubbio quella di Andrea Bay, il producer dell'evento. 30 Days in VR si è infatti tenuto letteralmente a casa sua. in un appartamento nel centro di Torino. Un dettaglio che si è rivelato decisivo anche per quanto concerne lo sviluppo dei contenuti dell'esperienza stessa. Oltre a conversare con Enea, condividiamo anche le impressioni di Andrea in merito a 30 Days in VR (Andrea Bay) - Si è trattato di qualcosa di inedito, non avevamo assolutamente riferimenti in merito. Abbiamo scelto una formula che ha finito per rivelarsi un vero e proprio reality, anche se ovviamente non caratterizzato da riprese costanti. La particolare natura del progetto doveva consentire ad Enea di poter lavorare ma anche vivere in VR, da qui l'idea di un'esperienza domestica e la mia abitazione ha costituito il miglior compromesso possibile in tal senso. HTC VIVE ci ha imposto di non divulgare nulla prima di aver concluso i 30 giorni, limitandoci nel coinvolgimento dei contributor esterni. Ci siamo rivolti a developer che già conoscevamo e che sono stati in grado di dare un grandissimo contributo a questa esperienza. Con me ed Enea ha lavorato sin dall'inizio Giacomo Ferronato, tra i fondatori di 34BigThings, una delle più note company italiane nel game development. In totale sul progetto hanno collaborato circa una decina di persone. Speriamo di coinvolgerne molte di più ora che il progetto è diventato di pubblico dominio. La particolare natura dell'iniziativa ci consente di collaborare in remoto con altri sviluppatori, dunque siamo molto ottimisti in merito. A 30 days in VR hanno contribuito in totale circa una decina di persone, che si sono alternate aiutando nella definizione delle varie esperienze. Se Enea è stato il frontman di 30 Days in VR, quanto prodotto è stato il risultato di uno sforzo corale, soprattutto a livello di competenze necessarie per variare la tipologia dell'esperienze stesse. Buona parte dell'arsenale HTC VIVE in mano ad alcuni dei protagonisti di 30 Days in VR. Da sinistra il producer Andrea Bay, l'inconfondibile Enea, il presidente di HTC Vive, Alvin Wang Graylin e il dev Anthony Vitillo, autore dell'apprezzato blog Skarredghost, che ha contribuito alla realizzazione di alcune esperienze. Digitalizzare in 3D il grande living dell'appartamento di Andrea è stata la prima fase di 30 Days in VR. Un risultato ottenuto grazie all'impiego di tecniche di fotogrammetria low cost e dell'utilizzo della camera Matterport VR. (Andrea Bay) - Abbiamo voluto sperimentare più strade, ottenendo delle indicazioni molto interessanti sotto tutti i punti di vista. Con Matterport abbiamo rilevato l'ambiente principale, mentre con la fotogrammetria abbiamo acquisito tutti gli arredi puntuali. I passaggi successivi sono stati costituiti da un retopo in ZBrush ed una serie di ottimizzazioni indispensabili per creare gli asset da importare in Unreal Engine. Dopo aver posizionato tutti gli oggetti, attraverso l'utilizzo dei Vive Trackers, abbiamo creato la corrispondenza perfetta tra gli oggetti nell'ambiente reale e quelli nell'ambiente virtuale. Il matching è stato indispensabile per avere anche un feedback tattile nell'esperienza in VR. La scansione 3D è dunque in grado di contribuire notevolmente alla creazione di ambienti 3D per la VR. (Andrea Bay) - Automatizzare la scansione 3D degli ambienti sarà possibile anche con altre tecnologie. Già oggi Hololens è in grado di farlo e credo che tutti i visori dotati di camere frontali, una volta dotati di applicazioni specifiche, saranno in grado di rendere il processo economico ed alla portata di tutti, senza richiedere chissà quali capacità tecniche. Una volta acquisiti i fondamenti del processo, tutto diventa relativamente semplice e ripetitivo. Simulare la AR in ambiente VR ci offre un'anteprima concreta delle app del futuro, oggi soltanto paventate da tecnologie in fieri, su tutte il misterioso, quanto ambizioso, Magic Leap. (Enea Le Fons) - Assolutamente. Oggi non abbiamo ancora la tecnologia per avere una AR in real time in overlay sul reale, ma possiamo tranquillamente farlo in un digital twin 3D. Dopo aver ricostruito in 3D l'ambiente, ho sviluppato alcune microapp in AR. Se un environment viene condiviso, chiunque può sviluppare delle microapp e condividerle. Io ad esempio mi sono divertito, grazie a Mixamo (tool di mocap/animazione character integrato in Unreal Engine), a realizzare un trainer di MMA (Mixed Martial Arts) e un trainer Yoga. Entrambe le applicazioni sono usufruibili in AR utilizzando una tecnologia nativa per la VR. Un po' come avviene già in ecosistemi come Google Earth, puntualmente aumentati da informazioni di ogni genere, che possono essere condivise o meno a discrezione di chi le crea. (Andrea Bay) - Il concetto è sostanzialmente lo stesso. Da riproporre in maniera immersiva, soprattutto ragionando in prospettiva. Credo oltretutto che sia ancora molto importante il contributo soggettivo nella ricostruzione 3D degli ambienti. Il 3D artist ha un'attenzione sul dettaglio che supera quello che le tecnologie di scansione e fotogrammetria in automatico sono in grado di convertire a livello di modelli 3D texturizzati. Soprattutto se consideriamo gli ambienti interni. In tal senso la 3d community credo che possa offrire un contributo enorme, per creare la base di ambienti in cui sperimentare moltissime applicazioni. La loro condivisione consentirebbe di accelerare la fase di know how necessaria allo sviluppo cui faceva accenno Enea in precedenza. In alto il trainer MMA ed in basso il trainer Yoga. Le microapp AR per la VR sviluppate da Enea all'interno di Unreal Engine VR Editor. A livello di software 3D per la VR cosa avete utilizzato? (Enea Le Fons) - Principalmente lo sviluppo è stato implementato su Unreal VR Editor e a-frame del WebVR di Mozilla, per quanto riguarda la piattaforma VR collaborativa che abbiamo iniziato a programmare. Nello specifico poi ho avuto molto di sperimentare moltissime app e tool, come Tiltbrush, Masterpiece VR e molti altri. Ci tengo moltissimo a precisare che ogni istante dei 30 days in VR è stato vissuto sviluppando in VR per la VR. Questo è un aspetto fondamentale. Cosa cambia tra l'utilizzo "tradizionale" di un software 3D e l'utilizzo in VR. (Andrea Bay) - Nei software 3D desktop l'area creativa è in 3D, ma viene fruita in 2D, attraverso la proeizione che si interfaccia sul monitor. In VR invece è possibile entrare all'interno dello spazio tridimensionale, e varia totalmente la percezione. E' possibile un contatto con i modelli 3D di gran lunga superiore a quanto possibile nell'esperienza tradizionale. Unreal Engine è ormai molto diffuso per le app in real time, VR o meno che siano. Il suo VR Editor è però mediamente ancora poco utilizzato. Tu sei stato fin dall'inizio un grande fan di questa modalità di editing, al punto di farne uno strumento irrinunciabile. (Enea Le Fons) - Assolutamente. Io penso che tutti dovrebbero provare il VR Editor di Unreal Engine. Difficilmente tornerebbero indietro, almeno per la gran parte delle applicazioni. Gli strumenti sono gli stessi a disposizione nell'editor in ambiente desktop, con il vantaggio di avere un feedback diretto ed immediato di quanto si crea per l'esperienza VR. Quello che vedi mentre crei ed editi una scena è lo stesso che vedrà l'utilizzatore finale. Non è dunque necessario "togliere e mettere il visore", ma si può fare tutto in VR. Una volta presa la necessaria confidenza con l'interfaccia VR, tutto diventa estremamente più naturale e veloce. Creare in VR è più intuitivo. Non c'è davvero paragone. In più di una circostanza, al di là del bene che poteva volerti HTC, hai rilevato come senza il Vive Pro non avresti potuto portare a termine la maggior parte delle esperienze. A cosa ti riferivi dal punto di vista tecnico? (Enea Le Fons) - Alla risoluzione del display. Anche se al momento in cui l'abbiamo provato il Vive Pro non aveva ancora alcune feature che verranno sviluppate in seguito, il fatto di poter avere una 2k di base mi ha consentito di avere a disposizione un display con il 75% di area pixel in più rispetto al Vive normale. Per fare un esempio pratico, senza la risoluzione del Vive Pro non avrei potuto lavorare con i blueprint di Unreal Engine direttamente nel VR Editor. Lo stesso potrei dire per molte altre situazioni. La risoluzione dei device, oltre alla qualità delle lenti, è assolutamente determinante per fruire delle esperienze in VR e, ancor di più, per svilupparle. Il concetto non è molto diverso dallo sviluppo tradizionale. Lo spazio nell'area di lavoro non basta mai. Più ne hai, più ne vorresti. Questo è un aspetto su cui la tecnologia della VR deve necessariamente migliorare molto. Quanto agli utilizzatori finali, quelli che vengono sostanzialmente assoggettati nel segmento consumer, come possono contribuire all'evoluzione degli ecosistemi VR? (Enea Le Fons) - Oggi potenzialmente la VR è già alla portata di tutti. Basta indossare un cardboard per vivere un'esperienza immersiva. Non serve più dello smartphone e di un pezzo di carta piegato da una decina di euro. Ma perché l'utilizzo della VR è così limitato? Perché manca l'interazione. L'ecosistema consumer è da questo punto di vista molto limitato. Se escludiamo l'ambito enterprise, le esperienze si limitano alle applicazioni entertainment. I giochi contibuiranno a diffondere questa tecnologia, ma non sarà sufficiente. E' necessario che vi sia coinvolgimento ed interazione anche nelle esperienze del quotidiano. Così come oggi la gente crea e condivide le foto su Instagram, i video su Youtube, lo stesso credo avverrà con i contenuti in VR. Ma perché ciò accada devono esserci contenuti più aumentati, che stimolino l'interazione. La sensazione che molti hanno è relativa ad una tecnologia al momento inutile. Sempre più persone sono incuriosite e provano la VR. Basta recarsi a qualsiasi evento o fiera per vedere come gli exhibit VR siano facilmente in grado di catalizzare l'attenzione della maggior parte degli spettatori. Si tratta però di applicazioni ad hoc, sviluppati e fruibili con tecnologie al momento high end. Per inciso, quanti sarebbero disposti ad investire, a livello domestico su un HTC Vive, su un Oculus Rift e sull'hardware desktop necessario per fruire delle applicazioni? Il gap tra le applicazioni professionali e quelle consumer credi che sia soltanto un fatto di limiti nell'interazione che un cardboard o un GearVR, per ovvie ragioni, non sono in grado di offrire? (Enea Le Fons) - In parte si, in parte manca la consapevolezza. Anche a livello consumer non ci si rende conto di come noi siamo già immersi nella tecnologia. Siamo costantemente a contatto con display di qualsiasi genere, ma quanto li sfruttiamo? Quanto siamo predisposti a cogliere le opportunità che l'augmented ci consentirebbe di fruire? Per questo sostengo che sia necessario portarsi avanti con uno sviluppo in grado di superare la visione distopica per cui la VR, prospettando contenuti virtuali, potrebbe esistere solo per esperienze alternative a quelle reali. L'integrazione è molto più vicina a noi di quello che siamo naturalmente soggetti a pensare. Se la tecnologia è un limite, non deve diventare un alibi. Le prime esperienze in VR, con tecnologie molto diverse e più limitate rispetto a quelle attuali, le ho sviluppate nel 1997 con Studio Azzurro. Oggi abbiamo a disposizione la possibilità di sviluppare delle applicazioni in multipresenza che chiunque può utilizzare con un qualsiasi browser internet. Questo utilizzando le tecnologie WebVR che sono a disposizione di tutti. In mezzo ci sono vent'anni di esperienze. Le tecnologie evolveranno sempre. Ma non dobbiamo aspettarle. Dobbiamo farci trovare pronti, sapendo già cosa vogliamo ottenere da loro. L'approccio "learning by doing" è sempre più determinante proprio per offrire dimostrazioni pratiche e comprensibili dei risultati dello sviluppo, anche in ambiti finora inesplorati, come la visualizzazione dei dati. La computer grafica ha una grande responsabilità in questo, soprattutto per agevolare i processi decisionali che derivano dall'analisi dell'enorme quantità di dati disponibili per qualsiasi applicazione. (Enea Le Fons) - Se penso allo sviluppo, proprio nella visualizzazione dei dati abbiamo finalmente a disposizione delle applicazioni favolose, come Primitive, che consentono di fare coding immersivo. Visualizzare il dato oltre le potenzialità del 2D, del classico istogramma generato da excel, offre delle potenzialità enormi. Si ha finalmente una percezione volumetrica, che supera nettamente quella numerica. Cosa dobbiamo aspettarci ora da 30 Days in VR? (Andrea Bay) - Ora finalmente possiamo divulgare il progetto, coinvolgendo altri sviluppatori. Continueremo sia a Torino, con il nostro team, che supportando le esperienze di tutti coloro che vorranno intraprendere un'esperienza analoga nel mondo. (Enea Le Fons) - Siamo molto stimolati in varie direzioni, su tutte quella di combinare la VR con altre tecnologie 3D. Abbiamo fatto alcuni test con la robotica, vorrei al più presto coinvolgere anche la stampa 3D ed altre tecnologie di fabbricazione. Così potremo procedere in altre sperimentazioni. Per fare ciò ho già sviluppato In Unreal Engine VR editor alcuni arredi 3D ottimizzati per l'utilizzo di software laser cutting. Stay tuned... in VR.
  11. Francesco La Trofa

    Intervista a Daniele Bigi (ILM)

    Intervista a Daniele Bigi (associated VFX Supervisor, ILM) L'industria del divertimento è capace di creare dal nulla cose straordinarie. Star Wars, soltanto con il nome e la storia che rappresenta, è in grado di evocare sensazioni di meraviglia difficilmente eguagliabili nell'immaginario dei suoi milioni di fan in tutto il mondo. Daniele Bigi è stato ospite della prima edizione di Campus Party Italia, dove ha tenuto un intervento sul lavoro in produzione di ILM London, dove ha peraltro appena concluso, in qualità di Associate VFX Supervisor, l'attesissimo Ready Player One. Vediamo con Daniele alcuni dettagli della sua straordinaria esperienza presso la Industrial Light and Magic e sul percorso che lo ha portato fino alla vetta dell'industria dell'Entertainment. (FLT) - Ci siamo incontrati la prima volta molti anni fa, alla View Conference, dove presentasti insieme ad Adriano Rinaldi il breakdown di MPC per X-Men. All'epoca ricordo che eri Lighting Lead in MPC. Oggi ti ritroviamo come associated VFX supervisor in ILM. Di strada ne hai fatta parecchia. Raccontaci com'è andata. (DB) - Innanzitutto, la strada, scusate il gioco di parole, l'ho trovata strada facendo. Ho iniziato al Politecnico di Milano per diventare un car designer. La CG l'ho scoperta proprio durante il corso degli studi. Dopo la laurea ho fatto un po' di gavetta a Milano poi sono partito per Londra, dove sono stato prima in Framestore e poi in MPC. Quando ILM ha deciso di aprire una sede a Londra, sono stato contattato per entrare nel team ed ho accettato subito. Quando ho deciso di fare questo lavoro, il mio sogno era quello di lavorare in Pixar o in ILM. Questo sogno oggi si è avverato. Più che un punto di arrivo, spero sia stato un punto di partenza verso traguardi sempre più importanti. (FLT) - Come si costruisce una carriera simile? Da dove si parte? Al di là del possesso di qualità eccellenti, quali sono le scelte da fare a livello professionale? (DB) - Lavorando accanto a molti grandi professionisti, mi rendo conto ogni giorno che anche se lavoro ormai da circa 15 anni nei VFX, le cose da imparare non finiscono davvero mai. C'è sempre qualcosa di nuovo, tali e quante sono le sfaccettature che contraddistinguono questo lavoro. Farlo ogni giorno accanto ai migliori, costituisce uno stimolo enorme per migliorare. Ci sono altri motivi che vanno considerati per fare carriera in questo settore. Piu' si sale con le responsabilita' e il grado di supervisione più diventa importante la comunicazione con le persone che lavorano nei vari dipartimenti. Detto in questi termini può forse sembrare una banalità, ma non lo é affatto. E' importante conoscere le "skills" delle persone che lavorano nello studio per poter valorizzare al meglio le loro competenze sul progetto. Spesso vengo coinvolto nel decidere chi debba lavorare su un particolare task, pertanto conoscere il team assume un ruolo fondamentale. Le conoscenze tecniche sono importanti ma moltissime piccole e grandi decisioni prese quotidianamente, in dailies e in meeting, sono anche artistiche, dunque bisogna tener presente tutti questi aspetti. L'organizzazione del lavoro di decine, spesso centinaia di artisti è fondamentale per la riuscita di un progetto. Ovviamente il dipartimento di produzione in questo contesto svolge il 99% del lavoro ma, una volta assunto il ruolo di supervisore, la collaborazione con la produzione diventa più stretta. A quel punto diventa anche una mia responsabilità, legata al budget e a come le risorse devono essere distribuite tra i vari dipartimenti. Avere esperienza nel bidding di un progetto partendo da uno script, il che equivale a prevedere quanto tempo per disciplina occorrera' per l'esecuzione delle scene, costituisce un altro fattore importante. Gli studi, anche quelli piu' grandi, come ILM, sono fatti semplicemente da persone, la carriera si costruisce anche attraverso la fiducia che si crea tra le varie figure che lavorano intensamente a progetti a volte lunghissimi, spesso facendo centinaia di ore overtime, lavorando per mesi anche durante i weekend per portare a temine un film e soddisfare le esigenze dei clienti (studio e registi). (FLT) - Cosa differenzia ILM da altre realtà, ad esempio MPC e Framestore, in cui hai avuto modo di lavorare in passato? (DB) - Parliamo in ogni caso di società tra le più importanti al mondo. In Framestore ed in MPC lavorano dei professionisti straordinari, ed il loro risultato è sotto gli occhi di tutti. Quello che rende a mio avviso unica ILM è l'esperienza media dei suoi artisti. Questo per il fatto che si tratta di una società attiva dagli anni '70. Quante altre lo sono? In ILM è frequente relazionarsi con figure che hanno all'attivo decine di produzioni, non solo tra i supervisor. Ci sono anche tanti lead che si sono specializzati nel loro ambito, dove hanno un livello di conoscenza incredibile. Di certi aspetti della CG sanno veramente vita, morte e miracoli, perché l'hanno vissuta sulla loro pelle producendo tantissimi film di livello assoluto. (FLT) - Togliamoci un'altra curiosità tecnica. Nel tuo intervento a Campus Party hai fatto cenno al fatto che la vostra pipeline prevede l'impiego, in contemporanea, di moltissimi software. (DB) - Vero, ad esempio, abbiamo delle parti realizzate in Houdini, renderizzate con Mantra, ed altre definite in Maya e successivamente renderizzate con Arnold. ILM e’ molto flessibile riguardo i software che vengono utilizzate nella pipeline. A Londra, nel dipartimento Generalist, si è scelto di utilizzare principalmente Maya e Arnold, ma lo stesso dipartimento a San Francisco lavora principalmente con 3ds Max e V-Ray. La scelta di usare Arnold, almeno per quanto concerne il dipartimento Generalist, e’ stata in parte motivata dal fatto che a Londra ci sono molti più’ TD esperti nell'utilizzo di Arnold rispetto a quelli esperti in V-Ray. Questo ovviamente se limitiamo la nostra analisi all'ambito dei VFX dei film. (FLT) - Come è possibile il compositing di una simile eterogeneità di contenuti? (DB) - In passato per i compositor era abbastanza complesso gestire decine di elementi renderizzati in diversi dipartimenti (per lo più lighting / generalist / fx), con motori di rendering diversi (Arnold / RIS / Mantra / V-Ray, etc). Il problema, più che tecnico, è organizzativo, in quanto bisognava per forza renderizzare in modo corretto tutta una serie di “holdout” pass, per poter compositare in modo corretto tutti i vari elementi. Da diversi anni, grazie al Deep Image e a tecniche di Deep Compositing*, e’ possibile compositare tutti gli elementi renderizzati senza bisogno di creare nessun holdout pass. Questo ha facilitato moltissimo il lavoro generale. (FLT) – Come è strutturata la vostra pipeline? In quale misura affiancate software di terze parti, come quelli che abbiamo citato, a tool proprietari? (DB) – Non è semplice rispondere a questa domanda. Non ci sono particolari segreti, ma è difficile generalizzare una situazione tipo. Vi spiego il perché, provando a rendere la situazione nel modo più semplice possibile. In ILM ci sono alcuni software e formati che sono dei punti di riferimento per qualsiasi produzione, e vengono utilizzati da moltissimi anni, grazie ad un costante lavoro di sviluppo ed aggiornamento per adeguarli alle esigenze che si manifestano per ogni nuova produzione. Mi riferisco ad esempio a Zeno, un nostro software proprietario, oppure all'utilizzo di Alembic come formato le cache geometriche o del formato Open VDB per le cache volumetriche. Questi sono "componenti" della pipeline che molto difficilmente vengono cambiati. Perché ciò accada deve esserci davvero una ragione molto solida che ci spinga a farlo. Ovviamente, di volta in volta, ci si domanda sempre se sul mercato esiste un software che potrebbe fare meglio quello che viene sviluppato internamente. Per fare queste valutazioni occorre considerare molti aspetti: costi, tempi, flessibilità nell'utilizzo e adattamento nel contesto dell'intera pipeline. Da queste analisi vengono prese le decisioni in merito ai software e ai tool da utilizzare. E' un iter che viene svolto di volta in volta e la cui responsabilità va in carico ai vari capi dipartimento, ai CG supervisor e al dipartimento R&D. (FLT) - Di quali progetti ti sei occupato in ILM dopo il tuo arrivo alla MPC? (DB) - Ho lavorato su due Marvel movies: Ant Man e Doctor Strange. In entrambi i casi nel ruolo di CG Supervisor. (FLT) - Quali sono i progetti di ILM per la divisione di Londra? (DB) - ILM London sta crescendo a ritmi vertiginosi. Quando abbiamo aperto eravamo circa un'ottantina di persone. Ora abbiamo già superato le 300 unità e Disney prevede di collocarci in una nuova sede, per agevolarci nel migliore dei modi. Entro la fine del 2018 probabilmente saremo circa 450. (FLT) - Riguardo le nuove tecnologie, ILM si è prontamente distinta grazie a ILMxLAB, la divisione in cui abbiamo visto le prime meraviglie in Realtà Virtuale a tema Star Wars. (DB) - Per ora ILMxLAB è operativa nella sede principale, a San Francisco. Data la prospettiva di sviluppo di questo genere di contenuti, penso che, in analogia con il resto della produzione, in futuro la VR e le altre nuove tecnologie verranno implementate anche nelle sedi distaccate. Per ora però non abbiamo avuto esperienze dirette in questo senso e sinceramente non ne so di più in merito. E' facile prevedere come queste tecnologie siano il futuro, o comunque andranno a ricoprire un ruolo determinante in ambito media & entertainment. (FLT) - Attualmente sei VFX Supervisor associato su Ready Player One, l'attesissimo film di Steven Spielberg. Cosa puoi svelarci in merito a questo progetto? (DB) - Ovviamente niente - scherza Daniele - altrimenti mi licenzierebbero all'istante. Scherzi a parte, non posso rivelare alcun particolare per quanto concerne l'adattamento della sceneggiatura del romanzo di Ernest Cline. Il film è comunque in imminente uscita, per cui tutti potranno vederlo in sala e valutare personalmente il risultato del nostro lavoro. Per quanto concerne le parti che ci competono, vedrete un lavoro enorme nella creazione di OASIS, il mondo in cui i protagonisti del film vivono la loro esperienza in realtà virtuale. Già dai trailer che sono circolati è facile rendersi conto del perché le aspettative su Ready Player One siano così elevate. Sarò ben lieto di condividere i dettagli del progetto dopo la sua uscita nelle sale. Naturalmente, sai già che ti aspetteremo al varco. NOTA - I video riportati nel presente articolo sono tratti integralmente dal canale Youtube ufficiale di ILM. Approfondimenti consigliati. DEEP COMPOSITING - The Art of Deep Compositing, pubblicato da FXguide (articolo in lingua inglese).
  12. Francesco La Trofa

    Lighting Design in Architectural Render - Prima parte

    E il bello deve ancora venire
  13. Francesco La Trofa

    Il ragazzo invisibile - seconda generazione

    In concomitanza con l'uscita nelle sale de Il Ragazzo Invisibile - Seconda Generazione, Repubblica ha pubblicato un backstage esclusivo sulla realizzazione del film, i cui VFX sono stati realizzati dall'italianissima Frame by Frame (VFX supervisor Victor Perez, NdR). Seconda Generazione è il sequel del primo capitolo del Ragazzo Invisibile di Gabriele Salvatores e ad oggi rappresenta una delle produzioni italiane con il più alto numero di shot in cui è evidente il contributo degli Effetti Visivi. Siamo logicamente distanti dai numeri di una produzione hollywoodiana, in un ambito, quello dei VFX, in cui questo aspetto incide moltissimo in termini di implementazione creativa e risultato. Il lavoro svolto da Frame by Frame riesce a supportare in maniera importante la regia di Salvatores ed un rinnovato cinema di supereroi di casa nostra. http://www.repubblica.it/spettacoli/cinema/2018/02/02/news/victor_perez_il_mago_degli_effetti_del_ragazzo_invisibile_-185561832/
  14. Francesco La Trofa

    Modigliani in VR alla Tate Gallery - The Ochre Atelier

    Il connubio tra arte e digitale si arricchisce ogni giorno di esperienze in grado di andare ben oltre la dimensione della novità, della curiosità sulla tecnologia del momento. Quel non so che di trendy in grado di attirare pubblico senza nemmeno porsi il problema del contenuto. La Tate Gallery di Londra ce lo dimostra con The Ochre Atelier, un'esperienza in Realtà Virtuale in grado di catapultarci all'interno dello studio parigino di Amedeo Modigliani. L'iniziativa, realizzata in collaborazione diretta con HTC, è disponibile sia al centro della mostra dedicata all'artista livornese, dove sono installati ben nove HTC Vive, che sulla piattaforma Viveport. La VR Experience, dalla creazione dei contenuti 3D all'installazione interattiva, è stata realizzata dallo studio londinese Preloaded, che ha collaborato in strettissima collaborazione con i ricercatori e i curatori della mostra. L'esperienza digitale è infatti il risultato di un lungo percorso di studi e analisi, utili a reperire un'ampia base documentale, indispensabile per consentire agli sviluppatori le informazioni essenziali per realizzare un prodotto credibile dal punto di vista scientifico, oltre che in grado di generare coinvolgimento presso un pubblico generalista, spesso tutt'altro che evangelizzato dal punto di vista della realtà virtuale. Il processo di ricerca è durato ben cinque mesi ed è consistita nel passare al setaccio sia l'edificio, che gli interni e gli oggetti che componevano l'ambiente in cui Modigliani ha realizzato i suoi ultimi capolavori. All'interno dello studio in VR di Modigliani sono state ricostruite in 3D anche due opere dell'artista: Jeanne Hebuterne (sua compagna nel momento della realizzazione, NdR) e Autoritratto, risalenti al 1919, l'anno che ha preceduto la scomparsa dell'artista. Un reference board sviluppato da Prealoaded per la ricostruzione in 3D dello studio di Modigliani (credits Preloaded) L'obiettivo congiunto dei curatori della mostra e di Preloaded, è quello che generare una vera immersione, dare la sensazione di trovarsi accanto all'artista, ed è la ragione per cui l'attenzione non si sofferma soltanto sulle tele, sui pennelli e sulle tavolozze, ma su moltissimi dettagli, a cominciare dal lighting dell'ambiente, risultato di un'attenta analisi delle finestre che caratterizzavano le aperture dello studio. A completare il tutto, particolari apparentemente superflui, ma decisivi nel rendere completo il racconto di un'esperienza immersiva, come le scatole di sardine e i pacchetti di sigarette. Prealoaded, nella redazione del proprio caso studio sull'esperienza VR su Modigliani, ha sintetizzato in cinque fattori chiave il briefing della propria collaborazione con la Tate Gallery. 1 - Entry level basso, facile da usare e accessibile a tutti, anche a chi è inesperto dal punto di vista informatico; 2 - Creare empatia con Modigliani, come l'uomo che avremmo potuto conoscere; 3 - Grande attenzione per l'autenticità, sia nei concetti che nei dettagli della scena; 4 - Allinearsi agli standard della Tate Gallery in merito al rigore intellettuale e scientifico delle rappresentazioni; 5 - Realizzare un'esperienza esclusiva, che non si potrebbe vivere in un altro modo; In generale potrebbero essere i cinque comandamenti per qualsiasi VR Developer in ambito culturale, e lo sono a maggior ragione se guardiamo nello specifico la figura di Modigliani. Innanzitutto la capacità di esprimere come l'artista non utilizzasse l'atelier soltanto come studio, ma anche come abitazione, in un periodo molto particolare della sua vita, in procinto di sposare Jeanne Hebuterne, con un bambino piccolo ma con l'inesorabile debito di salute non certo agevolato da una vita da bohemienne. Conoscere questi aspetti, relativi alla vita privata di Modigliani ha agevolato notevolmente il compito degli artisti chiamati in causa per ricreare lo studio in 3D. Queste informazioni hanno consentito di ricreare alla perfezione il quadro delle condizioni in cui viveva Modigliani e generare quell'empatia con il visitatore che costituisce una chiave essenziale per il successo di qualsiasi esperienza immersiva in VR. La direttrice della Tate Modern, Frances Morris, si è detta molto soddisfatta del risultato della collaborazione con Preloaded per quello che è stato l'esordio assoluto da parte della Tate Gallery con questo genere di tecnologie a supporto di una grande mostra d'arte: "Siamo entusiasti del risultato della collaborazione, ci consente di offrire ai visitatori un nuovo genere di esperienza. Per noi è indispensabile esplorare le possibilità creative, e la realtà virtuale ci aiuta a guidare il pubblico verso una comprensione più profonda di un artista amato come Modigliani". La mostra rimarrà aperta alla Tate Gallery di Londra fino al 2 aprile 2018. La fruizione della Modigliani VR Experience non comporta costi aggiuntivi sul tagliando dell'ingresso, ma è obbligatoria un'apposita prenotazione. La mostra, al di là della sua finestra virtuale, comprende circa un centinaio di opere tra pitture e sculture, articolati sul periodo dell'intera carriera di Modigliani. Se passate da Londra nei prossimi mesi, sapete certamente come occupare il vostro tempo libero. Per informazioni su Modigliani Virtual Reality.
  15. Francesco La Trofa

    Google Tango - Fine della corsa, in attesa di ARCore

    Google ha annunciato ufficialmente la cessazione del supporto a Google Tango, prevista per il 1 marzo 2018. Da quel momento, qualsiasi progetto di sviluppo legato alla tecnologia di realtà aumentata basato su questa tecnologia sarà sostanzialmente da considerarsi archeologia informatica. Google è molto frequente a questo genere di operazioni, fatto di rapidi lanci e chiusure, sia di progetti propri che di tecnologie inizialmente acquisiti, ma al tempo stesso non deve sorprendere come lo sviluppo legato a tecnologie di cui non esistono praticamente ancora degli standard sia suscettibile di scelte strategiche anche drastiche sul breve termine. Chi investe nello sviluppo di soluzioni in realtà aumentata, deve essere perfettamente consapevole che le carte in tavola cambieranno ancora spesso, ed altrettanti saranno gli SDK da provare e implementare nei propri workflow. Si conclude così un percorso triennale che ha visto interessati moltissimi sviluppatori, nella prospettiva dichiarata, da parte di big G, di spostare le attenzioni su ARCore, un framework AR più flessibile, che non richiede un hardware specifico per sfruttare le sue feature esclusive, come è stato nel caso dei pochi e costosi dispositivi in grado di supportare realmente le poche applicazioni consumer realizzate con Tango. Oltre ad un tablet di Lenovo e uno smartphone di Asus non si è infatti visto molto altro all'orizzonte. Il vincolo a specifiche hardware continua a rivelarsi un peccato capitale, soprattutto nel settore mobile, che più di qualsiasi altro ragiona con le leggi dei grandi numeri, estremamente votate alla standardizzazione e alla presenza su quanti più device sia possibile. A differenza di TAngo, che richiedeva sensori specifici, ARCore, anche se attualmente è supportato soltanto dagli smartphone Pixel di Google, dovrebbe in grado di adattarsi alle tecnologie delle fotocamere e degli accelerometri nativamente supportati dai sistemi operativi Android, dunque di bypassare questo grosso limite. Per quanto riguarda lo sviluppo, Con il fatto di aver virato forse tardivamente su ARCore, Google si trova al momento in ritardo rispetto all'omologa tecnologia di Apple, vale a dire ARKit, disponibile per l'ultima generazione iOS, per cui sono già disponibili diverse applicazioni. Si tratta in ogni caso di un ritardo ampiamente recuperabile, considerando il fatto di trovarci negli early days di questa tecnologia, contando oltretutto sul fatto che le sorti della piattaforma Android non dipendono certamente da app che in questo momento rivestono ancora un ruolo marginale in termini di business. Un limite che è al tempo stesso la più grande opportunità, considerato l'enorme potenziale latente che la realtà aumentata è in grado di sfruttare. ARCore dispone di SDK per Java e C (via Android Studio 3.0) oltre che per Unity e Unreal Engine. Disponibile anche un SDK per l'ambiente di sviluppo web, attraverso la libreria javascript three.ar.js, di cui esiste un equivalente di ARKit per i sistemi basati su iOS.
×