Vai al contenuto

Francesco La Trofa

Moderatori
  • Portfolio

    Portfolio
  • Numero messaggi

    5887
  • Registrato

  • Ultima Visita

  • Days Won

    131

Francesco La Trofa last won the day on December 14 2017

Francesco La Trofa had the most liked content!

6 che ti seguono

Info su Francesco La Trofa

  • Rango
    treddizzofrenico

Informazioni professionali

  • Impiego
    Libero Professionista (Freelancer)
  • Sito Web
    http://www.treddi.com

Ospiti che hanno visualizzato il profilo

16634 lo hanno visualizzato
  1. con miracast (supportato da molti device) credo sia possibile condividere direttamente l'ambiente windows, dunque raggiungere quell'obiettivo. https://support.microsoft.com/it-it/help/15053/windows-8-project-wireless-screen-miracast altrimenti HDMI diretto da un qualsiasi notebook.
  2. Francesco La Trofa

    A scuola di VR: l'esperienza di UQIDO

    Il VR Development è senza dubbio una delle discipline in grado di offrire le maggiori opportunità professionali, ora e in via nettamente crescente nei prossimi anni, quando le applicazioni basate sulle tecnologie immersive inizieranno a diffondersi in modo capillare. Se in ambito consumer la Realtà Virtuale non è ancora matura per una grande diffusione, lo stesso non si può infatti dire per quanto riguarda l'ambito business, dove i progetti e le applicazioni VR-AR si stanno diffondendo molto rapidamente, grazie alla loro capacità di risolvere esigenze già in atto. Per approfondire il tema del VR Development e quali saranno le sue prospettive abbiamo incontrato Pier Mattia Avesani, fondatore di UQIDO, una delle realtà più interessanti in Italia per quanto concerne lo sviluppo di esperienze immersive per il business. Pier Mattia Avesani, CEO di UQIDO (credits UQIDO) Oltre a poter vantare una consolidata realtà in produzione, che conta ormai in circa 40 dipendenti, UQIDO cura ogni anno EICS (European Immersive Computing Summit), evento di alto profilo sulle XR in ambito enterprise ed ha aperto una divisione specifica dedicata alla formazione e alla sperimentazione delle tecnologie immersive in ambito professionale: UQIDO ACADEMY. (FLT) - Il VR Development suscita argomenti di grande interesse, ma tradotto in termini professionali, in cosa consiste? (PMA) - Lo sviluppo di applicazioni per esperienze in realtà virtuale ed aumentata richiede competenze al tempo stesso varie e specifiche. Il VR Development, in maniera simile al Game Development, in produzione prospetta tre figure principali, che sono il Coder, il 3D Artist e il Designer. Se il VR Dev può essere visto tecnicamente come un caso particolare del Game Dev, quando si parla di applicazioni business però il discorso cambia, in funzione della tipologia di progetti e di esigenze dei clienti. Varia inoltre il target di riferimento previsto per le esperienze VR e AR. E' dunque necessario acquisire competenze specifiche. Il VR Developer, soprattutto per quanto concerne il programmatore è una figura richiestissima ed attualmente tutt'altro che facile da trovare nel mercato del lavoro, soprattutto in ambito business. Il gaming vanta un background più consistente, ma è comunque un altro settore in crescita, dunque non è semplice trovare da quel segmento delle figure in esubero, a prescindere dal livello di esperienza. (FLT) - In termini di numeri, come potremmo quantificare questa grande voglia di VR? (PMA) - Negli ultimi due anni in UQIDO abbiamo ricevuto da parte delle aziende un incremento di richieste per progetti legati alle XR di circa otto volte rispetto ai periodi precedenti. E il trend pare destinato ulteriormente a crescere. (FLT) - Come nasce un progetto legato a VR e AR? Le aziende conoscono già la tecnologia e le sue potenzialità o vanno orientate passo per passo? (PMA) - Le aziende sanno che ci sono nuove possibilità offerte da VR e AR e sono interessate ad implementarle. In questo momento non c'è ancora una cultura diffusa in merito, quindi non sa come fare, ma la curiosità e la richiesta ci sono, così come la disponibilità a valutare gli investimenti necessari. Il nostro payoff è Complexity made Simple, in quanto è effettivamente ciò che va fatto. Il cliente arriva con un problema che gli appare complesso da risolvere. Ci sono sempre vincoli, paletti e situazioni molto specifiche da prendere in considerazione. La prima cosa da fare è rendere semplice la sua soluzione. I progetti partono quindi con un processo di Design Thinking con il cliente, finalizzato a capire quale sia effettivamente la strada migliore da prendere dal punto di vista progettuale. A quel punto, il comparto tecnico del Team XR applica le sue competenze per realizzarla. Le nostre esperienze di Augmented e Virtual Reality sono studiate sulle particolari esigenze di ciascun committente: dall’intrattenimento alla formazione, dall’ industry 4.0 all’ healthcare, passando per architettura e design di prodotto, illustriamo le potenzialità dell’Immersive Computing attraverso showcase esplicative. Ci avvaliamo di figure professionali trasversali, specializzate e competenti: Developer, Product Designer, UX e UI Designer, CG Artist, Technical Sound Designer, Game Designer. L'esperienza sviluppata da UQIDO per Credit Agricole consente ai clienti di visitare virtualmente Londra e Parigi nelle filiali delle banche. Entrambi i luoghi sono raggiungibili virtualmente grazie a visori HTC Vive e backpack VR-ONE di MSi. L’esperienza è creata interamente ad hoc, partendo dalla stesura della storyboard ed arrivando alla creazione in Computer Grafica delle ambientazioni, passando attraverso l’ideazione di interazione che permettano agli utenti di spostarsi da un’ambientazione all’altra (credits UQIDO). (FLT) - Cosa differenzia il programmatore VR dal programmatore che definiremmo tradizionale? (PMA) - Il fatto che la VR si basa su interazioni in ambienti 3D, che sono decisamente poco radicati nel contesto della programmazione tipica del settore IT. Emerge quindi una ulteriore differenza, tra lo sviluppo di applicazioni 3D interattive non immersive ed esperienze in VR. I concetti di base sono gli stessi ma soltanto con i concetti non si arriva in fondo ad un progetto. In questo ambito, oltre alle nozioni di VR usability, è necessaria una notevole cultura del fare, che consiste tra le altre cose nel conoscere in maniera molto approfondita i device VR e AR per cui si sviluppano le esperienze. Occorre dunque investire molto tempo e risorse sui vari dispositivi commerciali per la realtà virtuale e aumentata, oltre ai Development Kit per sviluppare sulle tecnologie ancora in fase di definizione. Si tratta di una situazione molto dinamica, che impone di essere, come si suol dire, costantemente sul pezzo. UQIDO, grazie alla sua esperienza pluriennale e alle competenze acquisite su decine di progetti in VR e AR è in grado di garantire il pieno supporto in tutti questi aspetti. I nostri laboratori sono dotati di tutti i device VR e AR commerciali, oltre a installazioni progettate ad hoc, come nel caso di The Edge Immersive Box. Oggi chi si forma come programmatore, genericamente non ha competenze di ambienti 3D, allo stesso modo, i 3D Artist sono spesso del tutto ignari a livello di programmazione. Non è un problema, ma oggi il mercato chiede nuove professionalità e competenze. Noi vogliamo condividere questa visione in termini molto concreti e per questo stiamo lanciando UQIDO Academy. (FLT) - UQIDO Academy nasce per formare VR-AR Developer, ma anche per sperimentare progetti a stretto contatto con le aziende partner. Verrebbe quasi da definirlo un competence center. (PMA) - La formazione deriva infatti dalle competenze concrete che occorrono per sviluppare progetti professionali in vari ambiti del business. Da un lato, vogliamo formare VR Developer, dall'altro, rispondere alle esigenze di ricerca delle aziende, che coincidono quasi sempre con le esigenze contenutistiche della formazione stessa. Creare un punto di contatto tra la formazione e la ricerca è essenziale. A questo aspetto va dedicata un'attenzione specifica, che difficilmente può essere messa in contatto con con le modalità e i ritmi imposti dalla produzione. (FLT) - A chi si rivolge nello specifico il primo corso in VR AR Development? (PMA) - Vogliamo formare figure che abbiano già competenze di base nella programmazione, perché diventino sviluppatori per la VR e la AR. E farlo con specifico riferimento all'ambito business. L'offerta formativa prevede un percorso full time di training specializzante "Theory Based Learning" + "Project Based Work", Lo studio della programmazione software specifica con Unity, supportato da ArCore, ArKIt, SteamVR, sarà applicato a progetti reali proposti da aziende e porterà alla produzione di applicazioni di AR o VR finite. Il fatto di lavorare su casi reali è finalizzato anche a trasmettere le nozioni relative alla gestione di un progetto (project management). Gli allievi dovranno prendere atto di come funziona una realtà professionale, quindi interfacciarsi con le esigenze del cliente vero e proprio, collaborare con altre figure all'interno di un team e rispettare precise deadline di consegna. Oltre agli aspetti legati alla programmazione, il corso prevede momenti applicativi in cui l'allievo entra in relazione con vari approcci metodologici, tra cui il Design Thinking, fondamentale per inquadrare in termini progettuali le esigenze del cliente (credits UQIDO) (FLT) - Un corso per molti, ma non per tutti. Quali sono le conoscenze necessarie per superare con successo il test d'ingresso? (PMA) - I concetti base della programmazione. Non richiediamo competenze di linguaggi specifici. Il corso prevede la programmazione in Unity, ma non è necessario conoscere Unity. Eventuali competenze in tal senso sono un plus, non un prerequisito. il corso prevede una formula molto intensiva, con 600 ore concentrate in 4 mesi, proprio perché ha intenzione di specializzare, non di formare da zero. Chi uscirà da UQIDO Academy sarà assolutamente produttivo sin dal primo giorno in un contesto professionale. (FLT) - Cosa rende unica l'offerta di UQIDO ACADEMY? (PMA) - Il fatto di essere molto specifica per lo sviluppo in VR-AR per il business e di mettere a disposizione tutte le tecnologie più avanzate a livello hardware e software per poterlo fare. Si studia programmazione software specifica per esperienze immersive, non "anche" per esperienze immersive. (FLT) - Per chi ha una formazione di base come 3D Artist quali prospettive professionali può offrire il VR Development? (PMA) - Quella di professionalizzarsi in un contesto aziendale, nell'ottica di un'assunzione, o sviluppare quelle competenze che possono garantirgli la possibilità di lavorare come Freelance in tantissimi ambiti. Soprattutto ai ragazzi che hanno interesse per lo sviluppo di giochi o applicazioni interattive, consiglio in modo spassionato di imparare a programmare. (FLT) - 3D e Coding non si escludono affatto. (PMA) Anzi, le ritengo assolutamente complementari per il tipo di prodotto che il mercato richiede ora. Anche nel caso di una volontà di specializzazione, conoscere le basi dell'altra disciplina consente di relazionarsi in modo più consapevole con le altre figure coinvolte nei progetti. Questo approccio oltretutto apre ulteriori prospettive professionali rendendo più facile l'evoluzione a ruoli di maggior responsabilità, come quello del Project Manager. (FLT) - Nelle 600 ore di corso è previsto un periodo di stage o produzione all'interno di UQIDO? (PMA) - No, l'Academy è un progetto referenziato in modo specifico. Il nostro interesse non è nel prendere corsisti per farli lavorare in azienda. Non intendiamo sfruttare nessuno. Il nostro obiettivo è formare gli allievi e garantire loro un futuro quali veri professionisti, rispettando le loro aspettative in termini di risultato. Queste meritano un'attenzione propria, costituita dai tempi dell'apprendimento, che non coincidono con i ritmi di un reparto produzione. I casi reali sviluppati durante il corso arriveranno da progetti proposti da aziende partner. Per fare un esempio diretto, citerei la situazione dell'Hackaton. Esperienze brevi ed intense, in cui mettere a dura prova le proprie competenze. E' un metodo di lavoro che consente di imparare moltissimo, soprattutto se si è supportato da tutor davvero esperti, come quelli che ci sentiamo in grado di garantire. UQIDO Academy dispone di hardware e software di ultima generazione, la stessa in dotazione al team XR in produzione. Ad ogni allievo viene garantita una workstation riservata, utilizzabile in qualsiasi momento, anche oltre l'orario di lezione. (credits UQIDO) (FLT) - A livello di placement promettete anche alcune assunzioni in azienda. Su quali basi sarete in grado di mantenere questa promessa? (PMA) - Sulla base del piano assunzioni che abbiamo in atto per UQIDO saremo in grado di inserire almeno tre VR Developer junior nel team XR. Si tratta di una garanzia che però non vuole condizionare il percorso formativo, né vogliamo che i ragazzi si iscrivano ai corsi per cercare lavoro da noi. Siamo infatti assolutamente convinti che una figura con le competenze acquisite in UQIDO Academy sia perfettamente in grado di ottenere grandi opportunità anche altrove. Il nostro obiettivo sarà quindi quello di cercare di garantire ad ogni allievo le migliori prospettive, anche grazie a segnalazioni dirette presso altri studi e aziende con cui collaboriamo a Londra, Parigi, Berlino e Barcellona. (FLT) - Sono previste agevolazioni per chi intende iscriversi? (PMA) - Certamente, i costi di iscrizione possono essere coperti parzialmente o totalmente da borse di studio, messe a disposizione da enti ed aziende partner, sulla base del soddisfacimento di determinati requisiti. L'obiettivo è partire con il primo corso al raggiungimento del numero minimo di 8 allievi in una classe, la cui omogeneità è garantita dal superamento del test di ingresso. Stiamo lavorando per raggiungere questo obiettivo entro ottobre. (FLT) - In attesa di superare l'agognato test di ingresso, quale può essere il modo migliore per conoscere più da vicino la realtà di UQIDO Academy? (PMA) - Faremo una serie di Open Day (quest'anno si terrà il 10 luglio 2018, NdR) per far conoscere UQIDO. Suggeriamo a tutti di partecipare in quanto la nostra offerta formativa è particolarmente innovativa, quindi venire a conoscere i docenti, la struttura didattica e i progetti realizzati dal nostro team XR riteniamo sia l'opportunità migliore per prendere atto di quali siano le opportunità professionali che il VR development oggi è in grado di offrire. Vi aspettiamo. Per ulteriori approfondimenti sul corso VR-AR Developer di UQIDO Academy Programma didattico - https://www.uqido.com/resources/academy/program.pdf Informazioni generali sul corso - https://www.uqido.com/academy-admission/ Test di accesso all’Academy of Immersive Technologies - https://www.uqido.com/academy-test/ articolo publiredazionale
  3. Francesco La Trofa

    Udemy: i corsi 3D su Unity, Unreal Engine e Blender

    Le situazioni che possono portarci ad apprendere in breve tempo i fondamenti di un software o di una disciplina sono molte. Sono i casi in cui "google non basta". Vi cito una situazione che mi ha interessato in prima persona. La scorsa estate sono coinvolto in una iniziativa di Design Thinking. Bene. A pochi giorni dal workshop non sapevo assolutamente nulla di concreto in merito al Design Thinking. Certo, ne avevo sentito parlare, ma le mie competenze non mi avrebbero mai consentito di interfacciarmi in maniera seria con le altre figure presenti, senza aver generato l'imbarazzante situazione dell'improvvisatore dell'ultima ora. Dopo una breve ricerca online, ho trovato un corso online sulla piattaforma Udemy: "Cooper Crash Course: Design Thinking in 3 Steps". Il titolo era esattamente quello che faceva per me. Un crash course, in grado di darmi in breve tempo le competenze entry level di cui avevo bisogno per sopravvivere al workshop che mi attendeva. I commenti positivi al corso, le ottime referenze online del docente, Alan Cooper e la garanzia di rimborso in caso di insoddisfazione mi hanno convinto a procedere all'acquisto. Con il senno di poi, la scelta si è rivelata del tutto azzeccata. Con una spesa di dieci euro ho avuto modo di seguire esattamente il corso che cercavo. Lungi dal ritenermi un esperto in materia, oggi posso dire di sapere cos'è il Design Thinking e quali sono le operazioni basilari della prototipazione. Lo stesso ovviamente vale per quanto concerne le competenze nel 3D. Oggi sempre più ambiti del business richiedono contenuti 3D e capita sempre più spesso di dover apprendere in breve tempo i fondamentali di un nuovo software, per poter ampliare la propria varietà produttiva. Nell'ambito della produzione dei contenuti 3D, l'esempio lampante è costituito dai game engine. Fino a qualche anno, fa Unity ed Unreal Engine erano usati prevalentemente dai Game Developer. La crescente richiesta di applicazioni interattive ha in qualche modo "costretto" molti 3D Artist ad apprenderne i fondamenti. Dopo aver scaricato uno dei due middleware, arriva il momento in cui, oltre all'ampio range di risorse online disponibili, sarebbe comodo disporre di un corso online dotato di una struttura organica, in grado di darci una visione di insieme sui fondamenti di utilizzo del software. Qui entra in gioco tutta la flessibilità dei corsi di Udemy. L'offerta di Udemy prevede un catalogo di oltre 800 corsi sul 3D comprende sia una serie di corsi di riferimento a livello internazionale, che una crescente offerta di contenuti in Italiano, concepiti in modo particolare per i principianti. La maggior parte dei corsi viene inoltre aggiornata con l'introduzione di nuove lezioni, quando le nuove release dei software rilasciano nuove funzioni e a volte anche quando gli studenti stessi chiedono alcuni approfondimenti. Per ora, in merito a temi ed argomenti 3D, ho avuto modo di provare i seguenti corsi. Unreal Engine 4: dalle basi a uno Stealth Game, corso molto esteso in termini di feature, tenuto da Roberto De Ioris, docente di programmazione presso la Accademia Italiana Videogiochi (AIV). La tipica interfaccia di navigazione dei corsi Unity prevede a sinistra il navigatore, con le singole lezioni ed i contenuti da scaricare per realizzare il tutorial. La schermata principale prevede un player essenziale con tutte le funzioni utili a gestire lo svolgimento della lezione, compresa la possibilità di utilizzare dei comodi segnalibri, richiamabili in qualsiasi momento (credits Udemy) Programmare con Unity 3D: creare videogiochi da zero, utile per chi è del tutto digiuno a livello di coding, per capire a cosa serve la programmazione nell'ambito di un game engine. Corso di Blender: da Principiante a Esperto, che offre una panoramica molto estesa a livello di feature, decisamente utile per chi si avvicina ad un software 3D, ragion per cui il titolo sarebbe stato forse più appropriato con il riferimento ai soli principianti. Il docente Andrea Coppola si dimostra molto disponibile per seguire gli allievi e rilascia costantemente nuove lezioni, di pari passo con la dinamicità con cui Blender ci ha abituati all'introduzione di nuove funzioni. Nel momento in cui scriviamo, i tre corsi citati sono oltretutto offerti in promozione per pochi giorni ad un prezzo molto interessante: 11,99 euro con uno sconto superiore al 90%. A chi consiglierei questo genere di offerta formativa? Soprattutto a chi cerca corsi economici, da seguire comodamente in Italiano e a tutti quei ragazzi che pongono la solita domanda "meglio questo o quel software?" Prima di iscriversi a corsi e master presso accademie che impegnano molti mesi e migliaia di euro, seguire online un corso base. Per sua definizione, un corso di base ovviamente non forma "from start to end" un professionista, ma mira a formare una visione operativa da cui partire verso direzioni più approfondite. Udemy, con i suoi 20 milioni di studenti in 190 paesi in tutto il mondo è ormai da considerarsi a pieno titolo tra i colossi della formazione online, ed offre un catalogo immenso (ad oggi oltre 65.000 corsi, NdR), che riguarda moltissimi ambiti della produzione digitale, con un comparto dedicato alla formazione personalizzata, riservata in esclusiva alle aziende. Si ringrazia Udemy per il supporto e la collaborazione dimostrata nell'ambito della ricerca svolta per la produzione del presente articolo publiredazionale
  4. Francesco La Trofa

    Autodesk SketchBook diventa gratuito

    Anche la enterprise ha comunque un costo ora decisamente accessibile. Notevole il price cut operato da autodesk. Dopo fusion 360 un altro software di un certo calibro disponibile sostanzialmente gratis per la maggior parte dei comuni mortali.
  5. Francesco La Trofa

    30 Days in VR - l'epica impresa di Enea Le Fons

    Tra le esperienze VR più interessanti di un 2018 che si annuncia più che mai avvincente non possiamo prescindere da 30 Days in VR, sviluppato da Enea Le Fons in collaborazione con HTC VIVE. Enea è un nome noto nella 3D community sin dai tempi di Softimage, di cui è stato testimonial per molti anni. Dopo la nota acquisizione da parte di Autodesk che ha portato a chiudere lo sviluppo di XSI, per Enea è stata la volta di un'esperienza con Epic Games, che lo ha reso una figura di riferimento nella divulgazione e nella formazione di Unreal Engine. Chiusa la parentesi con Epic, è arrivata nuova avventura, assolutamente unica nel suo genere: un vero e proprio hackaton di 30 giorni in realtà virtuale. Scopriamo insieme i dettagli più significativi di questo originalissimo progetto. Durante 30 days in VR, Enea e il suo team hanno sviluppato in VR molte esperienze VR e AR, tra cui: - Augmenting a Living Space with AR- Merging Physical and Virtual 3D with Vive Trackers and Unreal Engine- Creating VR Worlds, in VR.- Design and Architecture beyond Earth, in VR.- Bringing Trainers in the Augmented Living Room via micro-apps- Achieving Open Source cross platform Remote Communication in VR- Bringing a sound-reactive Vive Focus VR app Prototype in a Club- DJing, VJing and making Music in VR- Meditating and Dreaming in VR- Tracked Objects as Haptic Interface for VR- Experimenting with World-Scale VRLo spirito pionieristico e il contagioso entusiasmo che contraddistingue la iniziativa di Enea hanno convinto niente meno che Alvin Wang Graylin, presidente di HTC Vive, personalmente presente in occasione del day zero. Cosa ha convinto HTC Vive a credere ed investire concretamente nel tuo progetto? (Enea Le Fons) - Ero da tempo in contatto con HTC VIVE e con Alvin siamo riusciti a condividere su tutta la linea l'intenzione di intraprendere un'azione prolungata. L'intenzione è quella di creare dei progetti in realtà virtuale per la realtà virtuale ed aumentata. Il nostro obiettivo comune è quello di definire esperienze in grado di migliorare la vita delle persone, superando la visione distopica che si ha attualmente nei confronti di questa tecnologia. La VR del futuro non è Matrix, ma l'esatto opposto, è qualcosa di assolutamente integrato con la nostra realtà. A chi non conosce queste tecnologie le mie parole potranno suonare bizzarre, ma grazie alla VR possiamo vincere la sedentarietà che contraddistingue il lifestyle di chi trascorre molte ore in ufficio. Facendo in VR le cose che tradizionalmente faremmo in ambiente desktop, possiamo passare da una media di 400 passi al giorno a superare tranquillamente i 10000 passi, che equivalgono alla misura consigliata per uno stile di vita sano, in associazione ad una dieta equilibrata. HTC VIVE ha inoltre scelto di puntare sulla nostra iniziativa per sperimentare hardware in prototipo o testare alcuni dispositivi ben prima della loro messa in commercio. Abbiamo avuto a disposizione in anteprima sia il Vive Pro che il Vive Focus, oltre ad accessori quali gli SteamVR Lighthouse v2, il Vive Wireless Adapter e molti Vive Trackers. A livello di endurance, sei stato in grado di raggiungere le 18 ore al giorno di immersione in VR. Senza dubbio un risultato estremo, ma in misura più consona alle possibilità dei comuni mortali ritieni che la durata di immersione sia una qualità allenabile? (Enea Le Fons) - Assolutamente si. I progressi che ho sviluppato nei 30 giorni lo dimostrano, dal punto di vista scientifico. Abbiamo monitorato questi aspetti attraverso il rilevamento dei miei parametri biometrici, attraverso una serie di sensori tipo fitbit. Sono partito con circa 5 ore di immersione, ho concluso costantemente oltre le 10 ore. Questo grazie all'allenamento fisico che ha accompagnato l'abitudine ad indossare il visore. Oltre a sviluppare, hai letteralmente vissuto in VR, con comparsate in discoteca, fino a mangiare e... dormire. Ma come è possibile dormire in VR? (Enea Le Fons) - Ho sviluppato un'app per il sonno polifasico, che ho successivamente sperimentato in prima persona con una serie di sessioni da 20 minuti. Ho utilizzato Neuroprogrammer Pro per sviluppare un'esperienza audiovisiva immersiva in grado di rilassare totalmente l'individuo o eccitarlo progressivamente fino al risveglio, sulla base delle impostazioni dei suoni e delle immagini. In questo ambito è stato fondamentale l'utilizzo del Vive Focus. Un device totalmente standalone con il see through è un requisito necessario per poter "vivere in VR", unendo alla portabilità una risoluzione apprezzabile. Enea mentre "dorme" in VR con il suo Vive Focus. Cosa serve alla realtà virtuale per diventare, come si suol dire, mainstream? (Enea Le Fons) - Le applicazioni 3D desktop che utilizziamo oggi, dai cad ai software 3D real time, sono molto avanzate. Perché sono il risultato di anni di utilizzo. Milioni di 3D user che offrono in maniera più o meno consapevole i loro feedback alle varie software house, hanno consentito di perfezionare anno dopo anno i tool, che al tempo stesso hanno beneficiato della maggior potenza di calcolo messa a disposizione dall'evoluzione dell'hardware. Ed è la situazione che dovrà riproporsi per la VR che attraversa, oggi, quello che per il 3D desktop è iniziato moltissimi anni fa. Il fatto che non ci sia ancora la tecnologia non vuol dire che si debba aspettare che questa arrivi, occorre portarsi avanti ed essere propositivi nella ricerca e nello sviluppo, per farsi trovare pronti quando i tempi saranno maturi. Vi faccio un esempio pratico, su cui abbiamo focalizzato gran parte delle attenzioni di 30 Days in VR. In questo momento mancano, a livello hardware, i device per completare l'esperienza immersiva con la realtà aumentata in tempo reale. Ma questo non vuol dire che non si possa iniziare a sviluppare in tal senso. Uno degli aspetti che abbiamo analizzato con HTC VIVE è stata la grande esigenza di un background sperimentale. Gli sviluppatori sono molto bravi. Ma necessitano di feedback, chi può darglieli? In primis i creativi, coloro che utilizzano le loro applicazioni, per sviluppare a loro volta i progetti di cui sono artefici. Quando avremo collezionato decine, centinaia, migliaia di ore di utilizzo in ambiente VR, avremo sviluppato quel know how necessario agli sviluppatori per perfezionare progressivamente gli strumenti creativi. Nè più nè meno di quanto avviene da decenni nell'ambito dello sviluppo software. La rete e le tecnologie cloud ci offrono oggi un'opportunità unica, che dobbiamo assolutamente essere in grado di cogliere. 30 Days in VR nasce quale progetto pilota, open source, per mettere nelle stesse condizioni di Enea altri sviluppatori in tutto il mondo. In breve, chiunque vorrà potrà fare la sua 30 giorni in realtà virtuale. (Enea Le Fons) - Questo è stato un altro dei motivi che ha spinto HTC VIVE a sostenere l'iniziativa. Abbiamo ragionato proprio in questo senso, per garantire a chiunque voglia continuare a credere in questo progetto tutte le basi necessarie. Non sarà necessario fare per forza 30 giorni. Abbiamo in programma anche delle formule più brevi, come 7 Days in VR. Un formato più agile, su cui noi stessi proseguiremo la nostra iniziativa. Non siamo assolutamente gelosi del risultato che abbiamo conseguito in questa esperienza pilota. Anzi, sono il primo ad ammettere che quasi tutte le applicazioni siano in una fase prototipale, per via del pochissimo tempo che abbiamo dedicato ad ognuna di essa. Condividere il codice e i file prodotti può consentire ad altri di proseguire, perfezionare, offrire alternative, proporre modifiche, ottenere anche risultati totalmente differenti rispetto a quelli che ci siamo prefissati. Questo è il senso della sperimentazione, del produrre esperienza utile a sviluppare quelle applicazioni che saranno la base della nostra produttività nei prossimi anni. 30 Days in VR non è inoltre concepito per un'utenza specifica. I risultati sono a disposizione di tutti, funzionalmente alle sue esperienze ed alle sue potenzialità. Dal dev freelance alla multinazionale. Non ci sono limiti, se non il tempo e le risorse che ciascuno decide di dedicare all'evoluzione del progetto. Enea non ha portato a termine questa impresa da solo. Una figura determinante per la riuscita del progetto è stata senza dubbio quella di Andrea Bay, il producer dell'evento. 30 Days in VR si è infatti tenuto letteralmente a casa sua. in un appartamento nel centro di Torino. Un dettaglio che si è rivelato decisivo anche per quanto concerne lo sviluppo dei contenuti dell'esperienza stessa. Oltre a conversare con Enea, condividiamo anche le impressioni di Andrea in merito a 30 Days in VR (Andrea Bay) - Si è trattato di qualcosa di inedito, non avevamo assolutamente riferimenti in merito. Abbiamo scelto una formula che ha finito per rivelarsi un vero e proprio reality, anche se ovviamente non caratterizzato da riprese costanti. La particolare natura del progetto doveva consentire ad Enea di poter lavorare ma anche vivere in VR, da qui l'idea di un'esperienza domestica e la mia abitazione ha costituito il miglior compromesso possibile in tal senso. HTC VIVE ci ha imposto di non divulgare nulla prima di aver concluso i 30 giorni, limitandoci nel coinvolgimento dei contributor esterni. Ci siamo rivolti a developer che già conoscevamo e che sono stati in grado di dare un grandissimo contributo a questa esperienza. Con me ed Enea ha lavorato sin dall'inizio Giacomo Ferronato, tra i fondatori di 34BigThings, una delle più note company italiane nel game development. In totale sul progetto hanno collaborato circa una decina di persone. Speriamo di coinvolgerne molte di più ora che il progetto è diventato di pubblico dominio. La particolare natura dell'iniziativa ci consente di collaborare in remoto con altri sviluppatori, dunque siamo molto ottimisti in merito. A 30 days in VR hanno contribuito in totale circa una decina di persone, che si sono alternate aiutando nella definizione delle varie esperienze. Se Enea è stato il frontman di 30 Days in VR, quanto prodotto è stato il risultato di uno sforzo corale, soprattutto a livello di competenze necessarie per variare la tipologia dell'esperienze stesse. Buona parte dell'arsenale HTC VIVE in mano ad alcuni dei protagonisti di 30 Days in VR. Da sinistra il producer Andrea Bay, l'inconfondibile Enea, il presidente di HTC Vive, Alvin Wang Graylin e il dev Anthony Vitillo, autore dell'apprezzato blog Skarredghost, che ha contribuito alla realizzazione di alcune esperienze. Digitalizzare in 3D il grande living dell'appartamento di Andrea è stata la prima fase di 30 Days in VR. Un risultato ottenuto grazie all'impiego di tecniche di fotogrammetria low cost e dell'utilizzo della camera Matterport VR. (Andrea Bay) - Abbiamo voluto sperimentare più strade, ottenendo delle indicazioni molto interessanti sotto tutti i punti di vista. Con Matterport abbiamo rilevato l'ambiente principale, mentre con la fotogrammetria abbiamo acquisito tutti gli arredi puntuali. I passaggi successivi sono stati costituiti da un retopo in ZBrush ed una serie di ottimizzazioni indispensabili per creare gli asset da importare in Unreal Engine. Dopo aver posizionato tutti gli oggetti, attraverso l'utilizzo dei Vive Trackers, abbiamo creato la corrispondenza perfetta tra gli oggetti nell'ambiente reale e quelli nell'ambiente virtuale. Il matching è stato indispensabile per avere anche un feedback tattile nell'esperienza in VR. La scansione 3D è dunque in grado di contribuire notevolmente alla creazione di ambienti 3D per la VR. (Andrea Bay) - Automatizzare la scansione 3D degli ambienti sarà possibile anche con altre tecnologie. Già oggi Hololens è in grado di farlo e credo che tutti i visori dotati di camere frontali, una volta dotati di applicazioni specifiche, saranno in grado di rendere il processo economico ed alla portata di tutti, senza richiedere chissà quali capacità tecniche. Una volta acquisiti i fondamenti del processo, tutto diventa relativamente semplice e ripetitivo. Simulare la AR in ambiente VR ci offre un'anteprima concreta delle app del futuro, oggi soltanto paventate da tecnologie in fieri, su tutte il misterioso, quanto ambizioso, Magic Leap. (Enea Le Fons) - Assolutamente. Oggi non abbiamo ancora la tecnologia per avere una AR in real time in overlay sul reale, ma possiamo tranquillamente farlo in un digital twin 3D. Dopo aver ricostruito in 3D l'ambiente, ho sviluppato alcune microapp in AR. Se un environment viene condiviso, chiunque può sviluppare delle microapp e condividerle. Io ad esempio mi sono divertito, grazie a Mixamo (tool di mocap/animazione character integrato in Unreal Engine), a realizzare un trainer di MMA (Mixed Martial Arts) e un trainer Yoga. Entrambe le applicazioni sono usufruibili in AR utilizzando una tecnologia nativa per la VR. Un po' come avviene già in ecosistemi come Google Earth, puntualmente aumentati da informazioni di ogni genere, che possono essere condivise o meno a discrezione di chi le crea. (Andrea Bay) - Il concetto è sostanzialmente lo stesso. Da riproporre in maniera immersiva, soprattutto ragionando in prospettiva. Credo oltretutto che sia ancora molto importante il contributo soggettivo nella ricostruzione 3D degli ambienti. Il 3D artist ha un'attenzione sul dettaglio che supera quello che le tecnologie di scansione e fotogrammetria in automatico sono in grado di convertire a livello di modelli 3D texturizzati. Soprattutto se consideriamo gli ambienti interni. In tal senso la 3d community credo che possa offrire un contributo enorme, per creare la base di ambienti in cui sperimentare moltissime applicazioni. La loro condivisione consentirebbe di accelerare la fase di know how necessaria allo sviluppo cui faceva accenno Enea in precedenza. In alto il trainer MMA ed in basso il trainer Yoga. Le microapp AR per la VR sviluppate da Enea all'interno di Unreal Engine VR Editor. A livello di software 3D per la VR cosa avete utilizzato? (Enea Le Fons) - Principalmente lo sviluppo è stato implementato su Unreal VR Editor e a-frame del WebVR di Mozilla, per quanto riguarda la piattaforma VR collaborativa che abbiamo iniziato a programmare. Nello specifico poi ho avuto molto di sperimentare moltissime app e tool, come Tiltbrush, Masterpiece VR e molti altri. Ci tengo moltissimo a precisare che ogni istante dei 30 days in VR è stato vissuto sviluppando in VR per la VR. Questo è un aspetto fondamentale. Cosa cambia tra l'utilizzo "tradizionale" di un software 3D e l'utilizzo in VR. (Andrea Bay) - Nei software 3D desktop l'area creativa è in 3D, ma viene fruita in 2D, attraverso la proeizione che si interfaccia sul monitor. In VR invece è possibile entrare all'interno dello spazio tridimensionale, e varia totalmente la percezione. E' possibile un contatto con i modelli 3D di gran lunga superiore a quanto possibile nell'esperienza tradizionale. Unreal Engine è ormai molto diffuso per le app in real time, VR o meno che siano. Il suo VR Editor è però mediamente ancora poco utilizzato. Tu sei stato fin dall'inizio un grande fan di questa modalità di editing, al punto di farne uno strumento irrinunciabile. (Enea Le Fons) - Assolutamente. Io penso che tutti dovrebbero provare il VR Editor di Unreal Engine. Difficilmente tornerebbero indietro, almeno per la gran parte delle applicazioni. Gli strumenti sono gli stessi a disposizione nell'editor in ambiente desktop, con il vantaggio di avere un feedback diretto ed immediato di quanto si crea per l'esperienza VR. Quello che vedi mentre crei ed editi una scena è lo stesso che vedrà l'utilizzatore finale. Non è dunque necessario "togliere e mettere il visore", ma si può fare tutto in VR. Una volta presa la necessaria confidenza con l'interfaccia VR, tutto diventa estremamente più naturale e veloce. Creare in VR è più intuitivo. Non c'è davvero paragone. In più di una circostanza, al di là del bene che poteva volerti HTC, hai rilevato come senza il Vive Pro non avresti potuto portare a termine la maggior parte delle esperienze. A cosa ti riferivi dal punto di vista tecnico? (Enea Le Fons) - Alla risoluzione del display. Anche se al momento in cui l'abbiamo provato il Vive Pro non aveva ancora alcune feature che verranno sviluppate in seguito, il fatto di poter avere una 2k di base mi ha consentito di avere a disposizione un display con il 75% di area pixel in più rispetto al Vive normale. Per fare un esempio pratico, senza la risoluzione del Vive Pro non avrei potuto lavorare con i blueprint di Unreal Engine direttamente nel VR Editor. Lo stesso potrei dire per molte altre situazioni. La risoluzione dei device, oltre alla qualità delle lenti, è assolutamente determinante per fruire delle esperienze in VR e, ancor di più, per svilupparle. Il concetto non è molto diverso dallo sviluppo tradizionale. Lo spazio nell'area di lavoro non basta mai. Più ne hai, più ne vorresti. Questo è un aspetto su cui la tecnologia della VR deve necessariamente migliorare molto. Quanto agli utilizzatori finali, quelli che vengono sostanzialmente assoggettati nel segmento consumer, come possono contribuire all'evoluzione degli ecosistemi VR? (Enea Le Fons) - Oggi potenzialmente la VR è già alla portata di tutti. Basta indossare un cardboard per vivere un'esperienza immersiva. Non serve più dello smartphone e di un pezzo di carta piegato da una decina di euro. Ma perché l'utilizzo della VR è così limitato? Perché manca l'interazione. L'ecosistema consumer è da questo punto di vista molto limitato. Se escludiamo l'ambito enterprise, le esperienze si limitano alle applicazioni entertainment. I giochi contibuiranno a diffondere questa tecnologia, ma non sarà sufficiente. E' necessario che vi sia coinvolgimento ed interazione anche nelle esperienze del quotidiano. Così come oggi la gente crea e condivide le foto su Instagram, i video su Youtube, lo stesso credo avverrà con i contenuti in VR. Ma perché ciò accada devono esserci contenuti più aumentati, che stimolino l'interazione. La sensazione che molti hanno è relativa ad una tecnologia al momento inutile. Sempre più persone sono incuriosite e provano la VR. Basta recarsi a qualsiasi evento o fiera per vedere come gli exhibit VR siano facilmente in grado di catalizzare l'attenzione della maggior parte degli spettatori. Si tratta però di applicazioni ad hoc, sviluppati e fruibili con tecnologie al momento high end. Per inciso, quanti sarebbero disposti ad investire, a livello domestico su un HTC Vive, su un Oculus Rift e sull'hardware desktop necessario per fruire delle applicazioni? Il gap tra le applicazioni professionali e quelle consumer credi che sia soltanto un fatto di limiti nell'interazione che un cardboard o un GearVR, per ovvie ragioni, non sono in grado di offrire? (Enea Le Fons) - In parte si, in parte manca la consapevolezza. Anche a livello consumer non ci si rende conto di come noi siamo già immersi nella tecnologia. Siamo costantemente a contatto con display di qualsiasi genere, ma quanto li sfruttiamo? Quanto siamo predisposti a cogliere le opportunità che l'augmented ci consentirebbe di fruire? Per questo sostengo che sia necessario portarsi avanti con uno sviluppo in grado di superare la visione distopica per cui la VR, prospettando contenuti virtuali, potrebbe esistere solo per esperienze alternative a quelle reali. L'integrazione è molto più vicina a noi di quello che siamo naturalmente soggetti a pensare. Se la tecnologia è un limite, non deve diventare un alibi. Le prime esperienze in VR, con tecnologie molto diverse e più limitate rispetto a quelle attuali, le ho sviluppate nel 1997 con Studio Azzurro. Oggi abbiamo a disposizione la possibilità di sviluppare delle applicazioni in multipresenza che chiunque può utilizzare con un qualsiasi browser internet. Questo utilizzando le tecnologie WebVR che sono a disposizione di tutti. In mezzo ci sono vent'anni di esperienze. Le tecnologie evolveranno sempre. Ma non dobbiamo aspettarle. Dobbiamo farci trovare pronti, sapendo già cosa vogliamo ottenere da loro. L'approccio "learning by doing" è sempre più determinante proprio per offrire dimostrazioni pratiche e comprensibili dei risultati dello sviluppo, anche in ambiti finora inesplorati, come la visualizzazione dei dati. La computer grafica ha una grande responsabilità in questo, soprattutto per agevolare i processi decisionali che derivano dall'analisi dell'enorme quantità di dati disponibili per qualsiasi applicazione. (Enea Le Fons) - Se penso allo sviluppo, proprio nella visualizzazione dei dati abbiamo finalmente a disposizione delle applicazioni favolose, come Primitive, che consentono di fare coding immersivo. Visualizzare il dato oltre le potenzialità del 2D, del classico istogramma generato da excel, offre delle potenzialità enormi. Si ha finalmente una percezione volumetrica, che supera nettamente quella numerica. Cosa dobbiamo aspettarci ora da 30 Days in VR? (Andrea Bay) - Ora finalmente possiamo divulgare il progetto, coinvolgendo altri sviluppatori. Continueremo sia a Torino, con il nostro team, che supportando le esperienze di tutti coloro che vorranno intraprendere un'esperienza analoga nel mondo. (Enea Le Fons) - Siamo molto stimolati in varie direzioni, su tutte quella di combinare la VR con altre tecnologie 3D. Abbiamo fatto alcuni test con la robotica, vorrei al più presto coinvolgere anche la stampa 3D ed altre tecnologie di fabbricazione. Così potremo procedere in altre sperimentazioni. Per fare ciò ho già sviluppato In Unreal Engine VR editor alcuni arredi 3D ottimizzati per l'utilizzo di software laser cutting. Stay tuned... in VR.
  6. Francesco La Trofa

    Intervista a Daniele Bigi (ILM)

    Intervista a Daniele Bigi (associated VFX Supervisor, ILM) L'industria del divertimento è capace di creare dal nulla cose straordinarie. Star Wars, soltanto con il nome e la storia che rappresenta, è in grado di evocare sensazioni di meraviglia difficilmente eguagliabili nell'immaginario dei suoi milioni di fan in tutto il mondo. Daniele Bigi è stato ospite della prima edizione di Campus Party Italia, dove ha tenuto un intervento sul lavoro in produzione di ILM London, dove ha peraltro appena concluso, in qualità di Associate VFX Supervisor, l'attesissimo Ready Player One. Vediamo con Daniele alcuni dettagli della sua straordinaria esperienza presso la Industrial Light and Magic e sul percorso che lo ha portato fino alla vetta dell'industria dell'Entertainment. (FLT) - Ci siamo incontrati la prima volta molti anni fa, alla View Conference, dove presentasti insieme ad Adriano Rinaldi il breakdown di MPC per X-Men. All'epoca ricordo che eri Lighting Lead in MPC. Oggi ti ritroviamo come associated VFX supervisor in ILM. Di strada ne hai fatta parecchia. Raccontaci com'è andata. (DB) - Innanzitutto, la strada, scusate il gioco di parole, l'ho trovata strada facendo. Ho iniziato al Politecnico di Milano per diventare un car designer. La CG l'ho scoperta proprio durante il corso degli studi. Dopo la laurea ho fatto un po' di gavetta a Milano poi sono partito per Londra, dove sono stato prima in Framestore e poi in MPC. Quando ILM ha deciso di aprire una sede a Londra, sono stato contattato per entrare nel team ed ho accettato subito. Quando ho deciso di fare questo lavoro, il mio sogno era quello di lavorare in Pixar o in ILM. Questo sogno oggi si è avverato. Più che un punto di arrivo, spero sia stato un punto di partenza verso traguardi sempre più importanti. (FLT) - Come si costruisce una carriera simile? Da dove si parte? Al di là del possesso di qualità eccellenti, quali sono le scelte da fare a livello professionale? (DB) - Lavorando accanto a molti grandi professionisti, mi rendo conto ogni giorno che anche se lavoro ormai da circa 15 anni nei VFX, le cose da imparare non finiscono davvero mai. C'è sempre qualcosa di nuovo, tali e quante sono le sfaccettature che contraddistinguono questo lavoro. Farlo ogni giorno accanto ai migliori, costituisce uno stimolo enorme per migliorare. Ci sono altri motivi che vanno considerati per fare carriera in questo settore. Piu' si sale con le responsabilita' e il grado di supervisione più diventa importante la comunicazione con le persone che lavorano nei vari dipartimenti. Detto in questi termini può forse sembrare una banalità, ma non lo é affatto. E' importante conoscere le "skills" delle persone che lavorano nello studio per poter valorizzare al meglio le loro competenze sul progetto. Spesso vengo coinvolto nel decidere chi debba lavorare su un particolare task, pertanto conoscere il team assume un ruolo fondamentale. Le conoscenze tecniche sono importanti ma moltissime piccole e grandi decisioni prese quotidianamente, in dailies e in meeting, sono anche artistiche, dunque bisogna tener presente tutti questi aspetti. L'organizzazione del lavoro di decine, spesso centinaia di artisti è fondamentale per la riuscita di un progetto. Ovviamente il dipartimento di produzione in questo contesto svolge il 99% del lavoro ma, una volta assunto il ruolo di supervisore, la collaborazione con la produzione diventa più stretta. A quel punto diventa anche una mia responsabilità, legata al budget e a come le risorse devono essere distribuite tra i vari dipartimenti. Avere esperienza nel bidding di un progetto partendo da uno script, il che equivale a prevedere quanto tempo per disciplina occorrera' per l'esecuzione delle scene, costituisce un altro fattore importante. Gli studi, anche quelli piu' grandi, come ILM, sono fatti semplicemente da persone, la carriera si costruisce anche attraverso la fiducia che si crea tra le varie figure che lavorano intensamente a progetti a volte lunghissimi, spesso facendo centinaia di ore overtime, lavorando per mesi anche durante i weekend per portare a temine un film e soddisfare le esigenze dei clienti (studio e registi). (FLT) - Cosa differenzia ILM da altre realtà, ad esempio MPC e Framestore, in cui hai avuto modo di lavorare in passato? (DB) - Parliamo in ogni caso di società tra le più importanti al mondo. In Framestore ed in MPC lavorano dei professionisti straordinari, ed il loro risultato è sotto gli occhi di tutti. Quello che rende a mio avviso unica ILM è l'esperienza media dei suoi artisti. Questo per il fatto che si tratta di una società attiva dagli anni '70. Quante altre lo sono? In ILM è frequente relazionarsi con figure che hanno all'attivo decine di produzioni, non solo tra i supervisor. Ci sono anche tanti lead che si sono specializzati nel loro ambito, dove hanno un livello di conoscenza incredibile. Di certi aspetti della CG sanno veramente vita, morte e miracoli, perché l'hanno vissuta sulla loro pelle producendo tantissimi film di livello assoluto. (FLT) - Togliamoci un'altra curiosità tecnica. Nel tuo intervento a Campus Party hai fatto cenno al fatto che la vostra pipeline prevede l'impiego, in contemporanea, di moltissimi software. (DB) - Vero, ad esempio, abbiamo delle parti realizzate in Houdini, renderizzate con Mantra, ed altre definite in Maya e successivamente renderizzate con Arnold. ILM e’ molto flessibile riguardo i software che vengono utilizzate nella pipeline. A Londra, nel dipartimento Generalist, si è scelto di utilizzare principalmente Maya e Arnold, ma lo stesso dipartimento a San Francisco lavora principalmente con 3ds Max e V-Ray. La scelta di usare Arnold, almeno per quanto concerne il dipartimento Generalist, e’ stata in parte motivata dal fatto che a Londra ci sono molti più’ TD esperti nell'utilizzo di Arnold rispetto a quelli esperti in V-Ray. Questo ovviamente se limitiamo la nostra analisi all'ambito dei VFX dei film. (FLT) - Come è possibile il compositing di una simile eterogeneità di contenuti? (DB) - In passato per i compositor era abbastanza complesso gestire decine di elementi renderizzati in diversi dipartimenti (per lo più lighting / generalist / fx), con motori di rendering diversi (Arnold / RIS / Mantra / V-Ray, etc). Il problema, più che tecnico, è organizzativo, in quanto bisognava per forza renderizzare in modo corretto tutta una serie di “holdout” pass, per poter compositare in modo corretto tutti i vari elementi. Da diversi anni, grazie al Deep Image e a tecniche di Deep Compositing*, e’ possibile compositare tutti gli elementi renderizzati senza bisogno di creare nessun holdout pass. Questo ha facilitato moltissimo il lavoro generale. (FLT) – Come è strutturata la vostra pipeline? In quale misura affiancate software di terze parti, come quelli che abbiamo citato, a tool proprietari? (DB) – Non è semplice rispondere a questa domanda. Non ci sono particolari segreti, ma è difficile generalizzare una situazione tipo. Vi spiego il perché, provando a rendere la situazione nel modo più semplice possibile. In ILM ci sono alcuni software e formati che sono dei punti di riferimento per qualsiasi produzione, e vengono utilizzati da moltissimi anni, grazie ad un costante lavoro di sviluppo ed aggiornamento per adeguarli alle esigenze che si manifestano per ogni nuova produzione. Mi riferisco ad esempio a Zeno, un nostro software proprietario, oppure all'utilizzo di Alembic come formato le cache geometriche o del formato Open VDB per le cache volumetriche. Questi sono "componenti" della pipeline che molto difficilmente vengono cambiati. Perché ciò accada deve esserci davvero una ragione molto solida che ci spinga a farlo. Ovviamente, di volta in volta, ci si domanda sempre se sul mercato esiste un software che potrebbe fare meglio quello che viene sviluppato internamente. Per fare queste valutazioni occorre considerare molti aspetti: costi, tempi, flessibilità nell'utilizzo e adattamento nel contesto dell'intera pipeline. Da queste analisi vengono prese le decisioni in merito ai software e ai tool da utilizzare. E' un iter che viene svolto di volta in volta e la cui responsabilità va in carico ai vari capi dipartimento, ai CG supervisor e al dipartimento R&D. (FLT) - Di quali progetti ti sei occupato in ILM dopo il tuo arrivo alla MPC? (DB) - Ho lavorato su due Marvel movies: Ant Man e Doctor Strange. In entrambi i casi nel ruolo di CG Supervisor. (FLT) - Quali sono i progetti di ILM per la divisione di Londra? (DB) - ILM London sta crescendo a ritmi vertiginosi. Quando abbiamo aperto eravamo circa un'ottantina di persone. Ora abbiamo già superato le 300 unità e Disney prevede di collocarci in una nuova sede, per agevolarci nel migliore dei modi. Entro la fine del 2018 probabilmente saremo circa 450. (FLT) - Riguardo le nuove tecnologie, ILM si è prontamente distinta grazie a ILMxLAB, la divisione in cui abbiamo visto le prime meraviglie in Realtà Virtuale a tema Star Wars. (DB) - Per ora ILMxLAB è operativa nella sede principale, a San Francisco. Data la prospettiva di sviluppo di questo genere di contenuti, penso che, in analogia con il resto della produzione, in futuro la VR e le altre nuove tecnologie verranno implementate anche nelle sedi distaccate. Per ora però non abbiamo avuto esperienze dirette in questo senso e sinceramente non ne so di più in merito. E' facile prevedere come queste tecnologie siano il futuro, o comunque andranno a ricoprire un ruolo determinante in ambito media & entertainment. (FLT) - Attualmente sei VFX Supervisor associato su Ready Player One, l'attesissimo film di Steven Spielberg. Cosa puoi svelarci in merito a questo progetto? (DB) - Ovviamente niente - scherza Daniele - altrimenti mi licenzierebbero all'istante. Scherzi a parte, non posso rivelare alcun particolare per quanto concerne l'adattamento della sceneggiatura del romanzo di Ernest Cline. Il film è comunque in imminente uscita, per cui tutti potranno vederlo in sala e valutare personalmente il risultato del nostro lavoro. Per quanto concerne le parti che ci competono, vedrete un lavoro enorme nella creazione di OASIS, il mondo in cui i protagonisti del film vivono la loro esperienza in realtà virtuale. Già dai trailer che sono circolati è facile rendersi conto del perché le aspettative su Ready Player One siano così elevate. Sarò ben lieto di condividere i dettagli del progetto dopo la sua uscita nelle sale. Naturalmente, sai già che ti aspetteremo al varco. NOTA - I video riportati nel presente articolo sono tratti integralmente dal canale Youtube ufficiale di ILM. Approfondimenti consigliati. DEEP COMPOSITING - The Art of Deep Compositing, pubblicato da FXguide (articolo in lingua inglese).
  7. Francesco La Trofa

    Lighting Design in Architectural Render - Prima parte

    E il bello deve ancora venire
  8. Francesco La Trofa

    Il ragazzo invisibile - seconda generazione

    In concomitanza con l'uscita nelle sale de Il Ragazzo Invisibile - Seconda Generazione, Repubblica ha pubblicato un backstage esclusivo sulla realizzazione del film, i cui VFX sono stati realizzati dall'italianissima Frame by Frame (VFX supervisor Victor Perez, NdR). Seconda Generazione è il sequel del primo capitolo del Ragazzo Invisibile di Gabriele Salvatores e ad oggi rappresenta una delle produzioni italiane con il più alto numero di shot in cui è evidente il contributo degli Effetti Visivi. Siamo logicamente distanti dai numeri di una produzione hollywoodiana, in un ambito, quello dei VFX, in cui questo aspetto incide moltissimo in termini di implementazione creativa e risultato. Il lavoro svolto da Frame by Frame riesce a supportare in maniera importante la regia di Salvatores ed un rinnovato cinema di supereroi di casa nostra. http://www.repubblica.it/spettacoli/cinema/2018/02/02/news/victor_perez_il_mago_degli_effetti_del_ragazzo_invisibile_-185561832/
  9. Francesco La Trofa

    Modigliani in VR alla Tate Gallery - The Ochre Atelier

    Il connubio tra arte e digitale si arricchisce ogni giorno di esperienze in grado di andare ben oltre la dimensione della novità, della curiosità sulla tecnologia del momento. Quel non so che di trendy in grado di attirare pubblico senza nemmeno porsi il problema del contenuto. La Tate Gallery di Londra ce lo dimostra con The Ochre Atelier, un'esperienza in Realtà Virtuale in grado di catapultarci all'interno dello studio parigino di Amedeo Modigliani. L'iniziativa, realizzata in collaborazione diretta con HTC, è disponibile sia al centro della mostra dedicata all'artista livornese, dove sono installati ben nove HTC Vive, che sulla piattaforma Viveport. La VR Experience, dalla creazione dei contenuti 3D all'installazione interattiva, è stata realizzata dallo studio londinese Preloaded, che ha collaborato in strettissima collaborazione con i ricercatori e i curatori della mostra. L'esperienza digitale è infatti il risultato di un lungo percorso di studi e analisi, utili a reperire un'ampia base documentale, indispensabile per consentire agli sviluppatori le informazioni essenziali per realizzare un prodotto credibile dal punto di vista scientifico, oltre che in grado di generare coinvolgimento presso un pubblico generalista, spesso tutt'altro che evangelizzato dal punto di vista della realtà virtuale. Il processo di ricerca è durato ben cinque mesi ed è consistita nel passare al setaccio sia l'edificio, che gli interni e gli oggetti che componevano l'ambiente in cui Modigliani ha realizzato i suoi ultimi capolavori. All'interno dello studio in VR di Modigliani sono state ricostruite in 3D anche due opere dell'artista: Jeanne Hebuterne (sua compagna nel momento della realizzazione, NdR) e Autoritratto, risalenti al 1919, l'anno che ha preceduto la scomparsa dell'artista. Un reference board sviluppato da Prealoaded per la ricostruzione in 3D dello studio di Modigliani (credits Preloaded) L'obiettivo congiunto dei curatori della mostra e di Preloaded, è quello che generare una vera immersione, dare la sensazione di trovarsi accanto all'artista, ed è la ragione per cui l'attenzione non si sofferma soltanto sulle tele, sui pennelli e sulle tavolozze, ma su moltissimi dettagli, a cominciare dal lighting dell'ambiente, risultato di un'attenta analisi delle finestre che caratterizzavano le aperture dello studio. A completare il tutto, particolari apparentemente superflui, ma decisivi nel rendere completo il racconto di un'esperienza immersiva, come le scatole di sardine e i pacchetti di sigarette. Prealoaded, nella redazione del proprio caso studio sull'esperienza VR su Modigliani, ha sintetizzato in cinque fattori chiave il briefing della propria collaborazione con la Tate Gallery. 1 - Entry level basso, facile da usare e accessibile a tutti, anche a chi è inesperto dal punto di vista informatico; 2 - Creare empatia con Modigliani, come l'uomo che avremmo potuto conoscere; 3 - Grande attenzione per l'autenticità, sia nei concetti che nei dettagli della scena; 4 - Allinearsi agli standard della Tate Gallery in merito al rigore intellettuale e scientifico delle rappresentazioni; 5 - Realizzare un'esperienza esclusiva, che non si potrebbe vivere in un altro modo; In generale potrebbero essere i cinque comandamenti per qualsiasi VR Developer in ambito culturale, e lo sono a maggior ragione se guardiamo nello specifico la figura di Modigliani. Innanzitutto la capacità di esprimere come l'artista non utilizzasse l'atelier soltanto come studio, ma anche come abitazione, in un periodo molto particolare della sua vita, in procinto di sposare Jeanne Hebuterne, con un bambino piccolo ma con l'inesorabile debito di salute non certo agevolato da una vita da bohemienne. Conoscere questi aspetti, relativi alla vita privata di Modigliani ha agevolato notevolmente il compito degli artisti chiamati in causa per ricreare lo studio in 3D. Queste informazioni hanno consentito di ricreare alla perfezione il quadro delle condizioni in cui viveva Modigliani e generare quell'empatia con il visitatore che costituisce una chiave essenziale per il successo di qualsiasi esperienza immersiva in VR. La direttrice della Tate Modern, Frances Morris, si è detta molto soddisfatta del risultato della collaborazione con Preloaded per quello che è stato l'esordio assoluto da parte della Tate Gallery con questo genere di tecnologie a supporto di una grande mostra d'arte: "Siamo entusiasti del risultato della collaborazione, ci consente di offrire ai visitatori un nuovo genere di esperienza. Per noi è indispensabile esplorare le possibilità creative, e la realtà virtuale ci aiuta a guidare il pubblico verso una comprensione più profonda di un artista amato come Modigliani". La mostra rimarrà aperta alla Tate Gallery di Londra fino al 2 aprile 2018. La fruizione della Modigliani VR Experience non comporta costi aggiuntivi sul tagliando dell'ingresso, ma è obbligatoria un'apposita prenotazione. La mostra, al di là della sua finestra virtuale, comprende circa un centinaio di opere tra pitture e sculture, articolati sul periodo dell'intera carriera di Modigliani. Se passate da Londra nei prossimi mesi, sapete certamente come occupare il vostro tempo libero. Per informazioni su Modigliani Virtual Reality.
  10. Francesco La Trofa

    Google Tango - Fine della corsa, in attesa di ARCore

    Google ha annunciato ufficialmente la cessazione del supporto a Google Tango, prevista per il 1 marzo 2018. Da quel momento, qualsiasi progetto di sviluppo legato alla tecnologia di realtà aumentata basato su questa tecnologia sarà sostanzialmente da considerarsi archeologia informatica. Google è molto frequente a questo genere di operazioni, fatto di rapidi lanci e chiusure, sia di progetti propri che di tecnologie inizialmente acquisiti, ma al tempo stesso non deve sorprendere come lo sviluppo legato a tecnologie di cui non esistono praticamente ancora degli standard sia suscettibile di scelte strategiche anche drastiche sul breve termine. Chi investe nello sviluppo di soluzioni in realtà aumentata, deve essere perfettamente consapevole che le carte in tavola cambieranno ancora spesso, ed altrettanti saranno gli SDK da provare e implementare nei propri workflow. Si conclude così un percorso triennale che ha visto interessati moltissimi sviluppatori, nella prospettiva dichiarata, da parte di big G, di spostare le attenzioni su ARCore, un framework AR più flessibile, che non richiede un hardware specifico per sfruttare le sue feature esclusive, come è stato nel caso dei pochi e costosi dispositivi in grado di supportare realmente le poche applicazioni consumer realizzate con Tango. Oltre ad un tablet di Lenovo e uno smartphone di Asus non si è infatti visto molto altro all'orizzonte. Il vincolo a specifiche hardware continua a rivelarsi un peccato capitale, soprattutto nel settore mobile, che più di qualsiasi altro ragiona con le leggi dei grandi numeri, estremamente votate alla standardizzazione e alla presenza su quanti più device sia possibile. A differenza di TAngo, che richiedeva sensori specifici, ARCore, anche se attualmente è supportato soltanto dagli smartphone Pixel di Google, dovrebbe in grado di adattarsi alle tecnologie delle fotocamere e degli accelerometri nativamente supportati dai sistemi operativi Android, dunque di bypassare questo grosso limite. Per quanto riguarda lo sviluppo, Con il fatto di aver virato forse tardivamente su ARCore, Google si trova al momento in ritardo rispetto all'omologa tecnologia di Apple, vale a dire ARKit, disponibile per l'ultima generazione iOS, per cui sono già disponibili diverse applicazioni. Si tratta in ogni caso di un ritardo ampiamente recuperabile, considerando il fatto di trovarci negli early days di questa tecnologia, contando oltretutto sul fatto che le sorti della piattaforma Android non dipendono certamente da app che in questo momento rivestono ancora un ruolo marginale in termini di business. Un limite che è al tempo stesso la più grande opportunità, considerato l'enorme potenziale latente che la realtà aumentata è in grado di sfruttare. ARCore dispone di SDK per Java e C (via Android Studio 3.0) oltre che per Unity e Unreal Engine. Disponibile anche un SDK per l'ambiente di sviluppo web, attraverso la libreria javascript three.ar.js, di cui esiste un equivalente di ARKit per i sistemi basati su iOS.
  11. Francesco La Trofa

    Enscape 2.1 - Rendering Real Time e VR per Rhino Revit e SketchUp

    Enscape è un motore di rendering in grado di interfacciarsi come plugin in Rhino, Revit e SketchUp per produrre contenuti real time a video o in VR, sulla base dei principali supporti attualmente disponibili (Oculus Rift e HTC Vive). Enscape è inoltre in grado di produrre contenuti pre-renderizzati, tra cui le utili immagini 360 visualizzabili con Google Cardboard o viewer mobile equivalenti. L'integrazione con Rhino (in modalità Live Link) costituisce la principale novità di Enscape 2.1. Il progetto è visualizzabile in tempo reale nell'interfaccia di Enscape. La modalità Live Link con il software in cui vengono creati i contenuti è ovviamente molto utile a supportare le fasi di progettazione. Fondamentale inoltre la possibilità di creare un eseguibile indipendente, che consente di visualizzare in walktrough la scena esternamente, feature studiata appositamente per condividere il progetto con i clienti e tutti coloro che non sono necessariamente tenuti a disporre di Rhino. A livello di integrazione, Enscape è presente con una toolbar all'interno di Rhino, mentre la visualizzazione avviene in un'applicazione indipendente, la cui viewport si aggiorna in tempo reale a seguito delle modifiche effettuate sulla scena e sui vari setting. Le modalità di utilizzo sono relativamente intuitive, in quanto il software è concepito per offrire soluzioni di rendering semplici ai progettisti, non necessariamente agli esperti in visualizzazione architettonica. I seguenti trailer, tratti da una sezione video che contiene peraltro una serie di videotutorial molto pratici, offrono una sintesi efficace delle feature presenti in Enscape. Enscape è disponibile anche per Revit e SketchUp, avendo quale target di riferimento l'architettura ed il settore AEC e viene proposto con un price vario, basato su licenze rental che vanno da 449 a 679 dollari all'anno. Disponibile una trial version limitata a soli 14 giorni. Per ulteriori informazioni relative al funzionamento di Enscape.
  12. Francesco La Trofa

    Unigine 2.6.1 - Non solo Unity e UE4

    Se Unity e Unreal Engine la fanno da padroni sulla scena dei software 3D real time, ci sono altri prodotti molto interessanti, che chi intende specializzarsi in questo ambito deve necessariamente tenere in considerazioni. Prodotti come Lumberyard, erede di quel CryEngine acquisito da un colosso come Amazon, piuttosto che sostenuti da sviluppatori decisamente più Indie. E' il caso di Unigine. Il recente Unigine 2.6.1, pur proponendosi principalmente come un "maintenance update" aggiunge feature molto interessanti ad un software già molto promettente, introducendo elementi molto importanti come il Rendering Multi-Channel ed un complesso sistema di creazione e gestione di vegetazione, strade ed elementi ambientali, con un Landscape tool proprietario reso sempre più completo. Per avere un'idea delle potenzialità di Unigine è sufficiente uno sguardo ad alcuni filmati dimostrativi, come quelli che vi proponiamo. In particolare il video del simulatore di volo integra molte delle feature introdotte in Unigine 2.6 Vi riportiamo un estratto (in lingua inglese) delle feature di Unigine 2.6.1, rilasciate sul sito ufficiale dello sviluppatore. UNIGINE 2.6.1 - KEY CHANGES Better configurator for nonlinear image warping and edge blending.More robust multi-channel rendering with remote projection configuration.Improved CIGI protocol support.Improved generation of grass and clutters, increased performance, runtime modification.Added distributed terrain generation for Landscape tool.Improved UnigineEditor 2.Overall engine improvements and bugfixes.More C++ samples.APP PROJECTION PLUGIN The AppProjection plugin has evolved with support for adaptive grid, complex-shaped masks, blend maps and C++ API. Configuration of nonlinear image warping and edge blending for multi-projector setups has become an easier task. The complete list of improvements includes the following: Support for adaptive grid, now it is possible to set an arbitrary number of control points.Improved visual editor offers flexible tuning of warping parameters for each control point.It is now possible to create and edit masks to cut certain regions out.Added C++ API and a set of new methods (The complete list of API changes is available in the API Migration Guide).The interface of Projection Configurator has transformed and became more convenient, all settings are now displayed on different tabs. Warp tab contains geometry correction settings. New adaptive grid lets you set an arbitrary number of control points along horizontal and vertical axes. Precise positioning and flexible tuning of warping parameters for each control point, provided by the improved visual editor, give you full control over the image geometry to fit the required screen configuration. You can also use the Render Debug option to temporarily set individual colors for different projections. This helps to visualize overlapping regions for different projections and facilitates the setup process.Color tab contains color correction settings. Here you can set up color intensity, and adjust color balance for the selected projectionBlend & Mask tab allows you to configure edge blending and create complex-shaped masks to cut certain regions out. You can create and modify multiple masks using visual editor. SYNCKER After a huge revamp introduced in the previous release the Syncker plugin continues to evolve. Syncker options can now be changed via the Plugins tab of the system menu, displayed when the Esc button is pressed. GUI View Configuration Introducing new GUI view configuration for Syncker, making it possible to set up projections remotely on a Slave computer. To configure projections on the Master or a Slave, open the system menu by pressing Esc, go to Plugins tab and enable Show projections configuration option. IMPROVED GENERATION OF GRASS AND CLUTTERS Generation of ObjectGrass, ObjectMeshClutter and WorldClutter objects has improved, with the use of multithreading and other performance optimizations. Overall performance has increased significantly. Now it is possible to modify grass and clutters at runtime (cut trees and stamp the grass flat) via API. The complete list of improvements includes the following: Clutter generation is now performed in separate threads.Optimized grass / clutter generation performance and improved update logic (no more jitter on parameter change).Added new invalidate() methods for regeneration of grass / clutter cells.Added bend parameter for ObjectGrass, that allows you to create bent grass.Added ObjectMeshClutter::getClutterTransforms() method, that makes it possible to obtain transformations for all clutter meshes. The precision flag indicates whether clutter transformations will be collected for meshes within bounds,or within clutter cells.Added ObjectMeshClutter::setClutterExclude() method,that allows you to remove all the cells within certain area and skip their generation.Added world_spawn_list console command to monitor generation requests for ObjectGrass and ObjectMeshClutter nodes.Removed excessive ObjectGrass updates when a node is not visible. LANDSCAPE TOOL The evolution of the Landscape Tool brings a number of new features and improvements. Terrain generation is a complex task and may require a substantial amount of time depending on the area size and data resolution. Landscape Tool now enables you to use the advantages of distributed computing in the process of terrain generation. Generation time for large terrains can be significantly reduced, as the performance increases linearly for certain tasks. For more information on distributed terrain generation please refer to the Distributed Computing article. Roads generation has also become better. Terrain heights and masks can be adjusted for generated roads to provide better alignment and prevent vegetation from growing on the roads. This can be done in one click by simply selecting the Adjust terrain masks and heights option when setting up road generation parameters. No roads Roads with adjustment EDITOR 2 We continue our work on improving the new UnigineEditor 2 to make it even more convenient and powerful tool. The following improvements were made for this release: Added support for per-node property modification.Improved assets validation time. All *.asset files will have to be re-committed once, as hash values for all files will change.Added progress bars for assets validation and reimporting at startup.Improved GUI performance on operations with multiple objects.Improved organization of UI elements in the Parameters window with a new Accordion widget. You can now collapse and expand groups of UI elements.Improved structure and added tooltips for states, textures and parameters of the core base materials displayed in the Parameters window.Overridden property and material parameters are now highlighted in green.Fixed various issues with FBX support.Added support for OBJ, 3DS and DAE (COLLADA) formats.Added a Merge similar materials import option, that allows you to merge multiple identical materials with different names into a single one. This option is very useful for importing complex models from various CAD systems.Extended the set of supported image formats and added point filtering for imported textures.Added support for rotation and scale to the Randomizer tool.All assets in the Asset Browser are now sorted by name.Asset names are now displayed in the fields of the Parameters window instead of the names of runtime files.The contents of the NodeReference tab of the Parameters window are now merged into the Node tab.NodeReference content is now automatically selected when Edit button is clicked.Fixed applying changes to nested NodeReferences.Improved usability of the FieldHeight attenuation slider.Added undo/redo for grass and clutters mask editing.Fixed incorrect object movement with snapping enabled.Editor configuration file is now stored in the following folder:C:/Users/AppData/Local/Unigine/Editor/ (Windows)~/.config/Unigine/Editor/ (Linux)Other bugfixes and UI improvements.TERRAIN GLOBAL Improved intersection detection. Added ObjectTerrainGlobal::setForceIntersection() method, that enables/disables forced loading of necessary terrain tiles to ensure correct intersection detection. When enabled, this option may significantly reduce performance. Thus, it is recommended to enable it, perform intersection check, and disable it again.Now it is possible to add new LODs atop of the most detailed one. This feature can be used for creating high-detail insets with brushes or via API.Improved Brushes UX.Asset system now supports terrain detail arrays.Fixed crashes with LODs removal in cases when vegetation objects present on the terrain.Fixed incorrect brushes projection when viewport camera is locked.Fixed bug when terrain mask list was not refreshed after terrain re-generation with the Landscape Tool.RENDERER Improved the billboards_base material, now it is possible to use billboards to simulate various types of specialized lights. The list of key improvements includes the following: Added geometry inflation allowing the user to limit minimum billboard screen size (in pixels) to a fixed value in order to provide visibility from far distances.Added billboard size scale.Added horizontal and vertical angle limits (negative Y axis will be selected as forward axis) for angle-dependent visibility.Added haze support for emission pass. OTHER CHANGES Fixed instanced omni lights in OpenGL.No more driver crashes on shader errors.More robust shader cache generation.Removed various shader warnings.DOCUMENTATION The complete list of API changes is available in the API Migration GuideThe complete list of Console command changes is available in the Console Migration Guide.Added Video tutorials on UnigineEditor 2 interface:Added UnigineEditor 2 section.Added article on the *.spl file format.La documentazione integrale è disponibile al seguente link. https://developer.unigine.com/en/devlog/20171222-unigine-2.6.1
  13. Come molti di voi sapranno, da tempo è in atto una causa per plagio intentata da Otoy nei confronti di Pinksoft. L'accusa sarebbe relativa al fatto che FStorm Render avrebbe copiato alcuni dettagli proprio da Octane Render. Un particolare che si tinge di giallo considerando che Andrey Kozlov, prima di dedicarsi full time a FStorm, era un dipendente di Otoy, che ora gli rinfaccia di aver utilizzato del codice di Octane nel suo nuovo progetto di sviluppo. Si tratta del resto del caso più scottante attualmente in auge nel mondo della computer grafica. Bene, proprio Kozlov ha deciso di giocare a carte scoperte, offrendo la sua versione di una vicenda legale senza esclusione di colpi, che si starebbe svolgendo tra la Nuova Zelanda e la Russia. Uno dei particolari più curiosi della vicenda è dato dal fatto che il presunto plagio sarebbe dovuto al fatto che le prove presentate da Otoy non andrebbero oltre alcune similitudini nel menu di rendering che, come sappiamo, riprende peraltro l'interfaccia utente di 3ds Max, in cui sia Octane che FStorm si integrano come software esterni. Kozlov ha infatti pubblicato anche la presunta prova del delitto. Se così fosse, ovviamente l'accusa di Otoy sarebbe basata sostanzialmente sul nulla, al punto da apparire una chiara lite temeraria. Kozlov sostiene che la procedura in corso in Nuova Zelanda non gli darebbe modo di difendersi di fronte ad una accusa che ritiene assurda, pertanto ha dato avvio ad un procedimento simile in Russia, tuttora in corso di svolgimento. La vicenda ha dunque assunto la dimensione di una causa internazionale. A seguito dell'avvio della procedura legale da parte di Otoy, Pinksoft ha sospeso a tempo indeterminato la vendita di FStorm Render, che ad oggi non è rintracciabile in alcun modo, a patto di averlo acquistato prima del blocco. Ad oggi Otoy non ha reagito pubblicamente a questa dichiarazione di Andrey Kozlov, nè ha commentato in alcun modo queste supposizioni. In attesa che la "guerra" tra Otoy e Pinksoft torni ad essere una sana competizione tra motori di rendering, attendiamo ulteriori sviluppi. Riportiamo a seguire il testo pubblicato da Andrey Kozlov sul gruppo Facebook di FStorm Render. Some comments about New Zealand case. Short prehistory In July 2016 Otoy conducted a lawsute in New Zealand High Court and claimed that Andrey Kozlov stealed Octane source code. Otoy evidences mostly based on 3ds Max render button and similar ones. Since New Zealand judges don't really care what they judge - source code stealing or sheeps stealing, they deeply belived to Otoy evidences and issued an order forbidding any actions of a citizen of foreign country. Running a new zealand lawsuit means following the order and spending many hundreds of thousands bucks for new zealand lawyers. Which means stop any FStorm development for uncertain amount of years. The only acceptable way for Andrey Kozlov was ignoring new zealand order and the case in general, continuing developing and saving money for Russian Case. Breaking new zealand order leads to striking out any defence (really, even robbers and killers have a right for defence in civilized countries) and having no chance for fair hearing. No expertises, no source code comparison. Nothing. Meanwhile Russian judicial expertise of source code comparison is in progress. And it is realy doubtfully that the expert will say 2+2=5. Lets see... Update 21 ottobre 2017 - Ulteriori precisazioni di Andrey Kozlov Sulla vivacissima pagina Facebook di FStorm Render, Andrey Kozlov ha aggiunto alcune precisazioni relative al procedimento legale aperto in Russia. Sulla base della versione dello sviluppatore di FStorm, Otoy avrebbe avviato una causa per plagio contro FStorm, senza fornire tuttavia alcun elemento di codice di Octane per provare le accuse, ma soltanto alcune parti del SDK di Max (chiaramente di proprietà Autodesk). Queste basi rassicurano Kozlov, che dubita fortemente che un perito possa concludere che FStorm abbia plagiato Octane se Otoy non ha fornito nemmeno una prova elementare a supporto di questa accusa. A seguito di queste dichiarazioni, Otoy non ha ancora rilasciato alcun comunicato ufficiale sulla vicenda. Some extra info in my post regarding Russian case. "In April 2017 Otoy conducted a lawsuit in Moscow City Court and claimed FStorm is renamed Octane. Otoy didn't pay attention to Russian court rules and was not able to avoid judicial expertise of source code comparison. Since Otoy understands that the expertise may clear things out, they didn't provide Octane source code but only small fragments of 3ds max SDK instead (which is property of Autodesk). It is very unlikely the expert will make a conclusion of identity between FStorm and Octane based on provided information. The expertise is in progress." Update 14 novembre 2017 - Esito perizia Lawsuit Russia Ulteriori aggiornamenti in merito alla causa che vede opposti, ormai a livello planetario, Otoy ed il suo ex sviluppatore Andrey Kozlov, autore del noto FStormRender. In particolare, citando la scansione di un documento in lingua russa, la perizia escluderebbe qualsiasi possibilità di plagio o violazione di proprietà operata da Kozlov sulla base di Octane Render, il progetto cui aveva lavorato proprio durante il suo periodo trascorso presso Otoy. Il passo più importante esclude qualsiasi prova in merito alla riproduzione o all'utilizzo del codice sorgente. Come sostiene lo stesso Kozlov, la vicenda legale è lungi dall'essere conclusa, ma questo referto dovrebbe costituire un passo importante verso la ripresa delle attività pubbliche relative a FStormRender, attualmente sospeso dal download e dalla vendita. Nelle scorse settimane, sempre sui social, si è potuto assistere ad un curioso siparietto tra gli sviluppatori di Corona Renderer e lo stesso Kozlov. Il team ceco ha rilevato come il sito internet di FStorm rilevasse stringhe di codice identiche a quelle di Corona. Dopo alcuni pseudoscrezi, la questione si è risolta sdrammatizzando reciprocamente sull'accaduto. In tutte le circostanze, la community ha sempre dimostrato piena solidarietà nei confronti del talentuoso sviluppatore russo, che a dispetto di un motore di rendering davvero promettente, per il momento non sembra capace di tenersi lontano dai guai. A seguire la traduzione, pubblicata da Kozlov sulla pagina internet ufficiale di FStormRender. News from Russian lawsuit case The judicial expertise is done. Here are the results: 1. The source code / code of the computer program "FStormRender" submitted for research is not a reproduction (copy) of the source code / code of the computer program "OctaneRender". 2. In the materials submitted for research, there are no signs that the source code / code of the computer program "FStormRender" is a processing (created on the basis of) the source code / computer program "OctaneRender". 3. In the materials submitted for research, there are no signs that the computer program "FStormRender" is the result of processing (modification) of the computer program "OctaneRender". 4. In the materials submitted for research, there are no signs that the computer program "FStormRender" is the result of the reproduction (copying) of the computer program "OctaneRender". THE GAME IS NOT OVER YET, but this is quite important step forward. Update 17 novembre 2017 - La sentenza Neozelandese e la posizione di Jules Urbach (CEO Otoy) Emergono nuovi dettagli in merito alla guerra dei motori di rendering, che a questo giro si gioca in maniera occasionale nelle aule dei tribunali di mezzo mondo. E' arrivata nel frattempo la prima sentenza, relativa a quanto emesso dall'Alta Corte di giustizia della Nuova Zelanda, che ha riconosciuto Andrey Kozlov colpevole di violazione di copyright, nello specifico di essersi impossessato di una parte di IP di Octane per sviluppare FStorm. La Corte ha sancito un risarcimento per danni di 50mila dollari e, cosa ben più grave per lo sviluppatore russo, l'interdizione permanente dalla vendita e dalla diffusione di FStorm che, ricordiamolo, è attualmente sospeso da tali servizi. Oltre alla prima sentenza, finalmente Jules Urbach, CEO e fondatore di Otoy, ha deciso di uscire allo scoperto, con un post su Medium in cui cita espressamente la stringa di codice in cui sarebbe palese come in FStorm sia presente del codice preso da Octane. Contestualmente a questa immagine, Urbach approfondisce la questione provando come, a suo dire, non ci siano molti dubbi in relazione al furto commesso da Kozlov ai danni di Otoy. Potete leggere l'intera versione pubblicata da Urbach al seguente link - https://medium.com/@julesurbach/otoy-vs-kozlov-c49b803105ac La causa neozelandese, che Kozlov non ha mai voluto riconoscere, fissa dunque il punteggio sul 1-0 in favore di Otoy. Ora si rimane in attesa della causa in corso in Russia, il cui esito periziale sembrerebbe favorire invece Kozlov. Update 20 novembre 2017 - La replica di Andrey Kozlov Non si è fatta attendere la replica del prolifico Andrey Kokzlov. Lo sviluppatore di FStorm ha categoricamente smentito le affermazioni del suo ex datore di lavoro, Jules Urbach, che lo accusano in maniera plateale di plagio, con il supporto della sentenza della corte neozelandese. La posizione di Kozlov è molto forte, ed arriva a ridicolizzare l'accusa di Urbach, dandogli apertamente del bugiardo, ribadendo come la stringa di codice cui si riferisce ad alcune librerie open source (nello specifico il Sobol QMC sampler), e che le diciture Octane compaiono in più circostanze per via dello scene converter contenuto all'interno del motore di rendering, al pari di V-Ray e Corona Renderer. Kozlov controaccusa inoltre Urbach, dicendo come il codice sorgente non sia mai stato fornito per la causa neozelandese, ma soltanto in quella russa, ed il fatto di averlo condiviso, per la legge russa, costituisce oltretutto reato! A seguire il testo integrale pubblicato da Kozlov sulla pagina Facebook di FStorm Render. 1) FStorm source was never provided for new zealand lawsuit (because an exprtise was never appointed), so the decision was made without any proper evidences. 2) FStorm source was provided only for Russian lawsuit and sharing intellectual property provided only for judicial expertise is a crime accorindg to Russian laws. 3) SUO file mentioned in the link is not a part of a source code and remembers every file opened in Visual studio from my PC. This is not a surprise, I worked on Octane 4 years and opened some files during Octane development when I had to work from home. 4) FStorm has more than 250 source code files. Octane has more than 1000 files. Urbach told about just two files. Even if we imagine that these two files are the same (just imagine), what about the other 250 files? It is not enough to claim FStorm is based on Octane source code. Urbach showed all what he found (just two files from open source code) and nothing else. He is trying to make an elephant from a fly. 5) Since FStorm has a scene converter from Corona, VRay and Octane, FStorm source code contains not only "Octane" word, but "VRay" and "Corona". For some reason VRay and Corona developers didn't run a lawsuit against FStorm because of "VRay" word. Probably they are not that paranoiac. 6) Otoy tends to grab open source code (everybody can download from the internet and use it) and to claim that it is their copyrights. They even forgot to remove primary source. Sobol QMC sampler is used by every render like 3ds max render button. Update 26 dicembre - La corte di Mosca respinge la causa di Otoy Non poteva esserci regalo di Natale migliore per Andrey Kozlov nella disputa che lo vede opposto a Jules Urbach e ad Otoy, per il presunto plagio operato da FStorm nei confronti di Octane Render. La Corte di Giustizia di Mosca ha infatti respinto le accuse, concedendo 30 giorni ad Otoy per presentare un appello. Non si conoscono ancora i dettagli del provvedimento, ma Kozlov, che ha come sempre pubblicato gli aggiornamenti sulla pagina Facebook del suo motore di rendering, si dice molto fiducioso sul fatto che, decorsi i 30 giorni, il sito tornerà ad essere pienamente operativo. Questo potrebbe tradursi nella notizia che la community di FStorm, ed in generale tutti gli appassionati di rendering attendono da tempo, per avere nuovamente disponibile e provare con mano la tecnologia di uno dei motori di rendering più interessanti dell'ultima generazione. Curiosa la situazione a livello internazionale, dove rimane la sentenza della corte Neozelandese che aveva sostanzialmente dato ragione ad Otoy, inibendo Kozlov da qualsiasi ulteriore attività commerciale su FStorm. Questione definitivamente chiusa, come dice Kozlov, o semplice 1-1 palla al centro, in una partita ancora tutta da giocare? Come sempre, vi terremo aggiornati nel caso di ulteriori sviluppi, a partire da un'eventuale replica di Otoy. _
  14. Francesco La Trofa

    Magic Leap One - Realtà Aumentata o eterna promessa?

    Dopo essere stata per oltre tre anni l'oggetto misterioso più prezioso dell'industria della realtà aumentata, Magic Leap esce finalmente allo scoperto presentando quello che sarà il suo primo visore: Magic Leap One. Perché Magic Leap ha suscitato e continua a suscitare tanto clamore? Per le aspettative che il suo IP ha saputo generare, prospettandosi quale prima vera killer app nella realtà aumentata. Quella vera, in grado di generare esperienze realistiche combinando il reale con i contenuti digitali delle sulle applicazioni. Uno dei tanti filmati con cui, senza sostanzialmente mostrare nulla di concreto, Magic Leap ha saputo attrarre a sé investimenti per miliardi di dollari. Tra le tante promesse, quella di disporre di una tecnologia lightfield proprietaria, in grado di riconoscere e tracciare lo spazio grazie alle proprietà della luce che lo contraddistinguono. Oltre a concetti finora assolutamente inediti, come la tecnologia (persistent objects) che dovrebbe consentire di poter posizionare un oggetto virtuale in un ambiente, allontanarsi, tornare dopo minuti, ore o giorni e ritrovarlo nella stessa posizione grazie alla capacità di mappare in modo permanente tutti gli asset con gli environment tracciati. Al fattore tecnologico, va associato l'interesse di poter disporre di un sistema che finalmente non isola del tutto l'utente rispetto all'ambiente reale, come avviene con i kit di realtà virtuale attualmente in commercio, risultando oltretutto autonomo dal punto di vista della potenza di calcolo. Le aspettative sono molto elevate. Cosa sarà in grado di fare davvero Magic Leap One? E' presto per saperlo, in quanto l'esordio è atteso nel 2018, ma soltanto per la "creator edition", che unitamente al SDK, consentirà agli sviluppatori di iniziare a creare contenuti. Ad oggi non è invece dato sapere quando saranno disponibili i primi kit commerciali. Magic Leap One Content Edition comprende essenzialmente tre elementi. Un solido visore dal look avveniristico, basato su una tecnologia see-through, un controller manuale che non differisce, almeno ergonomicamente, da quanto siamo abituati a vedere, ed il cuore pulsante, dove risiede la potenza di calcolo di un sistema assolutamente stand alone: il Lightpack. Attraverso questi dispositivi, secondo quanto afferma Magic Leap, sarà possibile interagire con la voce, le gesture manuali, i movimenti della testa e degli occhi, grazie ai sistemi di tracking integrati. Per ora non si conoscono le specifiche tecniche, così come i costi della creator edition. Al look avveniristico, Magic Leap One associa una potenza teorica molto elevata in funzione di quelle che sono le dimensioni dei componenti del kit, assolutamente ridotte e votate alla portabilità. Magic Leap One segnerà davvero un punto di svolta nell'industria della realtà aumentata? E' presto per dirlo. Certamente la spinta mediatica che riceverà sarà enorme e indubbiamente eserciterà un fattore apripista per tecnologie che, almeno inizialmente, dovrebbero trovare terreno fertile soprattutto nel mercato enterprise, piuttosto che in quello consumer. Per ulteriori informazioni relative a Magic Leap - https://www.magicleap.com/
  15. Francesco La Trofa

    Sudohopper3d - Il Sudoku per imparare Grasshopper

    Sempre più frequenti i casi di gamification legati ai processi di learning. Ne è la dimostrazione il gioco, ispirato al celebre Sudoku, Sudohopper3D è un card game composto da 126 carte, che guidano attraverso l'apprendimento del pensiero parametrico su cui si basa Grasshopper attraverso semplici concetti di matematica, geometria vettoriale e trigonometria, uniti ad una conoscenza basilare degli algoritmi e del coding. Gli allievi / giocatori possono imparare con un approccio problem solving basato sulla logica, in un contesto socialmente coinvolgente, almeno a giudicare dai buoni propositi illustrati nel seguente video. Le risorse sono in parte gratuite, come il PDF free con la versione digitale delle carte, e a pagamento, come la versione fisica delle carte, ordinabile sul sito ufficiale, ed i video (al momento disponibili in inglese e spagnolo) che completano l'offerta formativa del livello 1. Link utili Sudohopper3D sito ufficiale - http://www.mcneelmiami.com/sudohopper3d Sudohopper3D digital pdf free - http://mcneelmiami.com/inc/sdetail/7654 Vi ricordiamo che Rhino è disponibile presso lo shop ufficiale di Treddi.com
×