Jump to content
Search In
  • More options...
Find results that contain...
Find results in...

Nicolas Esposito

Members
  • Portfolio

    Portfolio
  • Content Count

    36
  • Joined

  • Last visited

About Nicolas Esposito

  • Rank
    Matricola

Recent Profile Visitors

1,267 profile views
  1. Eccomi qui a mostrare l'ultima fatica pensata appositamente per rendere la vita più facile durante il GameDev e non. Il video di seguito mostra un workflow che ho creato in Maya, in grado di riutilizzare le informazioni di skinning tra diversi characters, oltre alla possibilità di condividere il Facial Rig, sia basato su Blend Shapes, sia Joint Based. Oltre a questo, l'integrazione con il plugin ART Toolkit, permette di avere anche l'intero rig in Maya, per poterlo animare o applicare motion capture. Attualmente l'intero sistema si basa sulla skeletal hierarchy di Unreal Engine, ma può essere adattato ad altre skeletal hierarchy ( Unity! ). Critiche e commenti sono i benvenuti Unreal Engine 4 - Shared Character Rigging Workflow in Maya - Body and Facial Rig
  2. Funziona come IKinema Orion, quindi il tracciamento viene fatto utilizzando i Vive Trackers, quindi se fai una capriola la traccia, a meno che non occludi i Vive Trackers. Le demo che ho realizzato sono sotto NDA, quindi niente video, ma sul link the ho linkato troverai sia una demo che puoi testare ( è un eseguibile, quindi basta che hai i trackers accesi e SteamVR pronto e parte senza problemi ) e diversi video fatti dal developer stesso ( controlla il forum di supporto che trovi nel link ). Essendo un plugin per UE4, funziona solo ed esclusivamente su UE4, ma ovviamente le animazioni che registri le puoi esportare in FBX. Di alternative per Unity non ne conosco, visto che lo utilizzo poco e niente.
  3. C'è il Vive Mocap Kit, che ho già utilizzato per un progetto Full Body VR, è una buona alternativa. L'alternativa è utilizzare i vari AnimBP nodes di Unreal per creare l'intero setup.
  4. Di recente ho aggiunto la sezione "Downloads" al mio sito web, rendendo disponibili delle demo dedicate al Full Body VR, utilizzate sia per Full Body Motion Capture, sia per interazione avanzata in VR, utilizzando IKinema Orion e i Noitom Hi5 VR Gloves. Il Full Body Motion Capture è stato acquistato sia da singoli developers sia da diversi studios in Europa e Stati Uniti, mentre il sistema di interazione avanzato è utilizzato principalmente per Virtual Job Training ( assemblaggio manuale, sicurezza sul lavoro, simulazione macchinari, ecc... ), aumentando notevolmente il livello di immersione dell'esperienza, dando la possibilità all'utente di utilizzare le mani per interagire con i componenti nella scena. Demo download Di seguito alcune GIF del sistema di interazione e movimento, utilizzati sia per il Full Body VR sia per l'utilizzo dei soli Noitom Hi5 VR Gloves: Grab Pinch Pinch example Menu Movement Nella pagina troverete una breve descrizione della demo, in aggiunta ai requisiti ( hardware e software ) necessari. Critiche e commenti sono ben accetti Nicolas Esposito www.enter-reality.it
  5. Buongiorno a tutti, Spesso mi trovo a dover riggare vari personaggi in modo da testare alcune animazioni da file motion capture, ma ovviamente il settaggio dei joints e lo skinning sono operazioni noiose e ripetitive. Prendendo come riferimento la skeletal hierarchy base del Mannequin esportato da Unreal Engine, ho creato un setup che permette di trasferire le informazioni di skinning utiizzando una blend shape come driver. I joints vengono riposizionati e riorientati tramite constraints sulla mesh che viene deformata tramite la blend shape, e successivamente lo skinning viene trasferito tramite UV, poi il personaggio da skinnare viene bindato alla skeletal hierarchy, per poi trasferire le informazioni di skinning tramite Cosest Point on Surface. In pochi click si ha un personaggio riggato, permettendo di avere 80-90% del paint weights già fatto. Funziona molto bene su personaggio umanoidi, ma se il character design è complesso ( cloth o molti accessori ), i risultati possono variare. Reusable Skinning Technique for Characters Il prossimo step è il trasferimento delle corrective shapes e di un facial rig basato su Blend Shapes. Critiche e commenti sono benvenuti Nicolas Esposito www.enter-reality.it
  6. Salve a tutti, Negli ultimi mesi ho elaborato un documento in cui spiego in dettaglio l'utilizzo di Unreal Engine 4 utilizzato come strumento principale per il Motion Capture, data la possiblità di combinare insieme diversi sistemi di mocap, visualizzando il tutto in tempo reale. Avevo intenzione di fare una videoreview dei due sistemi, ma il tempo a disposizione è poco, quindi ho deciso di adattare il documento in forma di Blog post, dove c'è tanta roba da leggere e tante informazioni che possono tornare utili, sopratutto per studios o developers che hanno intenzione di realizzare un sistema di Motion Capture in-house. Link al Blog post Critiche e commenti sono benvenuti Nicolas
  7. Buongiorno a tutti, Da poco ho ricevuto da Valve i Knuckles e ho deciso di integrare il tutto nel sistema Full Body Motion Capture che utilizzo ( IKinema Orion ), utilizzando i Knuckles al posto dei Noitom Hi5 VR Gloves, che avevo già integrato tempo fa. Anche se i Knuckles utilizzano dei touch capacitors al posto di avere the sensori IMU, devo dire che i risultati sono piuttosto buoni. Critiche e commenti sono benvenuti Full body Motion Capture: Valve Knuckles integration with IKinema Orion
  8. Cambia la scala di export in Blender, probabilmente stai esportando in mm invece che in cm, visto che 1 unità in UE4 equivale a 1cm.
  9. Ci sono degli esempi nella scena Content Example e sui material Automotive, il tutto scaricabile direttamente dal launcher, ma in realtà se hai bisogno di creare dei materiali master, usa gli scalar parameter per i canali che ti interessano, magari usando il multiply per controllare il valore dello scalar, dopo di che tasto destro sul master material e crea un material instance, e vedrai che i valori degli scalar parameter possono essere controllati in tempo reale, senza ricalcolare il materiale.
  10. Su questo ti puoi sbizzarrire quanto vuoi, visto che di default alcune azioni sono gi' settate ( grab ), mentre per le altre o qualcosa di specifico la logica la devi creare tu Guarda le scene nel Content Example, è pieno di cose utili
  11. Ti ringrazio Francesco, in effetti questi workflow è stato creato appositamente per permettere di esportare animazioni da UE4 in modo semplice e veloce, visto che ad oggi l'export dai game engine ( in generale ) è ancora limitato. Venerdì incontrerò una parte del team di Epic al Laval ( Francia ), e gli farò vedere un paio di cose che ho sviluppato per semplificare la vita ai developers, vediamo un pò se riesco a corromperli in qualche modo :D
  12. Buongiorno a tutti, Recentemente ho integrato il Facial Mocap utilizzando iPhoneX insieme all Full Body Motion Capture ( in questo esempio realizzato con la Perception Neuron ), avendo il tutto in realtime all'interno di Unreal Engine. Facial Animation Pipeline - UE4 to Maya Considerato che al momento non c'è la possibilità di esportare animazione tramite blend shapes da UE4, ho creato un setup apposito utilzzando un proxy rig, in modo da collegare il valore 0-1 all'asse Z dei joints, in modo da guidare le blend shapes in Maya tramite questi valori. Critiche e commenti sono benvenuti Saluti Nicolas Esposito www.enter-reality.it
  13. Buongiorno a tutti, Stò sperimentando con i Noitom Hi5 VR Gloves e ho fattoun pò di RnD per applicazioni in ambito industriale, oltre che a rielaborare un VR Template per sostituire completamente i controller di Vive. Buona visione VR RnD - Manual Workstation and Welding Training using Noitom Hi5 VR Gloves VR Content Example for Noitom Hi5 VR Gloves Saluti Nicolas Esposito www.enter-reality.it
  14. Salve a tutti, Ho finalmente avuto la possibilità di testare IKinema Orion insieme ai Noitom Hi5 VR Gloves ( ancora in fase di prototipo ), in modo da avere un Full Body Motion Capture. Full Body Motion Capture using IKinema Orion + Noitom Hi5 VR Gloves Sono stati utilizzati 8 Vive Trackers: testa, bacino, mani, gomiti e piedi. I dati vengono inviati in streaming direttamente all'interno di Unreal Engine 4, ed il tutto è stato registrato utilizzando Sequencer a 60FPS, i dati inviati sono "raw" ( registrati in presa diretta ). A breve integrerò alcune funzioni specifiche ( tramite Blueprints in UE4 ), come la possibilità di avere pose predefinite per le mani ( quando si prende un oggetto ), IK per utilizzare armi a due mani, e altre utilità. Lo scopo finale è quello di limitare ( o eliminare completamente ) il lavoro di rifinitura dopo aver registrato la sessione di motion capture. A breve comincerò ad offrire il tutto come servizio, quindi se avete bisogno di questo tipo di servizio non esitate a contattarmi. Saluti Nicolas Esposito www.enter-reality.it
×
×
  • Create New...