Vai al contenuto
ellessar

Motion Capture Project

Recommended Posts

Leggendo il Tutorial di Gabriele sul motion capture è nata una piccola discussione su come creare un casco per animare i volti dei personaggi tramite motion capture (consiglio di andare a leggere la discussione).

Ho aperto questa discussione per cercare aiuti e consigli sull'elettronica e la meccanica del casco.

Sarà una sorta di casco aderente al viso con molti sensori che rilevano i movimenti dei muscoli e li trasferiscono a un corcuito che, interfacciato con 3D Studio MAX, ci dà la nostra animazione.

Il progetto è ambizioso e abbastanza complicato, sono accettati consigli e qualunque altro tipo di aiuto. Il problema principale (come potete capire dalla discussione del tutotial) è la meccanica da usare per i sensori.

Pubblicherò tutte le novità.

A presto!

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

ciao purtroppo io son appena al 1 anno di elettronica per cui per consigli più approfonditi dovrai aspettare qualche annetto, quello che mi viene in mente adesso e come rivlevare la posizione dei sensori, l'unica cosa che mi viene in mente è tramite triangolazione, cioè fai partire un segnale da ogni sensore in modo che calcolando il tempo inpiegato per raggiungere i 3 sensori di rilevamento riesci a capire la posizione che ha. Adesos il problema è capire dove mettere i 3 sensori di rilevamento.Se vuoi catturare solo le espressioni facciali io direi di posizionarli direttamente sul casco, invece se vuoi anche il movimento del casco i 3 sensori devono essere esterni e fissi.

uhm forse sto dicendo un mucchio di stronzate, ma per qualche dettaglio in più devo fare ancora un po' di esami.

ciao

slash

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
Potresti spiegarmi meglio questo metodo? Non ho capito molto bene come faccio a rilevare i movimenti con 3 sensori...  Puoi essere più chiaro, grazie.

Ciauz...

guarda l'mmagine:

Immagine.JPG

allora il punto che devi individuare è il punto p gli altri 3 sono i sensori fissi che ne individuano la posizione. Il metodo è il seguente:

il tuo punto p emetto un segnale che puo essere sonoro elettromagnetice ecc... in modo che tu conosci la velocità del segnale, dopo di che calcoli direttamente il tempo impiegato dal segnale a raggiungere ogni sensore principale, così ti puoi calcolare la distanza da ogni sensore usando la semplice formula cinematica x=v*t. adesso immaginati di costruire attorno a ogni sensore una sfera con raggio uguale alla distanza misurata da ogni sensore, così ti ritrovi con 3 sfere, adesso devi solo trovare l'intersezione delle 3 sfere così saprai dove si trova il tuo punto p.

Spero di essermi spiegato bene.

ciao e fammi sapere con svolge il lavoro

slash

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

La tua idea non è niente male, io avevo pensato a riempirmi il viso di led all'infrarosso che emettevano ognuno un codice diverso (ma molto breve, di pochi bit) e poi di "infilarmi" in una specie di scatolone triangolare le cui pareti sono ricoperte di fototransistor che, come dici tu, raccolgono le posizioni dei segnali.

Il problema è come faccio ad ottenere 3 coordinate? I led possono emettere il segnale solo in un senso, dovrei usare dei microled (tipo quelli dei mouse) disposti in circonferenza per ogni sensore... Che ne pensi? Si può fare?

L'idea non è male...

Ciauz!

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

a dir la verità non ci ho capito molto, del tuo metodo, comunque per ottenere le 3 cordinate utilizzando il mio metodo è abbastanza facile( per così dire). Una volta trovate l'eequazioni quadratiche delle 3 sfere per trovare le cordinate devi risolvere un sistema di 3 equazioni in 3 incognite( le equazioni sono del tipo x^2+y^2+z^2=r^2), e l'unico modo che mi vieni in mente per risolvere velocemente il sistema e con il metodo di cramer così ti ottieni un vettore che contiene x y z del punto. Unaltra cosa che mi viene in mente e che devi decidere se misurare solo la variazione di posizione del tuo punto oppure se vuoi misurarne anche la posizione da fermo, perchè in questo caso i 3 sensori devono essere posizionati in modo preciso dopo di che devi stabilire il punto di cordinate 0,0,0 e di conseguenza anche le equazione delle sfere si complicano.

ciao

slash

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Grazie, forse mi sono spiegato male, ma il mio metodo e il tuo sono molto vicini, se li combino ho risolto il problema! Il fatto è che io ho la soluzione pratica per quanto riguarda l'elettronica, mi mancava la pare matematica: grazie per il suggerimento.

A presto!

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Eccomi quì, ho riflettuto molto sulla realizzazione del casco e sono giunto a brillanti conclusioni. Ho trovato (almeno credo) il modo per realizzarlo utilizzando componenti optoelettronici (fototransistor e led IR), la parte informatico-matematica è ancora da sviluppare, ma non sembra difficile.

Il problema è il costo del materiale per creare un prototipo...

A presto nuove notizie.

Ciao!

p.s. I suggerimenti sono sempre ben accetti!

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
rIO    0

La discussione e' molto interessante, solo non ho capito perche' un approcio elettronico piuttosto che ottico, per il mocap di un corpo intero sarebbe impossibile utilizzare un metodo ottico (ovviamente) ma per un volto invece ' molto piu' semplice. PolarExpress docet :D

Perche' non usare marker sul viso e catturare ad esempio con 2 camere la posizione dei marker per poi interpolarla via software ??

Un articolo sul Vicon

http://vfxworld.com/?sa=adv&code=1e242f07&...&id=2189&page=1

Il sito del Vicon (usato per polar express)

http://www.vicon.com/jsp/index.jsp

Un sito con un softwareino e una spiegazione sul metodo usato anche dal vicon (universita' di Genova)

http://personal.miralab.unige.ch:1312/s.ga...facialanim.html


Modificato da rIO

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Questo è gia fattibile via max col motion tracker.Quello che si sta tentando di sviluppare è un capture real time che consenta più feedback.Otticamente sarebbe possibile ma il costo dell'hardware per questo penso sarebbe più costoso.Comunque è un approccio diverso.Non ho abbastanza elementi per dirti se converrebbe oppure no.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti
rIO    0

Fattibile da Max col motion tracker ??? In realtime ?? Ho dei dubbi, ma non mi esprimo. Sicuramente l'hardware per fare motion tracking ottico e' infinitamente meno costoso che quello elettronico, basta una telecamera (o due per sicurezza) e un software.

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Forse non mi sono espresso bene.Fattibile da max, non in real time(senza un hardware stratosferico).Ma le due teleamere e un software ti consentono di far interagire l'attore con il video in real time?Il casco di sicuro si.Ma come ho gia detto sono stato fuori dal giro per tanto tempo (2 anni sono troppi) e non conosco gli attuali sviluppi...quindi non mi sento di asserire nulla di certo.Mi piacerebbe saperne di più.Grazie Rio della testimonianza e dei link.Vediamo cosa succede...

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Grazie rIO per i link, mi spiego meglio: ho optato per un metodo optoelettronico, e cioé usando led IR come emettitori (posti sul viso in punti bene precisi) e fotofiodi IR come ricevitori (posti in una specie di scatola con le pareti "foderate" di questi ricevitori), per la loro semplicità d'uso e per il loro costo contenuto.

In questo modo potrei essere in grado di rilevare le coordinate di ogni sensore con una precisione molto elevata (il segnale viaggia alla velocità della luce) e con un feedback elevato; grazie anche al metodo propostomi da slash con pochissimi calcoli e con un hardware limitatissimo (un semplice BasicX come processore del "casco" e un PC) si riuscirebbe a realizzare un sistema molto economico (il processore costa appena 55 euro) e abbastanza professionale.

La capacità del BasicX di supportare il multitasking mi permette di operare su più sensori contemporaneamente, senza inutili attese e tempi morti.

Io punto principalmente all'economicità e alla semplicità del sistema, soprattutto del software, il quale sarebbe molto limitato in questo caso.

Spero di essere stato chiaro.

Ciao!

Condividi questo messaggio


Link al messaggio
Condividi su altri siti

Crea un account o accedi per commentare

Devi essere un utente per poter lasciare un commento

Crea un account

Registrati per un nuovo account nella nostra comunità. è facile!

Registra un nuovo account

Accedi

Hai già un account? Accedi qui.

Accedi ora

  • Navigazione recente   0 utenti

    Non ci sono utenti registrati da visualizzare in questa pagina.

×