Jump to content

Alex33

Members
  • Portfolio

    Portfolio
  • Content Count

    14
  • Joined

  • Last visited

  1. Si, esatto... i problemi cominceranno con l'altra sequenza, quella che ci siamo prefissi di analizzare noi. Grazie e saluti (per ora). Alessio
  2. Hai ragione Markkpor, concordo in pieno. Quello che noi stiamo facendo è cercare di unire dei saperi al fine di fare un piccolo passo avanti nella conoscenza di determinati fenomeni. A volte i fisici non si vogliono sporcare le mani con la tecnologia, ma spesso utilizzano mezzi che non conoscono approfonditamente e proprio per questo fanno brutte figure. Ci siamo imbattuti in uno studio della sequenza del lunar rover di Apollo 16, sostenuto dalla NASA, realizzato da un team di insegnanti dell'Università del Colorado e pubblicato su uno dei più autorevoli magazine scientifici che si occupa di fisica (American Journal of Physics https://aapt.scitation.org/doi/10.1119/1.3699957). Lo studio è completamente infondato e almeno fin qui il lavoro di Russ Andersson con Sintheyes è stato utile. Noi sapevamo già che in Colorado avevano completamente sbagliato il frame rate (è 24 fps e non 29,97 fps). Questo sarebbe bastato per liquidare i loro calcoli sulle velocità della polvere lunare come carta straccia. Ma adesso capiamo che anche l'assunto di partenza (ovvero che il piano di vista sia ortogonale al moto del Rover) sul quale i fisici americani basano le loro misurazioni è errato: il tracciamento della camera fatto da Russ è molto eloquente e tra l'altro permette di verificare che le ruote del rover girano ciascuna con velocità e moto diverso dall'altra (innovazione importante per questo mezzo che doveva affrontare le asperità del terreno lunare), quindi anche la stima della velocità del mezzo (che gli americani fanno a partire dal moto rotatorio della ruota anteriore) è del tutto arbitraria. Una velocità che il software di Russ può dimostrare facilmente come assolutamente INCOSTANTE. Per l'altra sequenza forse le cose saranno più difficili... anche se abbiamo almeno un piano (la plss unitity) che si sposta nello spazio insieme all'astronauta e cercheremo di fare del nostro meglio per risolvere lo spazio 3d. Abbiamo bisogno di maggiore accuratezza, ma dalla nostra c'è il fatto che si tratta di un primo piano e questo potrebbe contenere l'errore. L'unica cosa di cui abbiamo bisogno veramente che il software sia in grado di stimare l'errore delle misure. Se questa stima è favorevole le nostre conclusioni avranno un senso altrimenti no. Grazie per l'aiuto.
  3. Cioè? Non ho capito... Sono daccordo, a me pare che tutto quello che viene presentato nel riquadro arancione selezionando il tracker sia incomprensibile. Mentre misurando sui viewports le cose potrebbero tornare (non ho ancora approfondito da poco fa quando mi sono avveduto di questa possibilità). Non chiedo tanto ovviamente, ma se interessa approfondire l'uso di questo software (che comunque è abbastanza quotato per il 3d Camera Tracking) ricordo che la versione DEMO è praticamente full optional (l'unica limitazione è che non si può salvare l'eventuale output). Si trova qui: https://www.ssontech.com/regis.html Per quanto riguarda l'esempio su Apollo 16, lo ricordo, è disponibile qui: https://www.ssontech.com/pub/Apollo.php Con tutorial qui: https://www.ssontech.com/content/apollo.html
  4. thumb
    Grazie per le risposte. caro Xforte: l'avevo pensato, ma a parte il fatto che questo studio è stato realizzato dal produttore del software e diffuso come esempio di corretto utilizzo del sistema stesso, lo stesso problema si rileva anche su molti altri esempi. caro markkpor: la tua osservazione mi ha permesso di fare un grande passo avanti. Nell'immagine che allego qui, puoi vedere qual'è la situazione delle 3 viewport a risoluzione della sequenza avvenuta (così come è stata risolta da Russ Andersson). Sotto le 3 viewport ci sono le coordinate e spostandomi sulle diverse griglie (front, left, top), posso effettivamente leggere delle coordinate che hanno senso per lo stesso punto (in ciascuna lettura avrò un asse diverso sempre a zero, ma potrò ricavare la coordinata che manca dalle altre). Quindi adesso un sistema spaziale lo posso costruire. Rimane incomprensibile per me che cosa significhino quei 3 valori che sono abbinati a ciascun punto tracciato se mi posiziono su di essi con il mouse direttamente sull'immagine. Inoltre trovo nelle istruzioni che introducono questa practice shot ( https://www.ssontech.com/content/apollo.html ) un commento di Russ che recita: "Anche se sembra che la telecamera sia posta su un treppiede, c'è stato abbastanza movimento da parte dell'astronauta / cameraman Charles M. Duke Jr. tanto che è possibile ottenere una soluzione 3D". Questo rimette in gioco il problema dell'affidabilità di questa tecnologia, ad esempio nel caso dell'altra sequenza sulla quale stiamo lavorando, quando la telecamera è del tutto fissa. A proposito di questo Markkpor hai fatto un commento che mi interessa molto: "Synthayes risolve lo spazio 3D, l'importante è che lo possa fare, o con spostamenti della camera nello spazio xyz, o con movimento di oggetti rispetto alla camera in xyz". Quali elementi ti portano a questa conclusione? Grazie!
  5. Caro Markkpor, grazie di nuovo del tuo interessamento. Faccio un piccolo inciso: la sequenza è stata analizzata e risolta dal produttore di Syntheyes, Russ Andersson, con il quale ho avuto un breve scambio per email. Quindi diciamo che fino alla RISOLUZIONE il lavoro è stato fatto da una mano esperta e Russ mi ha confidato che con qualche ritocco si potrebbe senz'altro usare per reperire delle coordinate con una qualche validità scientifica. Sto lavorando su questa sequenza del Lunar Rover per comprendere il funzionamento del programma. Il team con il quale sto collaborando è incaricato di compiere un'analisi del moto della polvere lunare su altre sequenze, tra cui quella che ho postato nell'altra discussione. Sono d'accordo quando dici che Syntheyes è in grado da solo di risolvere lo spazio 3D senza bisogno di altri software. L'errore hpix è presente in qualsiasi trackpoint e viene presentato anche in un apposito box: io lo interpreto come espressione dell'accuratezza della misura. Quello che non torna sono i valori di X,Y,Z nei vari punti e ancora non ho capito perchè sono così incoerenti. Ci parlavi di un forum di Syntheyes... io non l'ho trovato. Prima di porre a Russ Andersson domande che potrebbero richiedere risposte molto lunghe, preferirei darci un'occhiata se mi fai la cortesia di linkarmelo... GRAZIE
  6. thumb
    Caro Michele, mi scuso per aver aperto una nuova discussione: ho pensato che rispetto al quesito precedente (di carattere orientativo) il problema fosse adesso più pratico di conoscenza della procedura del tracking (nella precedente discussione sono state citate nuovamente le proiezioni che avevo fatto con il Fuoco Prospettico di Photoshop!) Se non fossimo da mesi sulle sequenze di Apollo 16 non mi sarei "incaponito" con le coordinate 3d: abbiamo davvero bisogno di ricavare quei dati con la massima attendibilità (nel limite del possibile !). Russ Andersson di Syntheyes, parlandomi del tracking della sequenza del lunar rover, mi ha confermato che (almeno su quella) è possibile fare delle misurazioni. A proposito dell soluzione che mi proponi: nella lavorazione della sequenza che lui ha messo a disposizione come tutorial per gli utenti del software, è presente 1 oggetto digitale (anche se non si vede nelle immagini che ho postato prima): una doppia piramide in corrispondenza dell'origine del sistema di coordinate. Ne allego un ingrandimento. In questa scena la misura nota è il diametro della ruota (le dimensioni dello zaino sono utili per la scena che ho postato nel precedente thread). Anche Syntheyes consente di inserire nel filmato oggetti (di forme preimpostate o da importare). Questi oggetti si possono effettivamente misurare con coordinate X,Y,Z. (vedi seconda immagine). In effetti se ho capito qualcosa di questo Software, una volta RISOLTA la sequenza lo spazio 3D diventa misurabile. Quello che continuo a non capire sono le coordinate dei trackers sparsi per tutta l'immagine. Non mi sembra siano coerenti, per nulla. Ho provato su altre sequenze (pre-risolte per i tutorial): stessa cosa... Quindi anche dopo aver creato le forme non riesco a procedere. Sono comunque interessato a studiare il tutorial che hai postato su Camera Match. GRAZIE !
  7. thumb
    Signori, sono ai primi passi con Syntheyes e il Camera Tracking. La necessità è quella di ricavare delle coordinate 3d da una sequenza girata con una sola telecamera (più o meno fissa) - siamo sulla Luna: Apollo 16. Tra i tutorial del software ce n'è uno che si riferisce ad una sequenza simile: ho semplicemente aperto il file che contiene la sequenza analizzata e risolta (.sni) dal produttore del software. Ho difficoltà ad interpretare le coordinate X,Y,Z che vengono proposte per ciascun Tracker (il sistema è Z-up ovvero la terza coordinata è riferita all'altezza). Allego alcuni screeshots. image1: è il tracker preso come origine del sistema di coordinate (coincide con object 1), quindi X=0, Y=0, Z=0 (il punto è sul telaio del veicolo in movimento) image2: un secondo punto sul telaio del veicolo lunare. Dovrebbe avere più o meno Z=0, mentre il valore risultante è -4.028 image3: questo punto si trova all'altezza del volante del mezzo, il valore di Z è sorprendetemente -4.535 image4: estremità alta di una delle antenne del veicolo, Z è inspiegabilmente pari a -3.832 Qualcuno sa spiegarmi queste incongruenze? Di che cosa non tengo conto per comprendere la spazialità di queste immagini?
  8. Caro Markkpor Grazie per il tuo contributo. Quelle proiezioni (avventate) le avevo prodotte con il filtro fuoco prospettico di Photoshop, prima di conoscere Syntheyes e il camera tracking 3d. Sono riuscito poco fa a risolvere una sequenza girata da telecamera fissa con Syntheyes semplicemente usando il tracking automatico. Credo che questo significhi che è possibile conoscere anche le coordinate 3d di ogni punto tracciato. Devo ammettere però che per alcuni punti, non necessariamente i più lontani, non riesco ad interpretare molto bene x,y,z. C'è qualche esperto di Syntheyes che può illuminarci?
  9. Cari, sto cercando di impratichirmi con il tracking 3D e in particolare con Syntheyes. Sono anche entrato in contatto con il produttore che sembra avere un interesse particolare per le immagini di Apollo. Avrei però una domanda fondamentale (ho qualche pudore a presentarla al produttore, perché sintomatica delle mie lacune in materia): Se ho una sequenza nella quale la telecamera è fissa, benché io possa fare di tutto per individuare più trackers possibili e sebbene io possa cercare di farlo nel modo più ortodosso possibile, sarò in grado di risolvere in 3D in maniera corretta, oppure il fatto di non avere altre angolazioni di ripresa lo rende impossibile? Le coordinate 3D degli oggetti in prospettiva a quel punto saranno attendibili, scientifiche, oppure frutto di una notevole approssimazione? Grazie a chiunque voglia chiarirmi questo fondamentale che (come si può capire) è preliminare rispetto alla scelta del mezzo con il quale affrontare il problema...
  10. Carissimi, una volta scaricato e installato Syntheyes mi sono imbattuto in una fortunata coincidenza: tra gli esempi che vengono messi a disposizione nei tutorial per i trackers uno riguarda le immagini di Apollo 16: https://www.ssontech.com/pub/Apollo.php Si tratta di una famosissima sequenza (girata appena prima di quella che noi stiamo analizzando) relativa al test delle funzionalità del Lunar Rover (o Moon Buggy) e chiamata Gran Prix. Questa coincidenza conferma che siamo senz'altro sulla strada giusta! Purtroppo non riesco a leggere il file .sni che contiene la lavorazione di queste immagini (io sono ancora in versione DEMO ...Per caso qualcuno più esperto di me nell'uso del software potrebbe esportarmene una copia per After Effect o altro software?). Al momento nell'uso di questo software, per me completamente nuovo, la sensazione é un po' di spaesamento. Ho seguito il manuale e tentato un 3-D Planar Tracking ‌su un fotogramma: individuato un piano prospettico e posizionato i 4 trackers; preso nota dell'orientamento della piramide proiettata a partire dal piano individuato e della distanza focale. Come procedo per le misure? Le coordinate X, Y, U, V che appaiono in calce all'area di lavoro e che variano a seconda del puntamento del mouse sull'immagine, sono le mie coordinate 3d dei punti presenti? Vi ringrazio ancora moltissimo!
  11. Grazie mille ad entrambi. Mi appresto a scaricare Synth Eyes nella speranza di imparare ad usarlo. Nella descrizione del prodotto si parla della possibilità di individuare come si é mossa la telecamera e quale era il suo campo visivo (lunghezza focale). Se però - come mi anticipi tu Michele - permette anche di posizionare e misurare punti nello spazio, penso proprio faccia al caso nostro. La parte del nostro studio che riguarda la fisica del movimento é per la verità abbastanza semplice e richiede conoscenze elementari. Il confronto tra modello teorico e dati riscontrati prevede un'analisi più avanzata ma dovremmo arrivarci. Quello che sta risultando complesso invece é l'interpretazione delle immagini. Ad esempio i fotogrammi che vediamo sono il risultato di una conversione da 10 fps (registrati dalla Moon TV Camera con 6 campi interlacciati sequenziali x ciascun frame nella successione dei colori RBG-RBG), a 29,97 fps, frequenza necessaria per la trasmissione (in tempo reale) nel circuito televisivo americano in NTSC. Ogni fotogramma é quindi composto dalla sovrapposizione di più campi che lo scan converter di Huston ha unito (trasformandone anche alcuni da pari a dispari). Per questo ci limiteremo a mappare il moto della parte più avanzata della nuvola: ciò che sta in coda appartiene ai 50 ms precedenti. Speriamo di superare i problemi di analisi tridimensionale, altrimenti mesi di indagini porterebbero ad vicolo cieco. Qualsiasi supporto sarà molto gradito.
  12. Caro Michele ho provato ad utilizzare Adobe After Effects per il tracciamento del movimento, seguendo anche un paio di tutorial. Certamente con questo programma si possono fare interventi molto complessi sui filmati e fin'anche seguire oggetti con inserti vari, ma sinceramente non riesco a capire come potrei derivare misure sulla posizione della polvere nello spazio. Tu cosa avevi in mente? Grazie ancora.
  13. Grazie Michele, sapresti indicarmi qualcuno di questi programmi?
  14. thumb
    Buongiorno, insieme al prof. Pasquale Bosso Postdoctoral Researcher presso Universidad de Guanajuato (Mexico) stiamo conducendo uno studio di cinematica su una sequenza di Apollo 16 (RCA TV Camera durante EVA1). Abbiamo bisogno di effettuare alcune misurazioni tenendo conto della prospettiva nonostante l'immagine a nostra disposizione sia bidimensionale, dobbiamo valutare cioè la posizione degli oggetti nello spazio (x, y, z). In particolare stiamo studiando il moto della polvere spostata dall'astronauta. Allego un frame della sequenza in questione per esemplificare il problema (fig. 1) Aggiungo che siamo in grado di individuare abbastanza facilmente le dimensioni in gioco (sono note alcune misure dell'attrezzatura di cui fu dotato l'astronauta) così come i punti di fuga, la linea di orizzonte e di terra grazie ad alcuni oggetti che presentano piani ortogonali tra loro. Nelle fig. 2 e fig. 3 allego un tentativo di rilievo fatto a questo proposito con lo strumento Fuoco Prospettico di Photoshop. Qual'è a vostro giudizio il modo più corretto di procedere? Esistono software in grado di aiutarci? Quali indicazioni ci possono dare questi software in mancanza di immagini laterali che consentano un'adeguata scansione fotogrammetrica ? Ovviamente necessitiamo di un discreto livello di accuratezza nelle misure. Grazie per qualsiasi aiuto.
×
×
  • Create New...