Come primo Videotutorial sul mio canale ho voluto affrontare la tecnica del Photoscanning che ho scoperto recentemente. 

Nell’ultimo mese ho fatto molti test, scoprendo potenzialità e limiti di questa tecnica.

Cosa più importante, se non dire fondamentale è l’ILLUMINAZIONE.

Non avendo a disposizione un piccolo set fotografico, ho deciso di fare questi primi test all’esterno, sfruttando queste giornate invernali prive di sole per evitare tagli di luce netti e ombre molto contrastate.



Sebbene sia possibile realizzare un buon modello 3d con software open-source come Visual e MeshLab, e su questo vi invito a seguire il tutorial di Gleb Alexandrov QUI al link, ho trovato decisamente veloce e preciso Agisoft Photscan, di cui mi sono totalmente innamorato.

Per questo tutorial ho deciso di fotoscanisionare questo drago situato sulla facciata della chiesa di S.Luigi dei Francesi a Roma ( chiesa nota soprattutto per le prime committenze pubbliche di Caravaggio nella cappella Contarelli).

188e540975d5f0f6022294d32391ed92.jpg

Da vero nerd ho deciso di usare soltanto il mio Huawei p9 per le fotografie scattandone un centinaio.

Unica vera accortezza, apparte la luce è cercare di coprire ogni foto il 50 % della precedente ( percentuale molto indicativa dettata dalla mia esperienza) per far si che ci siano più matching di punti nella fase di ricostruzione.


Bene. Tornato a casa e scaricato le foto sul PC le importo in Agisoft Photoscan e seguo 4 step


1)Align Photo.

 Su tutte le scansioni fatte quest’ultimo mese ho provato le varie differenze tra Low , Medium, Hight , Very Hight . Il consiglio è quello di rimanere tra Medium e Hight. Si arriva cmq a una msh con molti poligoni e se le foto sono fatte bene, il software fa tutto da solo

228ba916d95e3991d7681b6473ee2491.jpg

2)Dense Cloud. La generazione della dense cloud richiede molto tempo. Di solito a lavorare è la GPU e il consiglio è di lasciare il computer a lavorare e fare qualche altra cosa nel frattempo.

125b22991b9f4cb29fa6b5cab1067d71.jpg

3)Generate Mesh. Dalla dense cloud alla generazione della mesh. Anche qui, lasciamo invariati i settaggi, facendo solo attenzione che la mesh sia generata dalla nuvola di punti precedentemente creata.

4)Texture Come ultimo step genero la texture che userò come Diffuse nel Principled Shader in Blender

d8ecdfe483b3e7844a5bdd0718dff6e9.jpg


Una volta esportata la mesh, importo il modello in Blender. Di solito il perno di rotazione è spostato rispetto al baricentro dell’oggetto, quindi lo allineo a quest'ultimo.

e30181ff8e12cc40e979dce5f51bcdf4.jpg

Brevi passaggi come settare la camera, l’illuminazione usando una texture HDR di Greeg Zaal che puoi trovare QUI gratuitamente.

Animo infine il nodo Mapping per simulare il cambio di luce solare.

e1ef7675f03e8c48f97395c4f7141427.jpg



La conclusione è che il workflow tra Blender e Photoscan funziona molto bene. Il photoscanning è una tecnica super affascinante che però lascia dietro molti limiti.

Per ritopologizzare i modelli, per esempio, Blender non offre soluzioni open-source ed è necessario o passare da plug-in esterni per Blender o per altri software( io ho usato spesso il ZRemesh di Zbrush per esempio).

In ogni caso sia totalmente open-source (VisualSFM + MeshLab) o con Photoscan o altri software simili si arriva a risultati molto soddisfacenti. Da provare!!!