Photogrammetrie – eine faszinierende Methode, um 3D Objekte zu erzeugen

Am Beispiel einer kleinen Statue beschreiben wir die Prozesse, die mit aktuellen Softwarelösungen photogrammetrisch zu ansehnlichen Ergebnissen führen.

Schauen Sie sich das Tutorial zum Thema an.

In den zahlreichen Seminaren zum Thema CGI (Computer Generated Imagery), die wir für verschiedene Softwarelösungen wie Cinema 4D, Blender, Maya, 3Ds Max, Modo etc. anbieten, wird immer wieder deutlich, dass es oft die gleichen Themenbereiche sind, die den Teilnehmern einiges abverlangen. 3D macht man nun mal nicht im Vorbeigehen. Neben dem richtigen Setzen und Justieren von Licht und dem sinnvollen Definieren von Materialität ist es auch immer das Modelling, das die Newcomer herausfordert. 3D lebt natürlich von seinen Inhalten und die müssen nun mal irgendwie erzeugt werden. Man kann Modelle kaufen, sie selbst modellieren oder – und das ist spannend – sie aus Fotos erzeugen.

Photogrammetrie – die Softwaretools

Photogrammmetrie heiß die Technik, die aufgrund ausgefuchster Algorithmen aus Fotos ein 3D Modell erzeugt.

Am Beispiel von 3DF Zephyr, eine Photogrammetrie- und 3D-Modellierungssoftware, möchten wir erklären, wie ein Workflow aussehen kann. Es gibt auf dem Markt natürlich noch weitere Applikationen, die hier helfen können. Meshroom oder Megascan, um nur zwei Wichtige zu nennen.

In unserem Beispiel ist es eine kleine unscheinbare Büste es Pharaos Tutanchamun, die für weitere Einsatzzwecke digitalisiert werden soll.

Fotografieren des zu digitalisierenden Objekts

Hilfreich ist eine Hohlkehle, die möglichst knitterfrei sein sollte (hier im Beispiel eine weiße PVC Folie). Ein Turntable erleichtert das Rundherum-Fotografieren und ausgedruckte Marker helfen der Software die Pixel von einem Foto im nächsten wiederzufinden. Es müssen keine bestimmten Marker sein. Wahllose QR-Codes würden auch schon funktionieren. Die Software muss lediglich ermitteln können, wo die Kamera bei der Aufnahme gestanden hat.

Die kleine Tutanchamun-Büste reflektiert viel Licht aufgrund ihrer eher lackartigen Oberfläche. Dies sorgt beim Fotografieren dafür, dass sich unschöne Glanzlichter auf der Oberfläche bilden. Diese würden später zu nicht gewollten Irritationen im Scan führen. Hier schaffen Polfilter und/oder ein Mattierungsspray Abhilfe. Am Besten sind natürlich gar keine Glanzlichter bei dennoch perfekter Ausleuchtung.

Hier helfen Polfilter auf dem Objektiv und Polfilter vor den Lichtern (Kreuzpolarisation). Die LED-Scheinwerfer oder Blitzer werden mit Polfilterfolien gerichtet. Der Polfilter auf der Kamera kann das gerichtete Licht dann filtern. Glanzlicht – Ade.

Es werden ein paar duzend Fotos erstellt die das Objekt von allen Seiten und aus verschiedenen Höhen zeigen.

Photogrammetrie – der Workflow in der Software

In der Software werden die Fotos analysiert. Die Exif-Daten aus den Bildern werden extrahiert. Somit weiß die Software mit welchen Brennweiten die Kamera gearbeitet hat. Die Pixel werden getrackt und es ergibt sich nach einem Prozess, dessen Feintuning über gute oder schlechte Qualität des Scanings entscheidet, eine Punktwolke die das Objekt bereits erahnen lässt.

Diese Dense-Cloud (Punktwolke) wird nun mit Filtern und Masken „gereinigt“. Punkte die nicht gewollt sind, fliegen raus bevor das eigentliche Mesh erzeugt wird.

Der nächste Schritt erzeugt aus der Punktwolke eine polygonales Gitter (Mesh). Das ist eigentlich schon unser 3D-Modell – nur ohne Textur. Auch hier sind Einstellungen zu treffen, die über die Qualität entscheiden.

Der letzte Schritt ist das Baking der Textur. Hier wird also nun die Textur erzeugt. Damit haben wir, wenn alles gut gelaufen ist, ein sehr detailliertes Modell aus unseren Fotos extrahiert. Sehr detailliert ist hier übrigens wörtlich zu nehmen, denn das Modell umfasst nicht selten einige Millionen Polygone.

Die Software 3DF Zephyr bring bereits einige Werkzeuge mit, um die Polyanzahl zu reduzieren. Da wir aber Profis sind und unseren Seminar-Teilnehmern keine halben Sachen zeigen, ist der Optimierungsprozess doch etwas feingliedriger.

Mit verschiedenen Tools (in unserem Beispiel: Cinema 4D, Instand Meshes und xNormals) wird nicht nur ein nutzbares Mesh erzeugt, sondern das Highpoly-Modell dient auch als Hilfsmittel, um für das reduzierte Mesh eine passgenaue Textur mit Displacement-Map und Normal-Map zu backen.

Nach diesen Prozessen ist ein hochdetailliertes Modell mit wenigen Polygonen auch bereit für Realtime-Grafik in Unity oder Unreal.

Soll das photogrammetrierte Objekt mit verschiedenen Modelling Tools weiterbearbeitet werden, ist es wünschenswert, dass die Mesh-Struktur sauber ist. Hier hilft eine Retopologisierung mit z.B. Instant Meshes, um aus den erzeugten Dreiecken wieder sauberer Quads zu machen.

Interesse diese Workflows im Detail kennenzulernen?

Buchen Sie ihren Platz im Seminar „Einführung in die Erstellung von 3D Assets mittels Photogrammetrie“.

Ich freue mich auf Ihren Besuch!

Comments are closed.

Kategorien

Archiv