Zephyr, MetaShape, Reality Capture: Zeit- und Qualitätsvergleich

Das Internet ist voll von Modellen, die mit unterschiedlichen kostenpflichtigen Programmen erstellt wurden, aber oftmals fehlt es an Vergleichstests, die auf demselben Fotosatz basieren und die Endergebnisse nebeneinander zu zeigen, um damit den Vergleich zu erleichtern.

  • Vielleicht ergibt eines der Programme ein besseres Mesh?
  • Vielleicht ist es möglich, mit dem anderen eine bessere Textur zu erhalten?
  • Wie sieht es mit den Berechnungszeiten aus?

Wir haben uns damit beschäftigt und haben schönen Beitrag gefunden der RealityCapture, Metashape und 3DF Zephyr miteinander vergleicht.

In diesem Artikel sind die Ergebnisse eines Vergleichstests zwischen den 3 beliebtesten kostenpflichtigen Photogrammetrie-Lösungen, zu sehen. Es ist immer gut, die Stärken und Schwächen zu kennen, bevor man ein Produkt kauft.

Die genutzten Parameter – Vergleich

Vergleichsparameter

Der Vergleich ist gedacht für Menschen die noch am Anfang ihres Photogammetrie Abenteuers befinden. Leute die sich für den Kauf eines dieser Programme 3DF Zephyr, MetaShape oder RealityCapture klarer in der Entscheidung sein möchten. Die Fotosätze, die normalerweise verwendet werden, stammen von Handys, Familienausflugskameras, Drohnenvideos, die an sonnigen oder regnerischen Tagen aufgenommen wurden, und das war’s – man waren einmal dort und es ist nicht möglich, zurückzugehen um bessere Bilder zu machen.

In den weiteren Teilen dieses Artikels werdet ihr zwei Tests sehen; einen mit einem Bildersatz in professioneller Qualität von einem Schädel, der mit einer Nikon D610+Tamron 28-75 aufgenommen wurde.

Und in dem zweiten Test, wurden Fotos bearbeitet, die von einem YouTube Video extrahiert wurden, schlechte Qualität der Videoaufnahme + YouTube-Komprimierung + als jpg gespeicherte Fotos (zusätzliche Kompressionsartefakte).

Was getestet wurde

Grundsätzlich, werden die Programme 3DFlow Zephyr Lite, Agisoft MetaShape Standard und RealityCapture mit denselben Fotosätzen arbeiten, die auf drei verschiedene Arten vorbereitet wurden, und wie sich diese Fotovorbereitung auf die Bearbeitungszeiten, die Qualität und die endgültige Textur auswirkt.

Ok, was wird man über ein paar Modelle und Fotos hinaus zu sehen bekommen? Wie bereits erwähnt wurde, eine sehr wichtige Sache – die Bearbeitungszeiten (für Test 2). Diese Zeiten ergeben sich aus den gleichen oder ähnlichen Schritten (für jedes Programm), die durchlaufen werden müssen, um aus 2D-Bildern 3D-texturierte Objekte zu erhalten. Man wird sicher das Verhältnis der Bearbeitungszeiten zwischen diesen drei Programmen sehen, und das sollte mehr oder weniger eine Vorstellung davon geben, was erwartet werden kann, wenn es um Zeit und Qualität geht.

Hier die Spezifikationen der Workstation mit der hier im Vergleich gearbeitet wurde – ohne Übertaktung.

PC-Konfiguration
Betriebssystem: Windows 10
CPU: Amd Threadripper 1950x (32 Kerne)
GPU: GTX 1080ti
RAM: 64GB 2400mHz

Wie funktionieren Maskierung und schnelle Bildbearbeitung im Vergleich

Über das Objekt und die Aufnahmesitzung

Das Testobjekt war ein Schädel aus Epoxidharz von guter Qualität. Im Vergleich zu echten Schädeln war etwa 6/10 Genauigkeit – viele nette Details, aber weit davon entfernt, eine anatomisch glaubwürdige Kopie zu sein. Die Fotos wurden schnell gemacht.

Ein farbiger Stuhl war die”grüne Leinwand” damit Maskierungen leichter sein würden. Die Kamera stand auf einem Stativ und über eine Fernbedienung wurde der Auslöser gedrückt.

Blende: 11
Belichtungszeit: 1s
ISO: 100

Anzahl der Fotos:
Ganzer Kopf 71
Unterteil 46
Kieferknochen 26

Photogammetrie

Nach einer den grundlegenden Aufnahmesituationen, die mit drei verschiedenen Kamerahöhen, wurden die Kieferknochen entfernt, um damit den unteren Teil des Schädels und den Kieferknochen aus verschiedenen Winkeln zu fotografieren.

Damit man Teile erfassen konnte, die bei der normalen Aufnahmesitzung nicht sichtbar gewesen wären. Für die spätere Farbkorrektur wurde X-Rite Passport verwendet – ein nützliches Werkzeug, um das Umgebungslicht anzupassen.

Methode

Ziel dieser Tests war es, zu prüfen, wie jede dieser drei Softwares (mit den Standardeinstellungen “Mittel” und “Hoch”) dasselbe Fotoset verarbeiten würden, wobei die Hintergrundinformationen vollständig entfernt wurden. Zunächst wurden mit einer Raw Software, Farben korrigiert und die Schatten aus den RAW-Bildern entfernt. Die Fotos wurden als PNG-Dateien gespeichert, und mit einem Bildbearbeitungs Programm wurde anschließend alles Unwesentliche, wie zum Beispiel, der Hintergrund entfernt.

Die Fotos hat man dann im Stapel als PNG-Dateien, mit einem zusätzlichen Alphakanal gespeichert.

Konfiguration der Photogrammetrie-Softwares

Mittlere/hohe Verarbeitung, bedeutet:
Alle Schritte sind auf demselben Niveau, z. B. mittel:

  • Fotoausrichtung – mittel
  • Dichte Punktwolkenberechnung – mittel
  • Meshextraktion – mittel, ohne Textur Extraktionen.

Weiterverarbeitung:

Alle Modelle wurden in ZBrush zu einer Mesh-Szene verbunden und von 12.000k Punkten auf 1.299k Punkte dezimiert, um das Limit für den kostenlosen Datei-Upload von Sketchfab von 50MB zu erreichen. Diese Anpassung war notwendig, um die Dateigrößenbeschränkung des kostenlosen Sketchfab-Kontos, auf dem die Beispiele zur Verfügung gestellt werden, einzuhalten.

ZBrush hat die Option, ein Mesh mit ungleichmäßig großen Dreiecken zu dezimieren, was dazu beiträgt, die Polycount an Stellen zu reduzieren, an denen ohnehin Informationen fehlen (z. B. flache Oberfläche) und die maximale Detailgenauigkeit zu erhalten.

Ergebnisse im Vergleich

Zunächst wurde festgestellt, dass alle Programme in der Lage waren, ein einziges Netz aus drei Datensätzen (ganzer Schädel, unterer Teil des Schädels und Kieferknochen) zu erstellen. Alle Fotos wurden in allen drei Programmen beim ersten Versuch sauber ausgerichtet.

Das zweite erwähnenswerte Merkmal ist die Qualität des Netzes. Bitte entscheidet selbst, welches Modell am besten aussieht, unter Beachtung folgender Mesh-Teile:

  • Kieferknochen – insbesondere der obere Teil, wo er mit dem Schädel verbunden ist
  • Zahnlinie – bedenken Sie, dass das Originalmodell einen geschlossenen Kiefer hat, aber der Kiefer eine separate Sitzung erhielt, um einige Zahninformationen zu erhalten – theoretisch sollte es eine Lücke zwischen den oberen und unteren Zähnen geben.
  • Oberer Teil des vorderen Schädels – offenbar war der Fotosatz nicht perfekt und es wurden nicht genügend Fotodaten für die Stirn geliefert.
  • Qualität der Schädelnaht: Tiefe und Qualität

Bearbeitung mit einem großen Objekt

Zielsetzung:

Eigentlich sollte es eine schnelle Modellextraktion sein, daraus wurde ein unfreiwillig langer Test. Die ursprüngliche Idee war es, zu prüfen, welches Programm in der Lage wäre, ein Modell aus einer improvisierten Videoaufnahme zu extrahieren, als Beweis für eine Situation wie “Hey, ich habe eine Drohnenaufnahme von X, kannst du ein Modell daraus extrahieren?” Die Qualität war zufällig, die Aufnahmen sind nicht perfekt, das Quellmaterial war eine Drohne.

Methode:

Der extrahierte endgültige Fotosatz von 405 Fotos wurde zweimal kopiert, um einen Ordner mit maskierten Fotos (unwichtige Teile wurden maskiert und durch reine weiße Farbe ersetzt) und einen “ausgeschnittenen” Satz zu erstellen, anstelle von weißen Masken Bildinformationen durch Löschen entfernt und der leere Raum als Alphakanal belassen wurde. Die endgültige Anzahl der Fotos dieser beiden Sets wurde noch weiter reduziert, nachdem bei der manuellen Maskierung eine strengere Prüfung vorgenommen wurde – für diese beiden Sets betrug die endgültige Anzahl der Fotos 358 .

Die Vorgehensweise bei der Photogrammetrie war identisch mit “Test 1”, mit einem zusätzlichen Schritt der Texturextraktion. Alle Texturen wurden vorsichtshalber als 8k-Karten extrahiert und als png-Dateien gespeichert. Allerdings um eine zufällige Beanspruchung der CPU während der Bild- und Modellverarbeitung zu vermeiden, wurden Teile der Bearbeitung virtuell ausgelagert.

Nach der Erstellung des Netzes wurden alle Modelle zur Bereinigung in ZBrush übertragen – schwebende Teile (Fehler) wurden entfernt und überflüssige Teile der Umgebung des Schlosses (wie die Stadt, die Straßen, den Parkplatz, usw.). Der Dezimierungsprozess zielte darauf ab, so viele Details wie möglich zu erhalten und die Dateigrößenbeschränkung des kostenlosen Sketchfab-Kontos einzuhalten. Es ist wichtig, das Optionsfeld “UV beibehalten” (Bild) zu deaktivieren – wenn man die UV beibehaltet, besteht eine hohe Wahrscheinlichkeit für sichtbare Texturfehler.

Über Objekt und Aufnahmesitzung:

Das Ausgangsmaterial bestand aus einer Reihe von über 600 Fotos. Alle diese Fotos wurden aus jedem 10. Bild eines mit einer DJI Phantom 3 Pro Drohne aufgenommenen Films mit 30 Bildern pro Sekunde (also 3 Fotos pro 1 Sekunde) extrahiert und als Video in 4k-Qualität auf YouTube hochgeladen.

Die endgültige Bearbeitungszahl wurde auf 405 reduziert, indem Fotos ohne sichtbare Teile von Dover Castle, unscharfe Bilder oder beides entfernt wurden.

Alle Modelle wurden zur quick and dirty Erstellung von UV-Karten an RealityCapture gesendet und mit den ursprünglich fotogrammetrisch extrahierten Meshes zur Texturkartenextraktion in xNormal verschoben. xNormal projiziert die Texturkarteninformationen aus dem ursprünglich extrahierten Mesh auf das neue dezimierte UV-gemappte Mesh. Alle Modelle hatten ihr eigenes Käfig Modell, um die Textur vor Projektionsfehlern zu schützen.

Schließlich wurden die dezimierten Objekt exturiert, um sie mit anderen zu kombinieren, um eine endgültige Vergleichsdatei hochzuladen. Alle Modelle wurden manuell mit dem hochpolig texturierten Rohmesh verglichen. Die neuen Texturen wurden als 2K-Qualität exportiert- ein Mangel an Farbinformationen machte dies möglich.

Die Vergleichsergebnisse

Agisoft Metashape hatte anfangs Probleme mit der Fotoausrichtung – sowohl bei mittlerer als auch bei hoher Ausrichtungseinstellung. Die Lösung, um alle Fotos auszurichten, bestand darin, zuerst das mittlere Ausrichtungsprofil und dann das hohe Profil zu verwenden, ohne die Ausrichtungsergebnisse des mittleren Profils zurückzusetzen. Dadurch hatte man einen zu 100 % ausgerichteten Bildsatz und die Verarbeitungszeit war kürzer als beim Profil “hoch” selbst!

 

Einige Meshes sehen besser aus als andere, genau wie Texturen – man muss schon genauer hinsehen, um jede Software zu vergleichen. 

Prozess MetaShape Zephyr Lite RealityCapture
Normal
Dichte Punktwolke 4h 16m 38s / 15h 51m 20s 40m 38s / 2h 37m 33s 2m 38s
Mesh 56s / 3m 7s 20m 36s / 30m 11s 10m 19s / 1h 16m 33s
Texturierung 9m 10s / 12m 35s 2m 58s / 3m 38s 7m 27s / 7m 31s
Maskiert
Dichte Punktwolke 1h 41m 30s / 5h 27m 10s 31m 16s / 52m 50s 4m 24s
Mesh 26s / 1m 46s 22m 11s / 32m 41s 7m 12s / 43m 14s
Texturierung 6m 15s / 10m 20s 1m 54s / 2m 40s 4m 38s / 6m 35s
Geschnitten
Dichte Punktwolke 1h 6m 24s / 2h 41m 54s 35m / 58m 04s 3m 52s
Mesh 35s / 2m 11s 37m 39s / 49m 38s 6m 55s / 43m 56s
Texturierung 6m 35s / 11m 28s 5m 53s / 6m 28s 4m 58s / 7m 55s

Schlussfolgerung

Das Entfernen zusätzlicher, aber nicht notwendiger Informationen durch Maskieren und Ausschneiden als Alphakanal hilft, alle Schritte der Netzerstellung zu beschleunigen. Diese Technik funktioniert besonders gut in MetaShape; man konnte die Zeiten um ein Drittel reduzieren (normal gesetzt gegenüber maskiert) und sogar nochmehr mit dem Alphakanal – 6x normal gesetzt gegenüber ausgeschnitten. Dadurch kann MetaShape zeitlich näher an die Konkurrenz heranrücken, bleibt aber langsamer als die anderen.

Zephyr scheint wirklich große Probleme mit minderwertigen Assets zu haben – aber es, und nur es, war in der Lage, den Schornstein in der Mitte des Schlossdaches nachzubilden.

Reality Capture lieferte wieder ein schönes Mesh mit einer guten Textur, aber mit einer großen Menge an Rauschen, das nachbearbeitet oder zumindest geglättet werden muss.

Metashape lieferte angenehme Ergebnisse und ein schönes Mesh und eine schöne Textur aus ausgeschnittenen (Alpha-)Fotos. Die Bearbeitungszeiten kommen denen von Zephyr sehr nahe, so dass es eine gute Option für diejenigen ist, die bereit sind, zusätzliche Zeit für die Vorbereitung und das Entfernen nicht wesentlicher Informationen aus Fotos aufzuwenden.

3Dflow

3Df Zephyr 7.5 -
Photogrammetrie Software von 3Dflow

3D-Modelle, Orthofotos, digitale Gelände- und Oberflächenmodelle (DTM, DSM)
unterstütze alle Kameratypen, Drohnen und Laserscanner
Ideal für: Profis und fortgeschrittene Anwender, die detaillierte 3D-Modelle aus umfangreichen Datensätzen erstellen
Windows
BIS ZU 4% RABATT
€283,00
€297,50
Agisoft

Metashape Professional -
Photogrammetrie Software von Agisoft

Punktwolken- und Orthomosaik-Erstellung
Unterstützung großer Datensätze und komplexer Projekte
Ideal für: Professionelle Anwender, die umfangreiche und detaillierte Vermessungen und Kartierungen durchführen
Windows
macOS
Linux
BIS ZU 13% RABATT
€3.347,00
€3.891,41
Epic Games

RealityCapture Enterprise -
Photogrammetrie Software mit Laserscans

Hohe Verarbeitungsgeschwindigkeit
Präzise Erstellung von 3D-Modellen aus Bild- und Laserscandaten
Ideal für: Projekte, die schnelle Verarbeitung und höchste Genauigkeit erfordern
Windows
BIS ZU 4% RABATT
€1.321,00
€1.390,19