Mit Algorithmen der TU Wien entstehen aus ganz gewöhnlichen Fotos hochauflösende
saubere 3D-Welten.
Wien (tu) - Unsere Welt dreidimensional am Computer darzustellen ist heute nichts Ungewöhnliches mehr.
Mit 3D-Scannern kann man Gesichter, Gebäude oder ganze Landschaften abtasten und aus den Daten ein 3D-Modell
generieren. Allerdings ist das meist sehr aufwändig. In dem von der TU Wien geleiteten Forschungsprojekt „Harvest4D“
(geleitet von Prof. Michael Wimmer vom Institut für Computergraphik und Algorithmen der TU Wien) werden daher
Algorithmen entwickelt, mit denen man aus bestehenden Bilddaten, die gar nicht unbedingt für diesen Zweck
gesammelt wurden, diese dreidimensionale Welten viel einfacher erstellen kann. Sogar ihre zeitliche Entwicklung
lässt sich so am Computer studieren. Solche Softwarelösungen lassen sich in ganz unterschiedlichen Bereichen
einsetzen – von der Archäologie bis zur Hochwasserforschung.
3D-Welten berechnen, aus 2D-Fotos
„Bisher erstellte man 3D-Abbilder der Wirklichkeit meist auf recht komplizierte Weise, zum Beispiel mit Laser-Scannern“,
erklärt Michael Wimmer. „Fachleute müssen eine Scan-Kampagne sorgfältig planen, hochauflösende
Bilder machen und die Daten am Ende noch mühsam nachbearbeiten.“ Nur so kann man aus einer dreidimensionalen
Punktwolke schöne, glatte Flächen und klare Formen erzeugen.
„Uns schwebt in diesem Bereich ein radikaler Paradigmenwechsel vor“, sagt Michael Wimmer. „Uns steht heute so umfangreiches
Datenmaterial zur Verfügung wie noch nie zuvor – mit den passenden Algorithmen kann man diese Bilddaten nutzen.“
Geräte, die hochqualitative Bilder aufnehmen können, werden immer alltäglicher. Schon heute hat
fast jeder ein Fotohandy mit dabei. Quadcopter mit Webcam waren vor einigen Jahren noch teures High-Tech-Equipment,
heute sind sie eine erschwingliche Spielerei.
Aus großen Sammlungen von Bilddaten lassen sich mit den passenden Rechenmethoden dreidimensionale Welten
generieren. „Am Computer werden die Bilder dann nicht einfach nur zusammengestückelt, sondern wir errechnen
aus ihnen ein vollständiges 3D-Modell“, sagt Reinhold Preiner, Projektmitarbeiter. Man kann sich also am Bildschirm
frei um ein Objekt herumbewegen und kann es aus beliebigen Blickwinkeln ansehen – auch aus solchen, die auf den
Bildern gar nicht vorkamen. Ausgrabungen können virtuell studiert und analysiert werden, man kann sie sogar
für den User zuhause virtuell in hoher Qualität zugänglich machen.
Fehlertolerante Bildanalyse
Um das zu erreichen muss man Programme entwickeln, die Fehler tolerieren - denn die Daten sind nie perfekt. Bilder
sind manchmal unscharf, sie zeigen Objekte bei sehr unterschiedlichen Lichtverhältnissen, und Scans können
Artefakte enthalten, die die Rekonstruktion stören. Trotzdem gelingt es mit den Rechenmethoden, die nun im
Forschungsprojekt „Harvest4D“ entwickelt wurden, solche Bilddaten automatisiert aufzubereiten. So wurden etwa archäologische
Ausgrabungen dreidimensional visualisiert – die Ausgangsdaten waren ganz gewöhnliche Fotos, zusätzlich
wurde in diesem Fall die grobe Struktur mit einem Laserscan gemessen. Die Detailtiefe der Visualisierung muss nicht
überall gleich sein: Bei gewöhnlichem Mauerwerk genügt eine eher grobe Darstellung, wertvolle Fresken
an der Wand möchte man sich aber vielleicht genauer ansehen. Hochauflösende Bilder der Fresken können
daher zusätzlich in das 3D-Modell eingebaut werden.
Wenn man die Daten nicht für wissenschaftliche Zwecke braucht, dann muss man nicht unbedingt die maximale
Detailtiefe nutzen. Gibt man sich mit etwas weniger Genauigkeit zufrieden, dann können auch Endgeräte
wie Laptops oder Smartphones die 3D-Modelle flüssig darstellen. Am Computergraphik-Institut an der TU Wien
wurde eigens dafür der „potree viewer“ entwickelt. Er verwendet spezielle Techniken zu Darstellung großer
Punktewolken, die nicht in den Speicher leistungsschwacher Endgeräte passen.
Veränderungen in 4D
Wenn man weiß, zu welchem Zeitpunkt die Bilder aufgenommen wurden, kann man den drei Raumdimensionen noch
eine zeitliche Dimension hinzufügen und untersuchen, wie sich die beobachtete 3D-Welt verändert. Auch
das ist für den Computer eine schwierige Aufgabe: Haben sich die abgebildeten Objekte tatsächlich verändert,
oder sehen die Bilder nur unterschiedlich aus, weil sie bei unterschiedlichen Lichtverhältnissen, aus unterschiedlichen
Winkeln oder mit unterschiedlichen Geräten aufgenommen wurden? Menschen fällt es normalerweise recht
leicht, solche Fragen zu beantworten – diese Fähigkeit einem Computer beizubringen, ist eine große Herausforderung.
Solche Algorithmen können sogar für die Hochwasserforschung interessant sein. „Anwendungsmöglichkeiten
für unsere Algorithmen gibt es praktisch überall – und ständig kommen neue dazu“, sagt Stefan Ohrhallinger,
Projektmitarbeiter.
Das FP7 EU Forschungsprojekt „Harvest4D“ ist ein Konsortium aus den folgenden europäischen wissenschaftlichen
Partnern:
- TU Wien, Austria - Institute of Computer Graphics and Algorithms - Scientific
Leader: Michael Wimmer
- University of Bonn , Germany - Computer Graphics Group - Scientific Leader: Reinhard
Klein
- Technical University Darmstadt – Darmstadt, Germany - Interactive Graphics Systems
Group, Scientific Leader: Michael Goesele – Visual Inference Group, Scientific Leader: Stefan Roth
- Telecom ParisTech – Paris, France - Computer Graphics Group - Scientific Leader:
Tamy Boubekeur
- Istituto Scienza e Tecnologie dell'Informazione (ISTI) -Consiglio Nazionale delle
Ricerche – Pisa, Italy - Visual Computing Lab - Scientific Leader: Roberto Scopigno
- Technical University Delft - Computer Graphics and Visualization Group - Scientific
Leader: Elmar Eisemann
|