Bonn (alphagalileo) - Sie sieht aus wie eine Trockenhaube, enthält 151 digitale Fotoapparate, schießt
damit in einer knappen Stunde über 22.000 Aufnahmen und soll so die Visualisierung per Computergrafik revolutionieren:
Die High-Tech-Kamera, mit der Informatiker an der Universität Bonn künftig die Reflexionseigenschaften
unterschiedlichster Materialien aufzeichnen wollen.
Ein Vorgängermodell liefert bereits jetzt Daten, mit denen sich Oberflächentexturen weit detaillierter
und naturgetreuer simulieren lassen als bisher. Vor allem die Automobilindustrie zeigt sich interessiert: Sie hofft,
auf den Bau teurer Prototypen von Armaturen oder Sitzen künftig mehr und mehr verzichten zu können.
Um einem Computer beizubringen, wie Leder aussieht, muss sich ein Roboterarm lange verrenken. Genau genommen 14
Stunden: So lange dauert es im Labor an der Römerstraße 164, bis die 14-Megapixel-Digitalkamera exakt
6.561 Fotos von einer Materialprobe geschossen hat. 6.561 Fotos, für die der Metallarm die Probe immer ein
wenig anders hält, während die Kamera auf Schienen in einem Halbkreis um sie herumfährt. Nur die
Lampe, die den Set in ein weißes Licht taucht, rührt sich in diesen 14 Stunden nicht vom Fleck. „Auf
diese Weise können wir die Reflexionseigenschaften eines Materials in Abhängigkeit vom Beleuchtungs-
und Blickwinkel äußerst detailliert erfassen“, erklärt Professor Dr. Reinhard Klein, Leiter der
Arbeitsgruppe „Computer Graphik“ am Bonner Institut für Informatik III. Schon bald soll das noch genauer gehen:
Mit einer Batterie von 151 Digitalkameras, die halbkugelförmig um die Probe angeordnet sind, wollen die Forscher
künftig pro Material mehr als 22.000 Bilder schießen. Für den unterschiedlichen Lichteinfall soll
dabei eine geschickte Ansteuerung der Kamerablitzgeräte sorgen. Auf bewegliche Teile können die Informatiker
so vollständig verzichten – pro Material brauchen sie dann nur noch eine Stunde.
Das Projekt heißt „Real Reflect“, der Effekt, den die beteiligten Forscher aus ganz Europa damit erreichen
wollen, „Look & Feel“ – sehen und fühlen: „Wenn Sie diesen Schreibtisch sehen, wissen Sie nicht nur sofort:
Das ist Holz. Sie ahnen sogar, wie er sich unter Ihren Fingerspitzen anfühlt“, so Professor Klein und fügt
mit Nachdruck hinzu: „Da wollen wir hin.“ Er fährt mit der Maus hin und her, öffnet ein paar Ordner,
klickt auf ein Bild und sagt: „So sah es bis jetzt aus.“ Auf dem Bildschirm materialisiert sich der Innenraum eines
Mercedes, Armaturen aus poliertem Holz, Sitze augenscheinlich aus Leder. „Schon nicht schlecht, oder? Aber nun
warten Sie mal.“ Die Maus fährt auf das Bild, kaum merklich ändern sich die Reflexe, auf dem nun matt
schimmernden Leder wird eine unregelmäßige genoppte Struktur sichtbar; es sieht plötzlich, na ja:
irgendwie teuer aus. „Das so hinzubekommen, ist die hohe Kunst; daran arbeiten wir.“
„Wir“ – das sind neben den Bonnern und weiteren Virtual-Reality-Experten wie denen vom Max-Planck-Institut für
Informatik in Saarbrücken auch Industriepartner wie DaimlerChrysler oder der französische Automobil-Zulieferer
Faurecia Industries, ein Konzern mit mehr als 60.000 Mitarbeitern. Sie alle beflügelt die Aussicht auf ein
System, das den teuren Bau von Prototypen – allein die Entwicklung eines Autositzes verschlingt bis zu 100.000
Euro – zumindest zum Teil überflüssig machen könnte. Die Grundidee, wie man computergenerierte Welten
ein Stück realistischer machen kann, stammt dabei aus einem ganz anderen Projekt: dem „Virtual Try-On“, bei
dem Kleins Arbeitsgruppe unter anderem an einer virtuellen Umkleidekabine arbeitete. „Damals kamen wir erstmalig
auf die Idee, das Reflexionsverhalten von Textilien tatsächlich im Labor zu vermessen“, erinnert sich der
Wissenschaftler.
Zusätzlich zu den Bilddaten merkt sich der Rechner den jeweiligen Blickwinkel der Kamera sowie den Einfallswinkel
des Lichts. Die Software wird dann beispielsweise mit den Konstruktionsdaten eines Sitzes gefüttert und „näht“
aus den jeweils passenden Lederflicken den kompletten virtuellen Sitz zusammen. Das ist gar nicht so einfach: Für
den Betrachter soll das Ergebnis schließlich nicht nach Patchwork aussehen, sondern wie aus einem Guss wirken.
In der Realität gibt es zudem meist mehrere Lichtquellen, so dass die Software verschiedene „Flicken“ miteinander
mischen muss. „Und dann will man sich sein Werk noch möglichst in Echtzeit aus allen Blickwinkeln ansehen“,
ergänzt Professor Klein.
Wie gut ihre Methode der Praxis standhält, untersuchen die Forscher momentan mit einem weltweit einmaligen
Experiment: „Einer meiner Diplomanden unternimmt gerade bei DaimlerChrysler verschiedene Testfahrten, misst dabei
das Umgebungslicht und filmt gleichzeitig den Innenraum“, so Klein. „Wir wollen dann die Fahrten am Rechner virtuell
nachstellen und unsere Bilder mit den reellen Videoaufnahmen vergleichen, um zu sehen, wo es noch hakt.“ |