Leder-Look aus der Trockenhaube  

erstellt am
13. 07. 04

Bonn (alphagalileo) - Sie sieht aus wie eine Trockenhaube, enthält 151 digitale Fotoapparate, schießt damit in einer knappen Stunde über 22.000 Aufnahmen und soll so die Visualisierung per Computergrafik revolutionieren: Die High-Tech-Kamera, mit der Informatiker an der Universität Bonn künftig die Reflexionseigenschaften unterschiedlichster Materialien aufzeichnen wollen.

Ein Vorgängermodell liefert bereits jetzt Daten, mit denen sich Oberflächentexturen weit detaillierter und naturgetreuer simulieren lassen als bisher. Vor allem die Automobilindustrie zeigt sich interessiert: Sie hofft, auf den Bau teurer Prototypen von Armaturen oder Sitzen künftig mehr und mehr verzichten zu können.

Um einem Computer beizubringen, wie Leder aussieht, muss sich ein Roboterarm lange verrenken. Genau genommen 14 Stunden: So lange dauert es im Labor an der Römerstraße 164, bis die 14-Megapixel-Digitalkamera exakt 6.561 Fotos von einer Materialprobe geschossen hat. 6.561 Fotos, für die der Metallarm die Probe immer ein wenig anders hält, während die Kamera auf Schienen in einem Halbkreis um sie herumfährt. Nur die Lampe, die den Set in ein weißes Licht taucht, rührt sich in diesen 14 Stunden nicht vom Fleck. „Auf diese Weise können wir die Reflexionseigenschaften eines Materials in Abhängigkeit vom Beleuchtungs- und Blickwinkel äußerst detailliert erfassen“, erklärt Professor Dr. Reinhard Klein, Leiter der Arbeitsgruppe „Computer Graphik“ am Bonner Institut für Informatik III. Schon bald soll das noch genauer gehen: Mit einer Batterie von 151 Digitalkameras, die halbkugelförmig um die Probe angeordnet sind, wollen die Forscher künftig pro Material mehr als 22.000 Bilder schießen. Für den unterschiedlichen Lichteinfall soll dabei eine geschickte Ansteuerung der Kamerablitzgeräte sorgen. Auf bewegliche Teile können die Informatiker so vollständig verzichten – pro Material brauchen sie dann nur noch eine Stunde.

Das Projekt heißt „Real Reflect“, der Effekt, den die beteiligten Forscher aus ganz Europa damit erreichen wollen, „Look & Feel“ – sehen und fühlen: „Wenn Sie diesen Schreibtisch sehen, wissen Sie nicht nur sofort: Das ist Holz. Sie ahnen sogar, wie er sich unter Ihren Fingerspitzen anfühlt“, so Professor Klein und fügt mit Nachdruck hinzu: „Da wollen wir hin.“ Er fährt mit der Maus hin und her, öffnet ein paar Ordner, klickt auf ein Bild und sagt: „So sah es bis jetzt aus.“ Auf dem Bildschirm materialisiert sich der Innenraum eines Mercedes, Armaturen aus poliertem Holz, Sitze augenscheinlich aus Leder. „Schon nicht schlecht, oder? Aber nun warten Sie mal.“ Die Maus fährt auf das Bild, kaum merklich ändern sich die Reflexe, auf dem nun matt schimmernden Leder wird eine unregelmäßige genoppte Struktur sichtbar; es sieht plötzlich, na ja: irgendwie teuer aus. „Das so hinzubekommen, ist die hohe Kunst; daran arbeiten wir.“

„Wir“ – das sind neben den Bonnern und weiteren Virtual-Reality-Experten wie denen vom Max-Planck-Institut für Informatik in Saarbrücken auch Industriepartner wie DaimlerChrysler oder der französische Automobil-Zulieferer Faurecia Industries, ein Konzern mit mehr als 60.000 Mitarbeitern. Sie alle beflügelt die Aussicht auf ein System, das den teuren Bau von Prototypen – allein die Entwicklung eines Autositzes verschlingt bis zu 100.000 Euro – zumindest zum Teil überflüssig machen könnte. Die Grundidee, wie man computergenerierte Welten ein Stück realistischer machen kann, stammt dabei aus einem ganz anderen Projekt: dem „Virtual Try-On“, bei dem Kleins Arbeitsgruppe unter anderem an einer virtuellen Umkleidekabine arbeitete. „Damals kamen wir erstmalig auf die Idee, das Reflexionsverhalten von Textilien tatsächlich im Labor zu vermessen“, erinnert sich der Wissenschaftler.

Zusätzlich zu den Bilddaten merkt sich der Rechner den jeweiligen Blickwinkel der Kamera sowie den Einfallswinkel des Lichts. Die Software wird dann beispielsweise mit den Konstruktionsdaten eines Sitzes gefüttert und „näht“ aus den jeweils passenden Lederflicken den kompletten virtuellen Sitz zusammen. Das ist gar nicht so einfach: Für den Betrachter soll das Ergebnis schließlich nicht nach Patchwork aussehen, sondern wie aus einem Guss wirken. In der Realität gibt es zudem meist mehrere Lichtquellen, so dass die Software verschiedene „Flicken“ miteinander mischen muss. „Und dann will man sich sein Werk noch möglichst in Echtzeit aus allen Blickwinkeln ansehen“, ergänzt Professor Klein.

Wie gut ihre Methode der Praxis standhält, untersuchen die Forscher momentan mit einem weltweit einmaligen Experiment: „Einer meiner Diplomanden unternimmt gerade bei DaimlerChrysler verschiedene Testfahrten, misst dabei das Umgebungslicht und filmt gleichzeitig den Innenraum“, so Klein. „Wir wollen dann die Fahrten am Rechner virtuell nachstellen und unsere Bilder mit den reellen Videoaufnahmen vergleichen, um zu sehen, wo es noch hakt.“
     
zurück