Physiker stellen Ortungssystem im Miniformat auf der CeBIT vor
Bonn (uni) - Wissenschaftler aus ganz Deutschland basteln im Moment an einer Theaterbühne mit
echten und virtuellen Objekten, auf der Bühnenbildner, Lichttechniker und Regisseure ihre Einfälle ohne
großen Aufwand testen können. Physiker der Universität Bonn haben dazu ein kleines und kostengünstiges
Ortungssystem entwickelt, mit dem sich Position und Bewegungen der Akteure millimetergenau registrieren lassen.
Die "Mixed Reality Stage" ist vom 12. bis 19. März auf der CeBIT in Hannover, Gemeinschaftsstand
der Fraunhofer-Gesellschaft, Halle 11, Stand A24, zu sehen.
Seit fast anderthalb Jahren verzaubert das Musical "Der König der Löwen" in Hamburg die Zuschauer.
Ein Grund für den Erfolg: Die ausgefeilte Choreographie von Licht, Musik, Tanz, Kostümen und Bühnenbildern,
die die Besucher in ihren Bann zieht. Dahinter stecken viele Monate Planung - eine Aufwand, der sich nach Vorstellung
der Projektpartner mit ihrer "Mixed Reality Stage" deutlich verringern ließe. Kern des Projekts
"mqube" ist ein realer Bühnennachbau im Maßstab 1:4. Mehrere Benutzer können zur selben
Zeit mit dieser Bühne arbeiten, Aufbauten hinzufügen oder entfernen, hier einen Spot setzen und dort
das Licht dimmen oder gar virtuelle Schauspieler auftreten lassen. Dazu blendet ein Rechner die von der Software
generierten Bilder in halbdurchlässige Brillen ein, durch die die Nutzer die Modellbühne betrachten.
Einfach zu handhaben ist die "Mixed Reality Stage" vor allem durch die so genannten Stellvertreterobjekte:
Kaffetassen, Aschenbecher oder Kugelschreiber können auf der Bühne Schauspieler oder Raumelemente symbolisieren.
Der Computer projiziert einfach das entsprechende virtuelle Bild über das reelle Objekt. Bühnenbild oder
Handlungsabläufe lassen sich auf diese Weise einfach und intuitiv durch Verschieben der entsprechenden Stellvertreter
verändern. Der Mix aus Realität und Fiktion macht die Technik aber auch so schwierig: Damit das virtuelle
Bild auch wirklich für jeden Betrachter über seinem realen Stellvertreter liegt, muss die Software zu
jeder Zeit sowohl die Position der Stellvertreterobjekte als auch die der Benutzer kennen. Daraus und aus der Blickrichtung
des jeweiligen Betrachters kann das System dann die perspektivisch korrekte Einblendung für die Projektionsbrillen
berechnen.
Dr. Hans Krüger, Lasse Klingbeil, Edgar Kraft und Rene Hamburger vom Physikalischen Institut der Universität
Bonn haben mit BlueTrak ein kleines und einfach zu handhabendes System entwickelt, das bis zu vierzig mal in der
Sekunde die Position und Blickrichtung sämtlicher Akteure bestimmt - und das auf wenige Millimeter genau.
Das Messprinzip ähnelt dem des Global Positioning Systems (GPS), das beispielsweise das Navigationssystem
im Auto mit Ortsangaben versorgt. "Wir befestigen irgendwo im Raum drei Referenz-Sender, die alle 25 Millisekunden
einen Ultraschall-Ton und gleichzeitig einen Infrarot-Lichtpuls aussenden", erklärt Dr. Krüger.
"Jeder Akteur trägt an seiner Brille einen Empfänger, der registriert, wann Schall und Licht bei
ihm ankommen. Schall breitet sich deutlich langsamer aus als Licht; aus der Zeitdifferenz kann der Computer daher
den Abstand zum entsprechenden Referenz-Sender berechnen." Die Abstände zu den drei Sendern ergeben die
Position des Empfängers. "Wenn wir auf dem linken und dem rechten Brillenbügel ein Ultraschall-Mikro
befestigen, erhalten wir sogar zwei Positionsangaben, aus denen wir die Drehrichtung des Kopfes bestimmen können",
ergänzt Lasse Klingbeil.
Die Bonner Sender und Empfänger nehmen kaum mehr Raum ein als zwei Tesafilmrollen; bisherige Ortsmesssysteme
sind erheblich größer und teuerer. "Außerdem eignet sich unser Heim-GPS prinzipiell für
beliebige Benutzerzahlen", erklärt Dr. Krüger; "nur wenn der Raum zu groß wird, in dem
sich die Benutzer bewegen dürfen, müssen wir mit weiteren stationären Sendern arbeiten." Die
würfelförmigen Empfangs-Einheiten, die zusätzlich mit Orientierungs-Sensoren ausgestattet sind,
geben ihre Messergebnisse auf dem Funkweg an den Zentralrechner weiter. "Wir nutzen dazu die gängige
Bluetooth-Technologie, orientieren uns also explizit an Consumer-Standards." Inzwischen haben die Erfinder
BlueTrak auch zum Patent angemeldet.
Konsortialführer von Verbundprojekts mqube ist das Fraunhofer-Institut für Angewandte Informationstechnik
in St. Augustin; das Bundesministerium für Bildung und Forschung stellt die finanziellen Mittel. Die Bonner
Physiker sehen die virtuelle Bühne nur als erste Testanwendung. Denkbar ist beispielsweise auch, mit BlueTrak
komplexe Bewegungsabläufe zu analysieren. "Wir haben zum Beispiel Kontakt zum Berufsgenossenschaftlichen
Institut für Arbeitssicherheit, die mit dem Bluetrak Sensorsystem ihre Untersuchungen von Bewegungsabläufen
am Arbeitsplatz erweitern möchten." |