Zürich (idw) - ETH-Professor Otmar Hilliges und seine Mitarbeiter haben eine neue App entwickelt, mit welcher
Nutzer ihr Smartphone auch mit Gesten bedienen können. Dies erweitert den Umfang möglicher Interaktionen
mit den Geräten. Etwas eigenartig sieht es anfänglich schon aus: Mit der einen Hand hält man das
Smartphone, die andere Hand hingegen bewegt sich in der Luft vor der eingebauten Kamera. Man macht Gesten, die
denjenigen aus der Gebärdensprache von Gehörlosen ähneln: Der Zeigefinger zeigt mal nach links,
mal nach rechts, die Finger spreizen sich, formieren sich zu einer Zange oder imitieren eine Pistole und drücken
ab. Diese Gesten dienen allerdings nicht der Verständigung unter Gehörlosen, sondern der Steuerung des
Smartphones.
So kann ein Nutzer mit der Schiessbewegung der Hand beispielsweise in einen anderen Browser-Tab wechseln, den Kartenmodus
von Satellitenbild auf Topographische Darstellung ändern oder in einem Game auf gegnerische Flugzeuge schiessen.
Durch das Aufspreizen der Finger vergrössert sich ein Kartenausschnitt oder scrollt eine Buchseite hinauf.
Hinter dieser Gestensteuerung steckt ein neuartiger Algorithmus, den der Masterstudent Jie Song aus der Arbeitsgruppe
von Otmar Hilliges, Professor für Computerwissenschaften, entwickelte. Die App stellten die Forscher soeben
an der UIST-Konferenz in Honolulu, Hawaii, dem Fachpublikum vor.
Clevere Programmierung schont Arbeitsspeicher
Um die Umgebung wahrzunehmen, verwendet das Programm die eingebaute Kamera des Geräts. Tiefen- oder Farbinformationen
wertet es nicht aus. Die gewonnene Information – Form der Geste, Teile der Hand – werden auf einen einfachen Umriss
reduziert, dieser schliesslich anhand der einprogrammierten Gesten klassifiziert. Je nach wahrgenommener Geste
führt das Programm schliesslich den daran gekoppelten Befehl aus. Das Programm erkennt auch die Distanz, in
der sich die Hand vor der Kamera bewegt. Ist die Hand zu nah oder zu weit davon entfernt, erhält der Benutzer
einen Warnhinweis.
«Viele dieser Bewegungserkennungs-Programme sind rechenintensiv und brauchen viel Arbeitsspeicher»,
betont Hilliges. Dieser Algorithmus brauche hingegen nur einen geringen Anteil des Arbeitsspeichers und sei deshalb
für Smartphones gut geeignet. Diese Anwendung sei die erste ihrer Art, die auf einem Smartphone laufe. Aufgrund
des geringen Rechenbedarfs könnte sie auch für Smart Watches oder in Augmented Reality-Brillen genutzt
werden.
Ergänzende Steuerung
Zurzeit kann das Programm sechs verschiedene Gesten erkennen und entsprechende Befehle ausführen. Ausprobiert
haben die Forscher 16 Umrisse, was allerdings nicht dem theoretischen Limit entspricht. Wichtig ist, dass Gesten
eindeutige Umrisse erzeugen. Sind verschiedene Handzeichen einander zu ähnlich, taugen sie nicht für
diese Applikation. «Um den Funktionsumfang zu erweitern, werden wir weitere Klassifizierungsschemen im Programm
hinterlegen», sagt der ETH-Forscher.
Für ihn ist klar, dass diese neuartige Art und Weise die Eingabemöglichkeiten bei einem Smartphone
erheblich erweitern. Ziel der Forscher ist es, die Gesten so einfach wie möglich zu halten, um das Gerät
mühelos bedienen zu können.
Ob sich die Benutzerinnen und Benutzer von Smartphones an die Gesten-Bedienung ihres Geräts gewöhnen
werden? Otmar Hilliges ist zuversichtlich. Die Gestensteuerung werde die Steuerung über den berührungsempfindlichen
Bildschirm nicht ablösen, sondern ergänzen. «Die Leute haben sich auch an die Bedienung von Computerspielen
durch ihre eigenen Bewegungen gewöhnt.» Touch Screens hätten ebenfalls eine sehr lange Vorlaufzeit
gehabt, ehe sie schlagartig den Weg zu den Konsumenten gefunden hätten. Hilliges ist deshalb überzeugt,
dass diese Applikation oder zumindest Teile davon den Weg in die Märkte finden.
Referenz
Song J, Sörös G, Pece F, Fanello S, Izadi S, Keskin C, Hilliges O: In-air Gestures Around Unmodified
Mobile Devices, ACM User Interface Software and Technology Symposium, Honolulu, Hawaii, 7. Okober 2014.
|