Freitag, 5. Juni 2009

Handy bedienen, ohne hinzusehen ... Google stellt mit Android neue Technik der Benutzerführung vor ...

Die Minibildschirme vieler Handys vermitteln den Nutzern das Gefühl, sie litten unter Sehschwäche – insbesondere dann, wenn sie während der Bedienung gleichzeitig eine andere Tätigkeit vollführen müssen, Laufen beispielsweise, oder Autofahren. Forscher bei Google experimentieren deshalb nun mit einer neuen Schnittstelle für das mobile Betriebsystem des Internet-Konzerns, bei der man gar nicht mehr hinschauen muss. Eine erste Demonstration gab es auf der Entwicklerkonferenz "I/O" in der vergangenen Woche zu sehen. Google-Wissenschaftler T.V. Raman zeigte, wie ein einfach in jede Anwendung integrierbares Interface aussehen könnte, das nur auf akustischem oder taktilem Feedback basiert.

"Wir bauen eine Schnittstelle, die deutlich weiter geht als nur der Bildschirm", sagt er. Solche Techniken werden normalerweise für spezielle Zielgruppen wie Blinde entwickelt. Raman, der selbst sehbehindert ist, glaubt aber fest daran, dass von seinen Ideen auch Sehende profitieren: "Es geht nicht nur darum, Blinden zu helfen. Es geht darum, solche Geräte auch dann bedienen zu können, wenn man nicht direkt auf sie schauen kann."

Schnittstellen, die sich ohne Augenkontakt bedienen lassen, sind nicht wirklich neu. 1994 entwickelte der Microsoft-Forscher Bill Buxton die Idee so genannter Marking Menus. Dabei handelt es sich um runde Auswahlelemente, die sich im Gegensatz zu den üblichen Pull-Down-Menüs, bei denen man stets hinsehen muss, was man anklickt, auch blind bedienen lassen. Patrick Baudisch, ebenfalls Forscher bei Microsoft und inzwischen Professor am Potsdamer Hasso-Plattner-Institut, wendet die Idee für MP3-Spieler-Menüs an, die auch eine Audio-Rückmeldung geben.

Einige Handys unterstützen bereits taktiles Feedback mittels Vibrationen, doch die meisten Geräte benötigen immer noch den direkten Blick. Laut Google-Forscher Raman könnte Android eine der ersten Mobilfunkplattformen sein, die ein breites Sortiment an blind bedienbaren Anwendungen bietet. Das Handy-Betriebssystem kann problemlos Rückmeldungen über Vibration oder Geräusche geben. Auf der Konferenz zeigten Raman und sein Kollege Charles Chen, dass sich die Technik nahezu für jede Android-Anwendung nutzen lässt, was mittels weniger Code-Zeilen gelingt.

Die Google-Forscher demonstrierten ihre Idee unter anderem beim Anwählen von Rufnummern und beim Durchsuchen von Kontakten (hier ein Video). Ein Problem der meisten grafischen Schnittstellen sei, meint Raman, dass Knöpfe sich in einem für den Nutzer nicht erkennbaren festgelegten Bereich befänden, was unbequem sei, wenn man sie nicht erfühlen könne. Um das Problem zu lösen, erscheint das neue Google-Interface immer dann, wenn ein Finger den Bildschirm berührt – und zwar so, dass es sich beim ersten Kontakt sofort in der Mitte befindet.

Beim Wählen ist das Gerät stets so konfiguriert, dass die erste Displayberührung stets die Zahl "5" repräsentiert. Wischt man nach oben rechts, erreicht man die "3", wischt man nach unten links, die "7". Jedes Mal, wenn der Finger auf einer Zahl landet, vibriert das Handy, und wenn der Finger angehoben wird, was eine Auswahl signalisiert, wiederholt eine Computerstimme die Nummer.

Um durch das Adressbuch des Handys zu navigieren, berührt der Nutzer ebenfalls einfach den Bildschirm, auf dem dann ein kreisförmig angeordnetes Schema aus acht Buchstaben erscheint. Wischt man nach unten links, wo sich das "A" befindet, erscheint ein zweites rundes Menü mit acht weiteren Buchstaben: "B", "C", "D" und so weiter. Mit diesem Ansatz ist es möglich, sagt Raman, dass ein Nutzer mit jeweils nur einer Fingerbewegung jeden Buchstaben in höchstens drei Schritten erreicht.

Android unterstützt außerdem Text-nach-Sprache-Funktionen, so dass Entwickler Programme schreiben können, die Bildschirmbotschaften hörbar machen. Bei der Eingabe von Informationen hilft das allerdings nicht.

Experte Baudisch meint, dass solche "blinden" Schnittstellen auch außerhalb des Labors schnell spannend werden könnten. "Es ist wunderbar, dass das Google nun tut und die Implementation ist auch nett." Marking Menus seien eine tolle Sache und es sei an der Zeit, dass jemand sie endlich in Produkte einführe, die dazu passten.

Raman räumt ein, dass solche und ähnliche Schnittstellen noch ganz am Anfang stünden. Es fehle an Wissen, was der Kunde tatsächlich als nützlich verstünde. Ein Weg, die Technik weiter zu verbessern, ist ein mathematisches Vorhersagemodell. Damit ließe sich ermitteln, was der Nutzer als nächstes plant. Ruft ein Mensch beispielsweise jeden Arbeitstag einen bestimmten Busfahrplan auf, könnte das System entsprechend festlegen, dass der Buchstabe "B" jeden Werktag nach 16 Uhr 15 bedeutet, dass der Nutzer erfahren will, wann das nächste Transportmittel eintrifft.

Quelle:

Kate Greene

Posted via web from Superglide's Personal Blog ...

Keine Kommentare:

Kommentar veröffentlichen