Schlagwort-Archiv: Gestensteuerung

MuC14: Anforderungen an gestisches Interaktionsdesign

Malte Krökel und Insa Wulf (UID) gaben in ihrem Beitrag Tipps zur Gestaltung von gestenbasierten Bedienoberflächen. Die Tipps entstammen einer qualitativen Studie (n=16) zum Leap Motion Sensor bei welcher der Sensor mit unterschiedlichen Apps getestet wurde. Der Leap Motion Sensor ermöglicht es bestehende Computersysteme um eine Möglichkeit zur Gestensteuerung zu erweitern. Ihre Empfehlungen sind:

  • Zeigen Sie was das Gestensteuerungsgerät erkennt, damit die Anwender verstehen, was das Gerät verstanden hat. Geben Sie kontinuierliches Feedback.
  • Zeigen Sie den Raum in dem interagiert werden kann. Die Bedienoberfläche muss kommunizieren wo sich der Anwender bewegen kann um das Gerät zu steuern.
  • Finden Sie eine intuitive Gesten. Orientieren Sie sich an den Gesten, die in den meisten Apps verwendet werden, da es noch keine offiziellen Standards gibt. Orientieren Sie sich an den Gesten, welche die Anwender im täglichen Sprachgebrauch verwenden. Es müssen Gesten verwendet werden, die mit sehr wenig Kraftaufwand durchgeführt werden können.

Die Anwendungsbereiche von Gestensteuerung sind aus Sicht der Referenten beschränkt. Sie werden sich ihrer Einschätzung nach eher in Bereichen mit entsprechenden Anforderungen (z.B. Operationssaal) als im Alltag durchsetzen.

Die Gestensteuerung sollte die Maussteuerung nicht ersetzen – das kann sie nicht. Sie sollte die Interaktion bereichern.

UID testet LEAP Motion Sensor – Gestensteuerung aus Sicht der Nutzer

Darauf warte ich ja schon länger: den Leap Motion Sensor. Im Preview-Video zeigt Leap Motion beeindruckende Steuerungsmöglichkeiten und hohe Präzision.

Da der Sensor nun mittlerweile für ca. 80$ käuflich erworben werden kann, haben Tobias Limbach und Malte Krökel von User Interface Design GmbH (UID) den Sensor mal genauer unter die Lupe genommen und einem UX Test unterzogen.

Der LEAP Controller wird vor dem Bildschirm positioniert und baut unterstützt von 2 kleinen Kameras ein Infrarot-Feld auf, das die Bewegungen von bis zu 10 Fingern registriert. Diese Technik befindet sich in einem kleinen, schwarz silbernen Gehäuse, kaum größer als ein Feuerzeug, der über USB mit dem Computer verbunden wird.

LEAP ins Deutsche übersetzt bedeutet „Überspringen“ und kündigt so einen technischen Fortschritt an. In Zukunft könnte es die Maus ersetzen und neue Formen der MenschComputer-Interaktion ermöglichen.

Im UX Test mit 16 Teilnehmern machten die beiden UID-Experten folgende Beobachtungen:

  • Beim ersten ausprobieren sind alle Teilnehmer positiv überrascht
  • Zu Beginn interagierten die Teilnehmer mit der ganzen Hand und erwarteten nicht, dass einzelne Finger erfasst werden
  • Den Teilnehmern war unklar in welchem Raum das LEAP MOTION die Bewegung erfasst. Dadurch bewegten sie sich unbeabsichtigt außerhalb des erfassten Raums und die Interaktion brach ab.
  • Gesten, bei denen nach einem Objekt gegriffen wird, wurden intuitiv verstanden.
  • Gesten, die nicht einer Maus/Touch Interaktion ähneln, wurden nicht erwartet, da der Computer dabei interpretieren muss (Beispiel: Drei Finger zeigen anstatt „Menüpunkt die „3“ auszuwählen). Diese Interaktionen waren aber leicht erlernbar und begeisterten.
  • Die Hand im Interaktionsraum behinderte bei einigen Teilnehmern die Sicht auf den Bildschirm.
  • Gesten müssen recht genau ausgeführt werden, sonst werden sie nicht erkannt oder Fehlinterpretiert. Dies ist erstens nicht einfach, und zweitens sind Gesten sehr persönlich geprägt. Dadurch wird hier die „Standardisierung“ eher als Zwang empfunden.
  • Es gibt kein einheitliches Set von Gesten, jede App verwendet ein eigenes Gesten-Vokabular zur Interaktion. Das bedeutet eine ständige Herausforderung, sich Gesten zu merken bzw. neue zu lernen.
  • Die Ausführung der Gesten kann auf Dauer überraschend anstrengend werden. Gerade wenn man eine Geste öfters wiederholen muss, wird es schnell ermüdend.
  • Wir beobachteten, dass die Teilnehmer in der Regel schnell ungeduldig wurden wenn eine Interaktion nicht auf Anhieb klappte. Da mit den Händen gearbeitet wird, erwartet der Nutzer dass es sofort klappt.

Im Attrakdiff landet die LEAP bemerkenswert weit im Bereich „selbstorientiert“. Man könnte sagen dass die Nutzer weniger den praktischen Wert sehen, es aber trotzdem viel Spaß macht sie zu bedienen.

Zur Gestaltung der User Experience sollte dem Nutzer natürliche Interaktion, wie Greifen nach Objekten und die zeitgleiche Interaktion mit beiden Händen angeboten werden. Wichtig ist auch den Raum, in dem die Bewegungen erkannt werden, klar zu definieren. Schlechte bzw. schlampige Definition der Gesten wirkt sich bei LEAP schnell in Kontrollverlust und Frustration aus, weshalb der Fokus besonders auf gutem Interaktionsdesign liegen muss. Neue Gesten, die direktere Interaktion ermöglichen und nicht der herkömmlichen Interaktion mit der Maus oder via Touch ähneln, können schnell erlernt werden. Sie sorgen für begeisternde User Experience und bieten dadurch einen Mehrwert.

Fazit

LEAP MOTION erkennt Bewegungen präzise und die Interaktion mit Gesten begeistert, frustriert aber auch ebenso schnell. Ein einheitliches Grundvokabular von Interaktionsgesten wird die Steuerung der verschiedenen Apps erleichtern. Die LEAP hat großes Potenzial, für bestimmte Anwendungsfälle eine begeisternde UX zu ermöglichen.

Siehe auch

Leap Motion
Download der Studie (User Interface Design GmbH)

#bldwin: Scanning and Printing the Real-World Using Kinect for Windows and Preview of Kinect vNext

Chris White (Microsoft) hat sich in seinem Vortrag mit den 3D-Druckfähigkeiten von Windows 8.1 in Verbindung mit Kinect sowie der Zukunft von Kinect beschäftigt. In einer kleinen Demo hat er dazu einen Kollegen mittels Kinect eingescannt und einer Autodesk-Anwendung sowie den Druckertreibern von Windows 8.1 als Minifigur ausgedruckt.

Lomogram_2013-06-27_05-08-42-PM

Außerdem hat er eine Demo des neuen Kinect Sensors gezeigt. Das Ergebnis dieses Sensors ist deutlich detaillierter und genauer. Die Auflösung soll im Vergleich zum aktuellen Kinect Sensor ungefähr drei mal so hoch sein. Damit dürfte die Fehlertoleranz des Kinect Senors drastisch verbessert und die Einsatzmöglichkeiten erweitert werden.

Lomogram_2013-06-27_05-11-33-PM

Nebenbei: Im September 2013 kommt ein Update des aktuellen SDK für die aktuelle Kinect.

bldwin: Kinect UI Design Considerations

Jay Kapur hat in seiner Session über die Herausforderungen bei der Gestaltung von gestenbasierten Interfaces auf Basis von Kinect gesprochen.
Gestenbasierte User Interfaces stehen noch am Anfang ihrer Entwicklung. Er erwartet eine intensive Entwicklung sowohl auf technischer Seite als auch auf menschlicher Seite. Die Technik wird immer besser werden. Aber auch die Erwartungen der Anwender werden sich mit steigender Verbreitung verändern. Wenn gestenbasierte UIs heute noch befremdlich wirken, werden sie in Zukunft normal sein.

Kinect UI is in the early stages of evolution and progression.

Die Eingabetechnologie hatte in der Vergangenheit immer einen großen Einfluss auf die Gestaltung des User Interfaces.

Wohin die Reise bei gestenbasierten UIs geht, ist noch nicht ganz klar. Es ist in der Tat eine Abenteuerreise. Bei der Gestaltung von gestenbasierten User Interfaces stehen aktuell aus seiner Sicht zwei zentrale Aspekte im Vordergrund:
* Es gibt deutlich mehr Interaktionsmodi als bei anderen Eingabetechnologien. Menschen können beispielsweise bei der Bedienung sitzen, stehen, wegschauen, sich bewegen usw.
* Das System muss versuchen zu erkennen, ob ein Mensch mit dem System interagieren will oder sich nur aus anderen Gründen bewegt, z.B. um etwas zu trinken. Das kann z.B. über die Ausrichtung des Gesichtes in Richtung des Ausgabegerätes geschehen.