chi2016: Hidden in Plain Sight: an Exploration of a Visual Language for Near-Eye Out-of-Focus Displays in the Peripheral View

Der Beitrag der Hasselt University adressiert das Problem, dass Anwender von Geräten, wie Google Glass, Head-Mounted-Displays oder Smartphones, was zwischen Gerät und Umgebung “umschalten” bzw. regelmäßig neu fokussieren müssen. Erscheint auf den Gerät eine Information während der Anwender auf seine Umgebung fokussiert ist, muss sich der Anwender auf das Gerätneu fokussieren und verliert so den visuellen Kontakt zu seiner Umgebung. Das kann für die Umgebung des Anwenders recht befremdlich wirken und für den Anwender selbst gefährlich sein. Die Autoren gingen also der Frage nach, ob es möglich ist ein Display zu bauen und eine Zeichensprache zu entwickeln, um es Anwendern zu ermöglichen, Informationen aus dem Augenwinkel, genauer gesagt über peripheres Sehen, wahrzunehmen ohne den Fokus zwischen Gerät und Umgebung wechseln zu müssen.

Sie entwickelten einen Prototypen (Siehe oben) und erforschten mit 18 Testpersonen die Möglichkeiten Informationen über das peripheren Sehen zu vermitteln. Die Erkenntnisse im Überblick:

  • Mit statischen Formen, welche Anwender im Vorfeld nicht erlernt haben, ist es nicht möglich Informationen über das periphere Sehen zuverlässig zu übermitteln.
  • Eine geringe Anzahl an Formen bzw. Symbolen ist unterscheidbar, wenn die Anwender diese im Vorfeld erlernen können.
  • Bewegung ist ein gutes Mittel, um über das periphere Sehen die Aufmerksamkeit des Anwenders zu erlangen.
  • Es ist möglich über das periphere Sehen Anwender relativ präzise zu navigieren.

Siehe auch

Hidden in Plain Sight: an Exploration of a Visual Language for Near-Eye Out-of-Focus Displays in the Peripheral View

War dieser Artikel hilfreich für Dich?

Nach oben scrollen