Schlagwort-Archiv: augmented reality

Mixed Reality mit Microsoft HoloLens #uux #bitkom

Philipp Bauknecht (medialesson) führte in seinem Beitrag in die Welt der Hologramme am Beispiel von Microsoft HoloLens ein. Microsoft HoloLens ist die Daten-Brille von Microsoft, die es erlaubt interaktive 3D-Projektionen in der direkten Umgebung darzustellen. Sie lässt sich dabei sowohl für die Interaktion in Mixed oder Augmented Reality-Umgebungen als auch in Virtual Reality-Umgebungen verwenden. 

(Quelle: microsoft.com)

Da nun die Technik verfügbar ist, stellt sich für holographische Anwendungen nun die große Frage welche Anwendungsszenarien es außer den bisher Bekannten gibt. Als Einsatzszenarien für holographische Interfaces sieht er beispielsweise:

  • Kommunikation über Entfernung als so eine Art holographische Videotelefonie
  • Unterstützung bei der virtuellen Konstruktion von Produkten
  • Aus- und Weiterbildung beispielsweise von Ärzten, Servicemitarbeitern oder Kindern
  • Unterstützung bei Architektur, Innenarchitektur, Gebäudeplanung und Städteplanung
  • Erkundung von Orten, an die Menschen in Person nicht kommen können. (z.B. Mars)
  • Gaming

Die HoloLens bietet das Potential für natürlichere Interaktionsformen immer dann, wenn es um die Bereiche geht in denen Menschen mit Gegenständen oder dreidimensionalen Inhalten interagieren. Obwohl die HoloLens ein eigenständiges Computersystem ist, hat sie nicht den Anspruch ein Universalinteraktionsgerät zu sein, welches PC, iPad und Co. ablösen soll. Ich sehe es in seiner aktuellen Form als eine ergänzende Technologie für natürliche Interaktionen.

Interaktion mit Augmented Reality Anwendungen #uux #bitkom

Xaver Bodendörfer (eResult) sprach in seinem Beitrag über die Interaktionsmöglichkeiten mit Augmented Reality Anwendungen, beispielsweise mittels Microsoft Hololens, Google Glasses oder Sony Smarteyeglass. 


Im Detail diskutiert er die Vor- und Nachteile der unterschiedlichen Interaktionsformen Non-Touch, Touch und Handheld. Er fokussierte sich auf Touch-Interaktionen mit Körperteile. Beispielsweise, wenn Bedienoberflächen auf die Handfläche projeziert werden. Im Ergebnis seines Vortrags zog er folgende Schlüsse:

  • Die Handinnenfläche ist eine sehr gute Interaktionsmöglichkeit, da sie recht genaues haptisches und visuelles Feedback gibt. (Gustafson et al. 2013)
  • Der Unterarm ist ebenfalls für Interaktionen gut geeignet, da diese Interaktionsform von potentiellen Anwendern bevorzugt wird. (Weigl et al. 2014)
  • Bei der Oberflächengestaltung von Skin Based Interfaces sollten solche bevorzugt werden, bei denen die interaktiven Elementen auf die Haut projeziert werden. (Skinput Harrison et al. 2010)
  • Bei der Gestaltung von Skin Based Interfaces (SBI) kann man sich im Wesentlichen an den Einflussfaktoren und Aspekten der gestalterischen Qualität von Smartphones orientieren. Wesentlicher Unterschied ist, dass beim Smartphone in der Regel mit dem Daumen und bei Skin Based Interfaces mit dem Zeigefinger interagiert wird. 
  • Die Gestaltungsregeln für Smartphones lassen sich nicht 1:1 auf SBIs übertragen. Es ist eine Übertragung notwendig.
  • Bedienelemente von SBIs sollten eine aktive Fläche mit einem Durchmesser von 23-26 mm haben (Harrison et al. 2013, 2011: Omnitouch – Wearable Multitouch Interaction Everywhere).

chi2016: Reality Editor – Manipulate the Functionality of Physical Objects

Auf der CHI 2016 wurden einige interessante Video-Showcases gezeigt, die ich Euch nicht vorenthalten möchten. Eine Showcase war der Reality Editor:

The Reality Editor is a new kind of tool for empowering you to connect and manipulate the functionality of physical objects. Just point the camera of your smartphone at an object built with the Open Hybrid platform and its invisible capabilities will become visible for you to edit. Drag a virtual line from one object to another and create a new relationship between these objects. With this simplicity, you are able to master the entire scope of connected objects.

Siehe auch

Reality Editor