Schlagwort-Archiv: User Experience

Von dummen Dingen zu smarten Begleitern – UX für Autos und andere Alltagsgegenstände #bitkom #uux #bmw

Beim heutigen BITKOM Arbeitskreis User Experience und Usability im BMW Werk 1 ging es um das Thema „Von dummen Dingen zu smarten Begleitern – UX für Autos und andere Alltagsgegenstände“. Ich versuche wieder die wichtigsten und spannendsten Erkenntnisse aus den Beiträge für Euch zusammenzufassen:

UX Herausforderungen bei der Entwicklung in-car HMI

Dr. Andreas Keinath und Dr. Frederik Naujoks (BMW AG) stellten die größten Herausforderungen bei der Entwicklung von Cockpits für das (teil-)automatisierte Fahren vor.

Wie zu erwarten, führt BMW dafür in seinem hauseigenen Customer Usability Center (CUC) zahlreiche Studien zur Anforderungsanalyse und Evaluation durch. Interessant war für mich, dass auch BMW die Bedeutung von User Experience durch eigene Räumlichkeiten für UX zum Ausdruck bringt und dies auch noch durch eine zentrale Positionierung des CUC am Haupteingang unterstreicht.

BMW geht davon aus, dass es in absehbarer Zukunft beim Autofahren eine Mischung von Situationen mit unterschiedlichen Automationslevel geben wird. Die Fahrer werden z.B. auf der Autobahn nur noch zum Fallback für den Fall, dass das automatisierte System versagt. In Städten werden Fahrer noch einige Zeit selbst fahren müssen. In der aktuellen Entwicklung geht es daher nicht mehr nur um die Verringerung der Ablenkung von Fahrern, sondern auch um die Reduktion von kritischen Situationen und die Steigerung von Effizienz.

Die größte Herausforderung bei der Gestaltung von Cockpits für das (teil-)automatisierte Fahren ist, dass es weder etablierte Bewertungsmethoden gibt noch bestehende Gestaltungsgrundsätze darauf übertragen werden können. Ebenso müssen die Bewertungskriterien durch die neue Rolle der Fahrer neu definiert werden – also z.B. wie die Güte des Fahrens erkannt werden kann.

Die Automation menschlicher Tätigkeit hat Nebenwirkungen.

Weiterhin geht die Automation auch mit negativen Folgen einher. Hier sprach er konkret problematische Effekte wie „Out of the loop„, „Yerkes-Dodson-Law“ und „Deskilling“ an. Dadurch entstehen neue Themenfelder für UX Professionals, wie z.B. Automatisierungsvertrauen, Modus/Situationsbewußtsein und Kontrolltransitionen.

BMW hat erst Hinweise darauf, dass die kontrollierte Beschäftigung der Fahrer mit kognitiv-visuellen Aufgaben eine Lösung zur Aufrechterhaltung eines bestimmten Aufmerksamkeitslevels eine Lösung sein könnte. Höre ich da etwa ein neues Feld für die Unterhaltungsindustrie oder Business-Software-Hersteller?

Von der Car User Experience zur Mobility User Experience

Schaut man nur kurz darauf, was bei der Entwicklung von Autos wichtig ist, dann scheint die Veränderung überhaupt nicht disruptiv. Autos wurden und werden im Wesentlichen durch Technik, Design, Status und Freiheit geprägt. Erst wenn man den Blick weitet, erkennt man die wesentlichen Veränderungen. Für Prof. Martin Przewloka (msg systems) und Ulrich Redmann (m3 management consulting) liegen diese in der veränderten Nutzung von Fahrzeugen (z.B. Car Sharing) und in dem Erstarken von einzelnen Fahrzeugkategorien (z.B. Elektrofahrräder). Sie unterstützen die These, dass das der Individualverkehr in Zukunft an Bedeutung verliert (aber nicht verschwindet) und die bedarfsgerechte Mobilität mit unterschiedlichen Verkehrsmitteln in den Vordergrund rückt.

Sie erwarten, dass in dieser Entwicklung auch der Arbeitsplatz ein Teil der Mobilität wird. Das könnte dann grundlegende Auswirkungen auf die Mobilitäts-Infrastruktur haben. Beispielsweise könnten Parkhäuser auch zu Bürogebäuden, Logistikhubs, Lagerstätten oder Tankstellen werden.

Of Speaking Cars And Browsing Drivers – cars are touchpoints for digital brand experience

Natürlich kamen auch in diesem Arbeitskreis Sprachassistenten zur Sprache … und das obwohl Sascha Wolter gar nicht dabei war. Oliver Kulpi (Publicis.Sapient) stellte seine Gedanken über den Einfluss von Sprachassistenten und andere nachträglich eingebundene Systeme (z.B. Über Apple Car Play) im Fahrzeug auf das Erlebnis im Auto vor.

Fahrzeugbauer müssen sich heute – wie andere Unternehmen auch – intensiv damit auseinandersetzen, mit welchem Erlebnis sie sich im Markt am besten positionieren und wie dieses Erlebnis auch tatsächlich geschaffen werden kann. Vor diesem Hintergrund wird die Zusammenarbeit zwischen Marketing und IT in Zukunft deutlich wichtiger als heute. Ich würde es mal so formulieren: Marketing verspricht ein Erlebnis im Sinne der Positionierung bzw. Unternehmensvision und IT (inkl. UX Design) erfüllt dieses Versprechen. So wird aus einer Vision der entsprechende Erfolg.

People who rely on today’s digital devices, expect the same elegant, thoughtful user interface design in the car, anticipating their needs and making the experience simple and efficient.

Als Lösungsansatz sieht er die Definition einer ganzheitlichen Customer Experience Strategie, die Marke, Customer Insights, Produkte bzw. Services und Kunden zusammenbringt. Diese sollte natürlich auf einer Customer Journey-Denkweise basieren. Zukünftig wird nicht mehr nur die Erfüllung des Versprechens am Touchpoint „Produkt“ genügen. Es gilt an möglichst allen Touchpoints, egal ob nun unternehmenseigene oder fremde – das Markenversprechen zu erfüllen. Ein großer Anspruch für den die Patentrezepte zur Umsetzung erst noch gefunden werden müssen.

Fokus auf dem Menschen am Beispiel des autonomen Fahrens

Zum Abschluss des BITKOM AK UUX sprach Dr. Jan Seifert (UID – User Interface Design GmbH) über Akzeptanz von autonomen Fahren im Kontext Parken. Dazu wurden in einem Projekt von BOSCH und UID mehrere Fokusgruppen und Kontextinterviews durchgeführt.

Die Experience beginnt mit dem Nutzenversprechen.

In der Studie zeigten sich folgende Aspekte für die Akzeptanz von autonomen Parken:

  • Verlust an Fähigkeiten: Menschen haben Angst das Parken zu verlernen und dann nicht mehr richtig reagieren zu können, wenn das Auto Fehler macht.
  • Überwachungspflicht: Menschen haben Sorge, das Auto überwachen zu müssen, ohne vollständig die Kontrolle zu haben.
  • Verantwortung: Die Verlagerung des menschlichen Fehlers vom Nutzer zum Entwickler / Designer bedeutet für die Nutzer große Unsicherheit bezüglich der Verantwortung, der mit der Nutzung verbunden ist.
  • Einstellung und Vertrauen: Wie stehen Menschen zum autonomen Parken? Was muss geschehen, damit das nötige Vertrauen entsteht und dass das entstehende Vertrauen dem Fähigkeitslevel der Automaten entspricht.
  • Soziale Interaktion: Autonome Fahrzeuge, also Fahrzeuge ohne Fahrer, polarisieren aktuell noch sehr stark. Die Interaktion zwischen Fußgängern und autonomen Fahrzeugen beim Parken ist kritisch. Viele Fußgänger und Autofahrer versuchen im Straßenverkehr miteinander zu kommunizieren, um Sicherheit zu schaffen. Menschen brauchen daher einen Hinweis darauf, ob das Fahrzeug autonom unterwegs ist und ob sie davon gesehen wurden.
  • Gestaltung: Die Gestaltung von autonomen Autos gewinnt an Bedeutung, wenn kein menschlicher Fahrer mehr zu sehen ist. Die Gestaltung der Fahrzeugfront wird dann für Menschen zum einzigen Merkmal, um den Charakter des Fahrzeuges und damit sein Verhalten einschätzen zu können.

Im Fazit sprach er davon, dass die Akzeptanz für autonomes Parken noch nicht so hoch ist, dass Systeme erfolgreich am Markt platziert werden können. Aktuell gibt es noch mehr Fragen als Antworten für die Gestaltung von autonomen Fahrzeugen.

Die Ironie der Automation ist aktueller denn je. Wir brauchen mehr User Research, um menschliche Reaktionen beim autonome Fahren zu verstehen.

Neues aus dem BITKOM

Der nächste BITKOM AK UUX findet im Rahmen der Smart Country Convention in Berlin am 21.11.2018 statt.

Am 05.11. findet die „IT needs Design“ statt. Eine Veranstaltung bei der es um mehr Gestaltungskompetenz für eine nachhaltige Digitalisierung und erfolgreiche digitale Transformation gehen wird.

An dieser Stelle soll auch noch auf das kürzlich veröffentlichte Digital Design Manifest hingewiesen werden. Darin geht es um das Rollenideal „Digital Design“, welches als Vorbild für die Weiterentwicklung der bestehenden Rollen in der Softwareentwicklung und als Impuls für die generelle Weiterentwicklung der Zusammenarbeit in der Softwareentwicklung dienen soll.

Was macht Software sexy?

Die Turbulenzen der digitalen Transformation schütteln die klassische Software-Branche gerade so richtig durch. Momentan können sich zwar viele der Traditionsunternehmen der Branche noch recht erfolgreich mit ihren klassischen Produkten gegen den Veränderungsdruck stemmen. Es ist aber nur eine Frage der Zeit bis auch hier gilt:

Es drängen zahlreiche Startups mit attraktiven digitalen Lösungen auf den Markt und beginnen diesen Stück für Stück für sich zu erobern. Das bringt natürlich richtig Schwung in das traditionelle Softwaregeschäft. Aber, wo ist das Problem? Klassische Business-Software muss halt einfach attraktiver werden. Oder, wie es letztens ein Manager zu mir sagte: Software muss sexy werden.

Leider sagt sich das nur so einfach. Es ist schwer, Produkte so attraktiv zu gestalten, dass sie erfolgreich sind. Auch digitale Produkte werden nicht nur wegen ihrer visuellen Schönheit für Kunden attraktiv bzw. sexy.

„A product has to be balanced, it should provide value, fullfill the needs of the users, and make good business sense. But if it doesn’t feel right who cares if it works? We need both pleasure and function. Beauty and Usability.“ (Norman)

Ein guter Zeitpunkt, um nochmal zu klären, was digitale Produkte eigentlich sexy macht. Digitale Produkte sind nach meiner Erfahrung „sexy“, wenn sie …

  • nützlich sind.
  • zuverlässig sind.
  • verständlich sind.
  • effizient sind.
  • aktuell sind.
  • das Wohlbefinden ihrer Nutzer steigern.
  • ästhetisch sind.
  • die Neugier ihrer Nutzer wecken, z.B. durch Neuartigkeit.

Diese Kriterien müssen natürlich nicht alle zum größtmöglichen Grad erfüllt sein. Der Erfüllungsgrad der einzelnen Kriterien hängt vom Anwendungsgebiet und der Zielgruppe ab. (Siehe „Gute Gestaltung von Software-Bedienoberflächen“)

Wohlbefinden kann man nicht verschreiben, aber eine Art, etwas zu tun, macht einen Menschen glücklicher als eine andere Art. Die Art zu finden, die glücklicher macht, ist die Aufgabe von User Experience. Im Fokus steht also der Endbenutzer und sein Wohlbefinden – und das Verhandeln dieses Wohlbefindens mit betriebswirtschaftlichen Zielen.(Hassenzahl)

Siehe auch

Design for wellbeing

chi2016: Embedding User Understanding in the Corporate Culture: UX & Accessibility at Yahoo!

Auch wenn Yahoo! aktuell ins Straucheln geraten ist, nutzen aktuell ca. 1 Mrd. Menschen weltweit Yahoo!-Dienste. Eine gute UX und Barrierefreiheit ist für Yahoo! in der aktuellen Situation besonders überlebenswichtig.

Das User Research-Team von Yahoo hat in diesem Beitrag über die Organisation von UX und Accessibility gesprochen. Yahoo! ist intern vertikal in Geschäftsbereiche organisiert.

Das User Research-Team agiert wie ein Dienstleister für alle Geschäftsbereiche. Es besteht aus ca. 21 Personen von denen sich 4 exklusiv um das Thema Barrierfreiheit kümmern. Die Mitglieder des User Research-Teams werden zwar durch eine Führungskraft von zentraler Stelle geführt, arbeiten aber direkt in den Projektteams mit. Yahoo! nennt das „Embedded User Research Team“. Außerdem betreibt das Team eine eigene Infrastruktur für Human-Centered Design. Beispielsweise gehört dazu auch ein spezielles Labor für Barrierefreiheit in dem Anwender und Entwickler voneinander lernen können. Das User Research-Team führt User Research Studien mit den bekannten Usability-Methoden durch. Es erstellt gemeinsam mit den Entwicklungsteams Prototypen. Außerdem veranstaltet es „User Nights“ zu denen Anwender eingeladen werden, die dort mit Entwicklern über die Produktnutzung sprechen.

Neben dem wie gab das Team auch einen kleinen Einblick in das Mengengerüst ihrer Arbeit:

Das User Research-Team bei Yahoo! sieht sich nicht als Kontrollinstanz, die prüft ob Kunden in den Entwicklungsprozess einbezogen wurde. Sie wollen Entwicklungsteams nicht durch zu formelle Prozesse aufhalten oder Kontrollen stören. Es sieht sich als Enabler, der sich in der gleichen Geschwindigkeit wie die Entwicklungsteams bewegt und sie dabei unterstützt die Lösungen so anwenderorientiert wie möglich zu gestalten.

Helping product teams realize unmet needs and opportunities.

Es ist den User Reseachern wichtig, dass die Entwickler den Daten glauben, die sie generieren und es immer wieder überraschende Erkenntnisse zu Tage fördert. Sie messen daher halbjährlich den Erfolg ihrer Arbeit in dem sie die Glaubwürdigkeit der Ergebnisse und Zufriedenheit der Entwicklungsteams mittels eines Fragebogens erheben.

Siehe auch

Embedding User Understanding in the Corporate Culture: UX Research and Accessibility at Yahoo

chi2016: UX Strategy as a Kick-starter for Design Transformation in an Engineering Company

Die Digitalagentur SC5 Online Ltd. hat in diesem Beitrag einen groben Plan für die Einführung von UX in Unternehmen vorgestellt.

Sie zeigten aus Agentursicht die wesentlichen Eckpunkte mit denen sie bei der Einführung begonnen haben. Die Eckpunkte wurden aus einem konkreten Projekt mit einem großen finnischen Technologieunternehmen abgeleitet. Die wesentlichen Eckpunkte sind:

  • Sie nahmen sich Zeit, um das Unternehmen kennenzulernen; Sie interviewten dazu in 5 Wochen 17 wichtige Stakeholder.
  • Sie analysierten den Softwareentwicklungsprozess, um zu verstehen, wie Kunden einbezogen werden und wie bzw. wo die Produktgestaltung entsteht. Sie schauten sich die Designtools an. Dabei interessierten sie sich insbesondere dafür, wie Design Richtlinien im Unternehmen kommuniziert werden und wie der Designprozess aussieht.
  • Sie analysierten die Designfähigkeiten der Mitarbeiter. Wie gut sind die Designfähigkeiten der Entwicklungsteams? Gibt es Designer in den Projektteams?
  • Sie brauchten eine Person aus der oberen Hierarchie des Unternehmens, welche die Einführung von UX sponsert.
  • Sie bewertete die User Interfaces von allen Produkten des Unternehmens.
  • Sie prüften inwiefern UX bereits Teil der Unternehmensstrategie ist.
  • Sie analysierten, wie Nutzerverhalten und Kundenrückmeldungen im Unternehmen dokumentiert, analysiert und die entstehenden Erkenntnisse genutzt werden.

All diese Fragen bzw. Eckpunkte sind jetzt zwar noch keine Strategie. Sie führen aber nach meiner Erfahrung auf die Knackpunkte für die Einführung von UX in Unternehmen.

Siehe auch

UX Strategy as a Kick-starter for Design Transformation in an Engineering Company
MuC-UP13: Erfolgreiche Usability & UX in Unternehmen

chi2016: Capturing & Measuring Emotions in UX

Die UEGroup hat ihren Ansatz für die Messung von Emotionen in Usability Tests auf der CHI2016 vorgestellt. Ausgangspunkt ihrer Überlegungen war, dass es heute für die Messung von Emotionen eine Reihe von Tools gibt. (moodies, Emotient, emotrak)

Diese Tools haben jedoch nach Ansicht der UEGroup meistens den Nachteil, dass sie aufgrund ihrer technischen Funktionsweise Auswirkungen auf das Studienergebnis haben. Das Bekleben mit Kabeln, das Tragen von EEG-Hauben oder die Verbalisierung von Emotionen beeinflusst die Testpersonen. Die UEGroup suchte eine möglichst natürliche Methode um Emotionen zu messen, die auch in agilen Entwicklungsprozessen einsetzbar ist. Die Methode, die sie entwickelt haben, heißt youXemotions. Die Methode basiert auf der Selbsteinschätzung der Teilnehmer mittels folgender Skala:

Die Ergebnisse werden in einem Emotion Chart dargestellt:

Meiner Einschätzung nach ist diese Methode für die Messung von Emotionen interessant, hat aber wie alle anderen Verfahren auch einen Einfluss auf das Studienergebnis. Auch wenn der Einfluss sicher geringer ausfallen dürfte, als der von angeklebten Kabeln.

Siehe auch

youXemotions – How to use
Capturing & Measuring Emotions in UX

What is UX Design?

Steve Pearce (Skype) und Mat Hunter (Design Council) erläutern in diesem interessanten Video des Design Council Ihrer Sicht, was UX Design für Sie bedeutet sowie welche Chancen und Herausforderungen damit verbunden sind.

„The issue that we have today is that everything is hyper-connected. So it’s like playing multi-dimensional chess with multiple players.

Dating back to the advent of the personal computer, in particular the 1984 launch of the Macintosh, UX design today represents a incredibly diverse and complex world. In this video, Steve ‚Buzz‘ Pearce, Design Director at Skype, and Mat Hunter, Chief Design Officer at the Design Council, talk about what ‚UX design‘ means, finding the ’soul‘ of a digital product and how we’ve only scratched the surface of what’s possible.

Touchbedienung im Arbeitsalltag

Die großen Technologieunternehmen dieser Welt preisen Touch ja als die Zukunft des User Interface Design.

A screen without touch is a broken screen in a few years. – Jensen Harris (Director of Program Management User Experience, Microsoft), 2011

Die aktuellen Verkaufszahlen von Tablets und Smartphones sowie die Prognosen der Analysten geben ihnen dabei recht. Beispielsweise erwartet Gartner in 2013 einen Anstieg der Tablet-Verkäufe um 69,8 % und geht davon aus, dass in 2016 mehr Tablets als PCs abgesetzt werden.
Bis vor einiger Zeit wurden diese Geräte mehrheitlich im privaten Bereich genutzt. Im April veröffentlichte die BITKOM dann eine Studie (n=854) nach der bereits 34% der Unternehmen in Deutschland Tablets einsetzen. Die Interaktion mittels Fingern kommt also so langsam auch in den deutschen Unternehmen an.
Damit war es nun für mich an der Zeit die Bedienung mittels Touch im beruflichen Alltag auszuprobieren. Ich habe also kurzer Hand mein geliebtes Arbeitsgerät, ein klassischer kleiner Businesslaptop, durch einen Windows 8 All-In-One PC mit einem 27″ Touchmonitor namens Lenovo Ideacentre ersetzt. (Schön, wenn man einen innovativen Arbeitgeber wie die DATEV hat, der so etwas mitmacht 🙂

Quelle: Lenovo

Ich hatte mir vorgenommen von dem Tag an, ab dem dieser schicke Rechner meinen Arbeitsplatz schmückt, nur noch mit Finger und Tastatur zu arbeiten. Ich wollte sehen, ob sich bei dieser Arbeitsweise körperliche Probleme bemerkbar machen und ob ich mit Touch genauso produktiv arbeiten kann wie mit der Maus – so die Idee.
Ich muss ganz ehrlich gestehen, dass mir dann schon ein wenig mulmig zu Mute war, als das schicke Lenovo Ideacentre auf meinem Arbeitsplatz stand. Immerhin durften die geschäftlichen Aufgaben durch mein Experiment nicht behindert werden. Zu diesen gehören neben Führungs- und Kommunikationsaufgaben auch gestalterische sowie konzeptionelle Tätigkeiten.
Aber mal zu den Ergebnissen im Detail:

Das Körperliche

Ich konnte bis heute keine wesentlichen körperlichen Beeinträchtigungen feststellen, was aber auch daran liegt, dass sich das Ideacentre so auf dem Arbeitsplatz positionieren lässt, dass man bequem den Ellenbogen auflegen kann bzw. sich am Rand des Screens festhalten kann. Die Interaktion ist dann ähnlich bequem, wie mit der Maus bei der der Unterarm auf dem Tisch aufliegt.

Bei der Oberflächengestaltung von Touch UIs sollten meiner Erfahrung nach zwei neue Körperhaltungen betrachtet werden: die „Hand hält sich am Rand fest und navigiert“- und die „Stützt den Ellenbogen auf und zeichnet bzw. navigiert“-Haltung. Diese führen zu einer Verschiebung der wichtigen Interaktions-Hotspots auf der Bedienoberfläche.
Auch die Außentemperatur spielt in Abhängigkeit vom Hauttyp bei der Interaktion mit den Fingern eine Rolle: je wärmer, umso öfter feuchte Hände, umso schneller bekommt das Display Schmierstreifen und umso schneller wird die Sicht leicht eingetrübt. Hier hilft dann nur eine Packung günstiges Microfasertuch aus der Drogerie.

Interaktion mit Businessanwendungen im Legacy-Teil von Windows 8

Um Touch richtig nutzen zu können, habe ich das Ideacentre natürlich mit Windows 8 verwendet. Leider ist es aktuell immer noch so, dass nahezu alle klassischen Businessanwendungen nur im Legacy-Teil von Windows 8 verfügbar sind und nur in geringem Maße auf Touch ausgerichtet sind. In der Praxis stolpert man dann über Probleme wie:

  • Das Markieren von Text geht nur unvollständig bzw. wortweise oder gar nicht.
  • Das Vergrößern und Verkleinern von Fenstern ist schwierig, da die aktive Fläche am Fensterrahmen für meine Finger zu klein ist.
  • Drag & Drop ist auf einer großen Touchinteraktionsfläche nicht wirklich sinnvoll nutzbar, weil sowohl Finger als auch Stift bei schneller Bewegung vom Display stellenweise nicht erkannt werden. Das kann dann schon mal dazu führen, dass man Dateien im falschen Ordner fallen lässt oder dass die Win8-Geste zum Schliessen von Anwendungen mehrfach nicht erkannt wird. Verschlimmert wird diese Situation dann dadurch, dass man das mausoptimierte Systemfeedback (veränderter Mauszeiger) mit dem Finger verdeckt und dann nicht erkennen kann, ob man das Objekt gerade am Finger hat oder nicht.
  • Einige Anwendungen verwenden zur Anzeige von Informationen scrollbare Fensterbereiche in denen verschiebbare Objekte angezeigt werden (z.B. Outlook). Mit der Maus ist das unproblematisch, da der Klick auf dem Objekt zum Verschieben und das Scrollrad der Maus zum Scrollen verwendet wird. Da mein Finger weder klickt noch ein Scrollrad hat, kann ich diese Anwendungen nur sehr schwer mit dem Finger bedienen
  • Bedienelemente, bei denen das Mouseover-Event einen wesentlichen Anteil des Verhaltens ausmacht, sind einfach nicht bedienbar. Beispielsweise sind die im Web beliebten Menüs, die sich auf Mouseover öffnen und man dann mit dem Mauszeiger innerhalb des aufgeklappten Menüs einen Unterpunkt auswählt mit dem Finger nicht nutzbar.
  • Der Metro-Teil von Windows 8 ist für kleine Touchscreens gemacht. Auf großen Bildschirmen werden die Schriften so groß, dass sie bei einem normalen Auge-Monitor-Abstand von 50-80 cm schlecht lesbar sind.

Zu meinen Interaktionserfahrungen ist noch anzumerken, dass das Verhältnis von Displaygröße und Auflösung bei meinem Testgerät sehr gut gewählt ist und dadurch im Legacy-Teil von Windows 8 Schriften sowie Abstände „touch-freundlich“ dargestellt werden.

Zusammenspiel zwischen Finger und Tastatur

Finger und Tastatur ergänzen sich grundsätzlich prima. Da der Weg mit dem Finger von der Tastatur zum Bedienelement gefühlt zwar kürzer, aber auch etwas anstrengender ist, als der Weg mit der Hand von der Tastatur zur Maus und dann mit der Maus zum Bedienelement, bekommt die Tastatursteuerung eine höhere Bedeutung.
Meine gefühlte Toleranz gegenüber Eingabefehlern ist bei der Eingabe mittels Finger deutlich geringer als mit der Maus – heißt: was nicht gleich mit dem Finger bedienbar ist nervt schneller als bei der Maus. Das bedeutet, dass man sich bei der Oberflächengestaltung intensiv um Tastenkürzeln, Tab-Verkettungen und eine sinnvolle Steuerung des Fokus auf den Bedienelementen kümmern muss.

Reaktionszeit und Systemfeedback

Reaktionszeit und Systemfeedback bekommen bei Touchinteraktionen eine deutlich höhere Bedeutung. Dies ist vor allem dann besonders wichtig, wenn man auf Systemen arbeitet, die nicht zu 100% touchfähig sind. Ist die Reaktionsszeit zu lang, kommt Unsicherheit auf, ob das Gerät meine Toucheingabe nicht erkannt hat, ich daneben „getoucht“ habe oder die Software mit meinem „Touch“ nichts anfangen kann. In der Regel ist das Ergebnis das Gleiche: man „toucht“ mehrfach auf das Bedienelement.

Fazit

Ich glaube auch, dass die Bedienung mittels Finger und Stift eine richtig große Sache ist bzw. wird. Allerdings sind die meisten Anwendungen noch nicht wirklich gut auf diese Form der Interaktion ausgerichtet. Im Großen und Ganzen kann man die meisten Anwendungen erstaunlich gut mit dem Finger bedienen. Die zahlreichen kleinen Unwägbarkeiten des Betriebssystems und der Anwendungen führten jedoch dazu, dass ich relativ schnell immer wieder zur Maus gegriffen habe. Nicht etwa weil Touch körperlich zu anstrengend war, sondern weil die die Anwendung meine Fingereingaben entweder komplett ignoriert hat bzw. ich mit dem Finger einige Eingaben mehrfach wiederholen bzw. korrigieren musste, bis sie richtig waren.
Außerdem fehlt meinem Lenovo Ideacentre die entscheidende Fähigkeit präzise auf Stifteingaben zu reagieren. Ich habe drei unterschiedliche Stifte probiert (Wacom Bamboo, Adonit Jot Pro und einen billigen iPad-Stift). Das Display ist aber dafür einfach nicht ausgelegt. Es ist nicht möglich saubere Linien zu zeichnen. Die Kombination von Finger, Stift und Tastatur ist aber genau die, die ein sinnvolles Arbeiten im Businessbereich ermöglicht. Diese vereint das Beste aus digitaler und analoger Welt. Für mich fühlte sich die Interaktion mittels Finger und Stift trotz der Einschränkungen so an, als ob ich damit deutlich freier und kreativer arbeiten kann, als mit der Maus. Schade nur, dass das noch nicht alle Hardwarehersteller erkannt haben.
Anders als angenommen, hält sich die körperliche Belastung bei der Bedienung mittels Finger bei geeigneter Anordnung von Tastatur und Bildschirm sehr in Grenzen. Einzig der gefühlt längere und etwas kraftintensivere Weg von der Tastatur zum Bedienelement macht einen spürbaren Unterschied.
Wenn wir es also schaffen Stift und Finger sinnvoll zu kombinieren, die neuen Körperhaltungen bei der Gestaltung zu berücksichtigen, unsere Anwendungen durchgängig auf Fingereingaben reagieren und vollständig per Tastatur bedienbar sind, steht einem kreativeren digitalen Arbeiten auch im Businessbereich nichts im Weg.

Siehe auch

BITKOM: Tablet Computer drängen in die Berufswelt