Adapting UX Methods for Unfamiliar Contexts #uxstrat

Zach Hyman (Continuum) sprach über die Berücksichtigung des sozialen und kulturellen Kontextes bei der Gestaltung von digitalen Services. Er berichtete aus einem Projekt in dem sie als Agentur beauftragt wurden, für die jordanische Bank NMB einen Weg zu finden, wie Menschen in ländlichen Gegenden Krediten abzahlen können.

Zum Hintergrund des Projektes muss man wissen, dass Jordanier Bargeld lieben. Nur 1,5% der Jordanier haben eine Kreditkarte. Außerdem nutzen viele Featurephones und nur wenige Smartphones. Das konkrete Problem, was zu lösen galt, war die Rückzahlung von Krediten. Menschen, die in ländlichen Gegenden in Jordanien leben, müssen weite Weg zu Banken zurücklegen, um ihre Kredite bar abzuzahlen. Oft beauftragen sie Verwandten oder Freunden das Geld einzuzahlen. Außerdem scheinen sich viele Jordanier schwer zu tun Geld zu sparen, um die Kredite abzuzahlen. 

„We should design the behavior, rather than the product.“

Durch intensive Beobachtung des Nutzungsverhaltens von Kreditnehmern und des Nutzungskontextes entwickelten sie ein entsprechendes Konzept. Sie beobachteten, dass Menschen zum einen ein sehr vertrauensvolles Verhältnis zu ihren lokalen Händlern haben. Außerdem beobachteten sie, dass viele Menschen ein „Hassalah“ – eine Art jordanisches Sparschwein – zum Ansparen verwenden. Mttels Prototypen entwickelten sie einen Service, bei dem lokale Händler die Aufgaben von Bankschaltern übernahmen und mittels einer mobilen App die Kreditrückzahlungen abwickeln. Bei Bedarf kann bei jedem Einkauf entweder der komplette Kreditbetrag oder auch nur ein kleiner Teil eingezahlt werden – wie beim Sparschwein.

Neben den Projektergebnissen hob er hervor, wie wichtig es für Agenturen ist, Empathie für ihre Kunden und deren Kontext zu entwickeln. Auch wenn Agenturen wegen ihrer Expertise eingekauft werden, so müssen sie zuerst verstehen, wie und in welcher Umgebung ihre Kunden arbeiten. Wenn der Kunde darüberhinaus in einem anderen kulturellen Umfeld lebt als die Agentur, ist es wichtig ein lokales Team zu haben, was direkt vor Ort im gleichen kulturellen Kontext arbeitet und sich mit den lokalen Gepflogenheiten auskennt.

You are only as goog as your local team.

Siehe auch

Prototyping invisionapp.com

Experience Strategy for Digital Conversations #uxstrat

Gregory Ek (ING) sprach in seinem Vortrag über die Gestaltung von digitalen Konversationen zwischen Menschen und Maschinen. Ausgangspunkt seines Vortrags war, dass Banken sich heute im Wesentlichen über das Kundenerlebnis differenzieren können. ING sieht Chatbots bzw. digitalen Assistenten ein Weg, um das Kundenerlebnis zum Alleinstellungsmerkmal zu machen.

„A conversation can take you beyond the normal banking experience.“

Er zeigte anhand des Designprozesses für den digitalen Assistenen Inga, was UX Designer beachten sollten, um Conversational UIs zu gestalten, die einen menschlichen Touch haben und auf das Markenerlebnis des Unternehmens einzahlen. Inga ist ein digitaler Assistent, der ING-Kunden mit Banking und den Umgang mit ihren Finanzen helfen soll. 


Für das konkrete Entwicklungsvorgehen für die Gestaltung von Chatbots gab er folgende Tipps:

  • Das richtige Team besteht aus UX Designer, Entwickler, Content-Spezialisten und Markenspezialisten.
  • Im Vorfeld des Projektes sollten die Stärken und Schwächen von existierenden Chatbots analysiert werden.
  • Kollegen, die im Service-Bereich des Unternehmens arbeiten oder Erfahrungen mit Service-Chats haben, sollten als Experten in das Projekt einbezogen werden.
  • Die Konzeption sollte anhand von erlebbaren Prototypen erfolgen, damit die Konversation unter möglichst realen Bedingungen gestaltet werden kann. Inga wurde im Rahmen von Design Sprints und unter Verwendung von Chat fuel (einem Prototyping-Werkzeug) entwickelt. Auf diese Weise konnte schnell ermittelt werden, wie eine Konversation sein muss, um zur Marke zu passen und die Kunden glücklich zu machen.
  • Die Gestaltung der Konversation bzw. des Dialogs (Text) und des visuellen Designs im Messengers erfordert viel Liebe zum Detail.
  • Die Stakeholder des Projektes (inkl. Nutzer) sollten regelmäßig die Fortschritte des Projektes sehen und diskutieren können.
  • Es ist wichtig eine realistische Roadmap zu entwickeln. Es sollte nicht nur darum gehen eine Vision zeigen, was möglich wäre, sondern auf Basis aktuell verfügbarer Technologien, ein realistisches Bild zu vermitteln.

Für die konkrete Gestaltung von Chatbots gab er folgende Tipps:

  • Empathie: Bots haben zwar keine empathischen Fähigkeiten. Sie sollten aber zumindest Reaktionen zeigen, die als empathisch wahrgenommen werden. Beispielsweise könnte der Bot einem Kunden, der gerade seine verlorene Karte meldet, sagen: „Machen Sie sich keine Sorgen. Ich sperre die alte Karte und schicke ihnen eine Neue.“
  • Contexual ending: Am Ende jedes Gespräches sollte der Bot den Kontext des Gespräches nutzen, um zu zeigen, dass er den Kontext des Anwenders kennt und so eine emotionale Verbindung herzustellen. Wenn ein Kunde beispielsweise seine Karte auf eine Ferienreise verloren hat, könnte der Bot das Gespräch nach der Problemlösung mit einem Satz wie „Ich hoffe, dass Sie weiterhin eine gute Reise haben.“ beenden.
  • Vertrauen: Konversationen mit Chatbots können auf verschiedenen Kanälen beginnen. Wenn es vertraulich wird, müssen diese Diskussionen dann aber in eine sicheren Umgebung überführt werden.
  • Micro-Surprises: Kleine positive Überraschungen wie Emojis, Animationen oder Komplimente machen die Konversation menschlicher.

Developing a Multi-Channel Banking Experience #uxstrat

David Ruiz Martinez (Orange Bank) berichtet von einem Innovationsprojekt namens „Orange Bank“. Orange Bank ist kein echtes Unternehmen. Es ist der Versuch einer echten Bank und eines echten Telekommunikationsunternehmens eine neue Banking Experience von Grund auf neu zu konzipieren und umzusetzen. Ein Team von UX Designern, Entwicklern und Anwendern bekam 522 Tage, um in einem agilen Vorgehen auf der grünen Wiese eine neue globale Bank für die Bedürfnisse moderner, mobiler und digitaler Menschen zu erfinden. Das Vorgehen war dabei aus Designsicht natürlich State-of-the-art. Sie benutzten alles, was der aktuelle Methodenbaukasten des UX Designs hergibt. (z.B. Customer Journey, Experience Maps, Agile UX Testing, Mobile First, …) Spannend fand ich die Art und Weise, wie sie dabei Anwender in die Konzeption integriert haben:

Die aktuell fiktive Bank soll in ca. einem Monat veröffentlicht werden. Es wird spannend sein zu sehen, ob die so sorgfältig konzipierte Bank eine erfolgreiche Bank wird. Auch wenn das Vorgehen aus theoretischer Sicht sicherlich vorbildlich war, so fehlt eine wesentliche Komponente … nämlich das natürliche Wachstum einer Idee in der Praxis. Ich habe die Erfahrung gemacht, dass Ideen, die in einem zu großem Umfang und zu Perfekt in einer künstlichen Umgebung konzipiert wurden, daran leiden, dass die Konzepte zu viele Dinge enthalten, die im Detail in der Praxis nicht funktionieren oder gar von einem Problem ausgehen, was in der Praxis nicht oder anders existiert. Man kann versuchen dieses Problem durch intensives User Research zu verringern. Wenn Ideen aber in bestehenden großen Unternehmen konzipiert werden, wirken die Mechanismen dieser Unternehmen bzw. Systeme (z.B. Politik, Zielkonflikte, bestehende Prozesse und Kenntnisse oder persönliche Karriereinteressen) auf diese Ideen ein und sorgen so dafür, dass nicht alle Erkenntnisse adäquat umgesetzt werden können. Bei Ideen, die dagegen von einem kleinen Kern ausgehend Schritt für Schritt im echten Leben zu einem großen erfolgreichen Angebot gewachsen sind, musste dieser Balast durch Trail and Error abgeworfen und die Idee immer weiter verfeinert werden, da die Ideen es ansonsten nicht zum Erfolg geschafft hätte.

In seinem Vortrag verwendete er ein sehr schönes Zitat, welches ich Euch nicht vorenthalten möchte:

„Start designing without a previous User Research is like getting married without knowing the bride. At least consider taking a coffee before.“ David Ruiz

Das Ergebnis könnt ihr Euch hier ansehen:
Orange Bank, the bank for right now

Designing Intelligence into Everyday Life #uxstrat


Paul-Jervis Heath (Modern Human) eröffnete die diesjährige UXSTRAT mit seinem Vortrag zur Integration von Mensch und Maschinen. UX Designer verstehen es heute die aktive Bedienung von Produkten zu gestalten. Dabei geht es oft um User Interfaces, welche den Anwender auffordern etwas zu tun (Siehe Normans „Affordance“-Begriff).

Embedding technology into our environment changes our relationship with that technology, that environment and with each other.

Mit der Integration von Technologie in das menschliche Leben, wird diese gleichzeitig unsichtbarer. Der Aufforderungscharakter von User Interfaces geht mit dieser Entwicklung verloren. Anwender müssen wieder neu lernen, wie sie mit dieser neuen Technology interagieren. Er sieht aktuell drei Hauptmotivationen für Menschen auf diese neue Technology aufzuspringen. Erstens, um darüber zu zeigen, wie modern sie sind. Zweitens um damit zu experimentieren. Drittens, weil es finanzielle oder zeitliche Vorteile bringt.

Für UX Designer von integrierten Technologien ist es wichtig, sich damit auseinander zu setzen, welche Auswirkungen die neue Technologien und deren Integration auf das Leben der Anwender hat. UX Designer müssen sich deutlich mehr mit den Nutzungskontexten auseinandersetzen, um eine positive User Experience zu erreichen. Dadurch können Erlebnisse wie dieses vermieden werden: Das Baby wurde gerade mit viel Liebe zum Einschlafen gebracht hat. Um jetzt das Licht auszumachen, flüstert der Papa zu Alexa „Psst. Alexa, mach das Licht aus.“ und Alexa antwortet in voller Lautstärke „Welches Licht soll ich ausschalten“. Auch wenn es süß ist in die aufgeweckten Augen eines Babys zu schauen, war das in dieser Situation sicher nicht das Ziel.

Um in dieser grundlegenden Veränderung erfolgreiche Produkte gestalten zu können, ist es für UX Designer von zentraler Bedeutung sich noch mehr mit dem „Warum“ von Tätigkeiten zu beschäftigen … also damit, warum Menschen bestimmte Dinge in einer bestimmten Art und Weise tun. Es geht um das tiefe Verständnis von Vorgängen, Absichten und Problemen, um dadurch Ideen für neue erfolgreiche Produkte und Service zu entwickeln. Außerdem ist es für ihn wichtig die komplette User Journey zu erfassen und zu visualisieren. Die Situation und die Umständen in der bzw. unter den User Journeys beginnen, sind der Schöüssel zur Beantwortung der Frage nach dem „Warum“. Dazu setzt er in seiner Praxis auf klassische Methoden wie Tagebuch-Studien, Shadowing und Experience Mapping. Er verdeutlichte dies anhand von zwei Showcases zu Küchengeräten und Shopping.

Im Fazit seines Vortrags resümierte er: Die Digitalisierung ist heute oft technologie-getrieben. Er empfiehlt UX Designern die menschlichen Bedürfnisse und Emotionen anstelle der Technologie in den Vordergrund zu stellen. Es darf nicht nur um Effizienz gehen. Um eine erstrebenswerte Zukunft zu bauen, sollten Dinge wie Emotionen, soziale Beziehungen, menschliches Zusammenleben und Menschlichkeit im Mittelpunkt der digitalen Veränderung stehen.

Right now it feels like there is a technology looking for a problem.

Zwei Tage UX Strategy in Amsterdam #uxstrat


Ich bin in den nächsten zwei Tagen auf der ausverkauften UXSTRAT in Amsterdam. Ich freue mich auf 2 Tage vollgepackt mit spannenden Vorträgen zu UX Strategy, Organisationsveränderung, Innovation und Best Practices. Das Programm klingt in diesem Jahr sehr praxisnah. Im Gegensatz zu letztem Jahr habe ich das Gefühl, dass deutlich mehr Praktiker aus Unternehmen von ihren Erfahrungen berichten werden. 

Wie immer werde ich an dieser Stelle versuchen, die interessanten Beiträge einzufangen und möglichst live zu bloggen. Stay tuned 🙂

Conversational UX – Von Chat bis Bot, von GUI bis VUI #bitkom #uux

Die heutige Sitzung des BITKOM AK Usability und User Experience fand in den schön gelegenen Räumlichkeiten von Microsoft am Rheinufer in Köln statt. Thematisch ging es um eines der Trendthemen des Jahres 2017 – Conversational User Interfaces. Wie immer will ich an dieser Stelle versuchen Euch einen Eindruck von der Veranstaltung zu geben und die wichtigsten Erkenntnisse zusammenzufassen. 

Chatty Devices – Sascha Wolter, Deutsche Telekom

Sascha eröffnete den Tag mit einer amüsanten Einleitung zum Thema Conversational UX. Wie üblich bediente er sich dabei seiner persönlichen Dauerfokusgruppe (n=3) um Erfahrungen mit sprachlichen User Interfaces zu sammeln. Die Beobachtung seiner familiären Testgruppe ergab, dass sich Menschen trotz anfänglicher Skepsis so schnell an die Konversation mit Maschinen und an die Steuerung mittels Sprache bedienen, dass sie sich mit der alten Welt der manuellen Schalter schwer tun. Dieser Umstand macht sich auch in der zunehmenden Menge an verfügbaren Geräten bemerkbar. Immer mehr Hersteller drängen mit Sprachassistenten auf den Markt, um so ihre Ökosysteme näher in die Alltagswelt der Anwender zu integrieren.


Aus seinen bisherigen Erfahrungen schloss er, dass sich Unternehmen, die sich jetzt nicht mit sprachlichen User Interfaces beschäftigen, mit hoher Wahrscheinlichkeit einen wichtigen Zugangskanal zu Ihren Kunden verlieren werden. Es wird dabei aber nicht so sein, dass sprachliche User Interfaces graphische User Interfaces komplett ersetzen. Vielmehr werden sie je nach Kontext eine Ergänzung bieten. Wir werden in naher Zukunft multimodale Ein- und Ausgabemedien nutzen, um mit Maschinen zu interagieren.

Does mouse and monitor soon become a thing of the past?

Das schöne an Saschas Vorträgen ist, dass er es vor aller Begeisterung für die neue Technologie und Möglichkeiten immer auch versteht eine kritische und differenzierte Sicht auf neue Dinge zu werfen. So beschäftigte er sich natürlich auch mit den Schattenseiten von Sprachassistenten wie Cortana, Alexa und Google Home. Auch wenn oft behauptet wird, dass diese Sprachassistenten das Leben der Nutzer ausspionieren, gibt es zumindest in Deutschland klare rechtliche Grenzen um dies zu verhindern. (Siehe §90 Telekommunikationsgesetz) So ist der Besitz und Betrieb von Geräten, die ohne des Wissens der Anwender aufnehmen und senden verboten. Alle am Markt verfügbaren Geräte dürfen sich daher nur nach dem Sagen eines Wake Words (z.B. „Alexa“) oder einem expliziten Knopfdruck mit den dahinterliegenden Cloudservice verbinden. Entwickler, die sich mit sprachlichen User Interfaces befassen, dürfen nicht nur den technischen Fortschritt im Auge behalten, sondern sie müssen sich auch intensiv damit beschäftigen was die Verwendung dieser Technologie für seine Anwender aus ethischer und moralischer Sicht bedeuten kann. Eltern stehen heute vor der Herausforderung den Umgang mit sprachlichen UIs und künstlicher Intelligenz ihren Kindern zu vermitteln. (Siehe moralmachine.mit)

Auch wenn sich sprachliche User Interfaces in einer atemberaubenden Geschwindigkeit im Monatsrythmus weiterentwickeln, so ist die Thematik nicht neu. Für die Gestaltung von Conversational UIs verwies auf Grundlagenliteratur aus dem Jahr 1975, wie z.B. Grice’s Maxims. Eine der großen Herausforderungen bei der Gestaltung ist die Persönlichkeit von sprachlichen Interfaces. Wenn es nicht gelingt die Persönlichkeit eines Sprachassistenten authentisch und natürlich zu gestalten, landet man schnell im Uncanny Valley. Der Persönlichkeit von Sprachassistenten sollte daher eine hohe Aufmerksamkeit zu teil werden. (Siehe Cortana vs. Siri) Außerdem empfahl er die Gestaltung an den Richtlinien der Hersteller zu orientieren (z.B. Design Checklist von Google)

Create more personal computing – Malte Lantin, Microsoft

Malte Lantin gab in seinem Vortrag einen Einblick in die Sichtweise von Microsoft auf sprachliche User Interfaces. Microsoft versteht Konversationen als eine neue Plattform für die Mensch-Maschine-Interaktion. Sie unterscheiden dabei zwischen digitalen Assistenten, wie z.B. Cortana und Bots. Bots sind nach Microsoft-Sichtweise wie Apps, in denen die Funktionen angeboten werden. Digitale Assistenten sind Meta-Apss, die lediglich eine natürliche Brücke zwischen Mensch und Bot schlagen.

Human language is the new UI.

Microsoft-typisch ging er in einer kleinen Tech-Demo auf die techn. Möglichkeiten des Microsoft Bot Framework, der Cognitive Services und Microsofts Luis.ai ein. Außerdem stellte er den QnA-Maker vor mit dem sich aus FAQ einfache Chatbots erzeugen lassen.

Wer Bequemlichkeit beim Einkaufen schätzt, der wird den Amazon Echo lieben. – Thorsten Wilhelm, eResult

Thorsten Wilhelm stellte die Ergebnisse einer Studie (n=5) vor, in der das Nutzungserlebnis mit Amazon Echo untersucht wurde. Die Studie wurde durchgeführt, weil er durch die 300 Mio aktiven Amazon-Kunden und schon heute über 400.000 Echo-Geräten in Deutschland großes Potential für Amazon Echo sieht. Er sieht es als den Weg für Unternehmen ihre Dienste enger in den Alltag der Anwender zu integrieren. Aber auch bei dieser Technologie gilt: „Nicht irgendwas machen, nur um auch dabei zu sein.“. Um erfolgreich zu sein, gilt es herauszufinden, welchen echten Nutzen diese Interaktion stiften kann.

„Wir stellten fest, dass Amazon Echo („Alexa“) recht schnell in den Alltag integriert wird, neue Rituale entstehen und sich der Umgang mit anderen Geräten und auch die Kommunikation mit dem Partner und der Familie verändern.

Die Studie ist kostenlos auf der eResult-Webseite verfügbar.

Alexa Development: einmal API und zurück, bitte – Christoph Jerolimov


Wie der Titel des Beitrags schon andeut, führte Christoph Jerolimov die Teilnehmer anhand der beiden Alexa-Skills mobilecologne und Kino Bonn an die Implementierung von Alexa-Skills mit dem Alexa Skills Kit heran. Er erläuterte die technischen Grundprinzipien und zeigte Ausschnitte aus dem Programmcode der beiden Skills.

Es könnte aber alles so einfach sein, isses aber nich – Ulrich Leschak, Peter Behrens School of Art Düsseldorf


Ulrich Leschak – seines Zeichens Lehrbeauftragte für Kommunikationsdesign der Peter Behrens School of Art Düsseldorf – beschäftigte sich in seinem Beitrag mit dem Thema Einfachheit. Er betrachtet die Entwicklung der Sprachassistenten eingangs recht kritisch. Aus seiner Sicht führen sie dazu, dass die Menschen nicht mehr zu sich selbst finden. Die zahlreichen Geräte lenken sehr vom Leben ab und stören, wenn sie schlecht gestaltet sind. 

Wenn man weiß wie es geht, ist alles einfach. – Ulrich Leschak

Zu Einfachheit sagte er: Einfachheit ist eine Illusion, die schwer zu erzeugen ist. Einfachheit hängt immer vom Betrachter ab. Einfachheit ist eine Kunst und erfordert manchmal Besessenheit bei der Suche nach der einfachsten Lösung. Natürlich zitierte er in diesem Zusammhang auch die Laws of simplicity von Maeda.

Mit Blick auf die sprachliche User Interfaces plädierte er für einen verantwortungsvollen Umgang mit dieser Technologie. Entwickler müssen sich bewusst sein, welche emotionale Kraft  dieser Technologie innewohnt und welche Auswirkungen ein unbedachter Einsatz auf die Menschen haben kann.

Prototyping Conversations – Johannes Baeck, usability.de

Im letzten Vortrag des Tages ging Johannes Baeck auf die nutzerzentrierte Gestaltung von Conversational UI ein. Er berichtete aus einem Praxisprojekt mit welchen Methoden usability.de in den unterschiedlichen Projektphasen arbeitetet, um Konversationen zu konzipieren. 


So setzten sie in der Forschungsphase des Projektes beispielsweise auf Contextual Interviews in den Räumlichkeiten der Anwender, um den Kontext besser zu verstehen, in dem die Konversation stattfindet. Weiterhin erhoben sie Fragen, die Anwender in der Konversation mit der Maschine stellen wollen und welcher Modus (Screen, Sprache oder beides) für die Konversation am besten geeignet ist. In der Strategiephase verwendeten sie Experience Maps, um die Konversation im Gesamtkontext des Use Cases einordnen zu können und gemeinsames Verständnis im Team für den Umfang des Use Cases zu entwickeln. 

Personality allows people to know how to behave towards others and what to expect in return. – Wired for Speech, Clifford Nass & Scott Brave

Die Persönlichkeit des Bots gestalteten sie anhand von Bot-Personas. In diesen speziellen Personas wurden insbesondere Wertversprechen, Interaktionsprinzipien und Persönlichkeiten definiert. Auf diese Weise entstanden die Richtlinien für das Verhalten des Bots. In der Designphase bauten sie mittels Papier oder Sayspring – einem Prototyping-Tool für Alexa Skills – Prototypen und evaluierten Konversationen mit der Wizard-of-Oz-Methode.

Neues aus dem AK UUX

Neben der Ankündigung, dass der nächste AK UUX im Oktober bei DATEV in Nürnberg stattfinden wird, gab es auch erfreuliche Nachrichten. Der bitkom-Leitfaden „Usability & User Experience – Software näher zum Nutzer bringen“ ist endlich verfügbar. Der Leitfaden zeigt Best Practices aus dem Bereich User Experience für Unternehmen auf und gibt Entscheidungshilfen zur Auswahl und zum Einsatz von Methoden sowie Vorgehensweisen.

Human Computer Integration – wie Menschen und Maschinen zusammenwachsen

Die CHI 2017 hatte noch gar nicht richtig angefangen, da stach bereits ein großes Trendthema aus der Masse der zahlreichen Paper, Panels und Sessions hervor: Human Computer Integration. Der Begriff selbst geht auf eine Veröffentlichung von Umer Farooq und Jonathan T. Grudin in der ACM-Publikation „Interactions“ aus dem Dezember 2016 zurück. 

Das Zusammenspiel von Mensch und Maschine hat sich in den letzten 50 Jahren nicht dramatisch verändert. Bisher war es immer der Mensch, der der Maschine gesagt hat, was zu tun ist – anfangs über Lochkarten bzw. -streifen später über Maus und Tastatur. Der Mensch hat durch ein Loch, durch einen Klick auf einen Button oder eine Texteingabe gesagt, was zu tun ist. Die Maschine hat es getan und dann auf den nächsten Befehl des Menschen gewartet. Seit einigen Jahren ist aber Bewegung in das Zusammenspiel zwischen Mensch und Maschine gekommen. Die Eingabemöglichkeiten haben sich durch die Weiterentwicklung von Sensorik und Algorithmen ständig erweitert. Es kamen Eingaben über Berührung, Sprache und Gehirnwellen dazu. Wir können heute digitale Systeme beobachten, die nicht mehr auf die Eingabe eines Menschen warten. Diese Maschinen sind so gebaut, dass sie Kontextinformationen sammeln und diese in Kombination mit Eingaben des Menschen bringen. Es sind digitale Systeme, die ihre Arbeit im Hintergrund ohne direkte Aufforderung eines Menschen tun. 

Und genau darum geht es bei Human Computer Integration. Der Begriff beschreibt die nächste Ära nach Human Computer Interaction. Ein Ära in der Mensch und Maschine zusammenwachsen und partnerschaftlich zusammenarbeiten. Digitale Maschinen arbeiten in Zukunft, über die heute zu beobachtende Assistenz hinaus, viel mehr im Hintergrund, übernehmen Routinetätigkeiten, beobachten und bereiten Handlungsmöglichkeiten vor und handeln vorausschauend. Dies bedeutet eine große Veränderung für die Art und Weise, wie wir diese Maschinen gestalten. Die Sichtweisen, Methoden und Best-Practices der Disziplin „Human-Computer-Interaction“ sind dafür nicht mehr ausreichend. Es genügt nicht mehr einen verständlichen, effizienten und effektiven Weg anzubieten, Maschinen zu sagen, was sie tun müssen. Wir müssen lernen die „partnerschaftliche“ Zusammenarbeit zwischen Mensch und Maschine zu gestalten – also die Integration von Maschinen in den menschlichen Alltag. An dieser Stelle muss unbedingt erwähnt werden, was „partnerschaftlich“ in diesem Zusammenhang bedeutet. Damit ist keineswegs eine Partnerschaft mit den Qualitäten einer menschlichen Beziehung, wie z.B. Freundschaft oder Liebe, gemeint. Es geht vielmehr um partnerschaftliche Zusammenarbeit, wie man sie im Dienstleistungs- oder Arbeitsumfeld findet. Das Potential was in dieser Zusammenarbeit steckt, ist immens. Menschen und Maschinen werden noch eine lange Zeit über unterschiedliche Fähigkeiten verfügen. Die Kombination dieser unterschiedlichen Fähigkeiten wird neue Möglichkeiten für die Entwicklung der Menschheit bieten. Sie wird Unternehmen maßgeblich dabei helfen im wirtschaftlichen Wettbewerb bestehen zu können.

Consider the engagement as an ongoing partnership. – Farooq & Grudin

Human Computer Integration bedeutet aber nicht nur, dass sich die digitalen Systeme „partnerschaftlich“ in das Leben ihrer Nutzer integrieren. Da die Möglichkeiten der künstlichen Intelligenz heute noch in den Kinderschuhen stecken, brauchen solche Systeme ein menschliches Backup bzw. menschliche Trainer. Künstliche Intelligenz braucht Menschen im Hintergrund, welche die Unzulänglichkeiten der Algorithmen ausgleichen und das System trainieren. KI braucht quasi Eltern, welche auf eine gute Erziehung achten.  In den Beiträgen der CHI, u.a. von Microsoft Research und Google, klang immer wieder durch, dass viele Micro- und Marcrotasker heute im Hintergrund von automatisierten Systemen arbeiten. Microtasker kümmern sich dabei um die einzelnen Fälle, bei denen die KI nicht weiterweiß, und trainieren den Algorithmus. Macrotasker haben den gesamten UseCase im Blick und klären größere Eskalationsfälle. Das ist u.a. einer der Gründe, warum die amerikanischen Unternehmen heute so schnell sind. Sie ergänzen ihre künstliche Intelligenz durch Crowdsourcing, Microtasker und Macrotasker. Das hat neben dem Geschwindigkeitsaspekt noch den Charme, dass die Unternehmen so schneller lernen, was ihre KI noch alles lernen muss. Ich habe den Eindruck bekommen, dass 70-80% der heutigen Arbeit in solchen digitalen Systemen durch künstliche Intelligenz und 20-30% durch Menschen erledigt wird … und dass dies noch eine ziemlich lange Zeit so bleiben wird.

Als Beispiel für ein integierte digitales System, welches sich dieses Vorgehen zu nutze macht, könnte man UBER sehen. Das System UBER bietet heute ein sehr angenehme und einfache Art der persönlichen Mobilität. Das System UBER nutzt dabei die vorhandenen Privat-PKWs samt Fahrer und kombiniert es mit komfortablen Mechanismen für das Bestellen und Bezahlen. Betrachtet man UBER aus der Perspektive von Human-Computer-Integration, sticht besonders die Integration der menschlichen Fahrer in das System hervor. Im Grunde würde UBER die Fahrer gar nicht brauchen, wenn die Autos intelligent genug wären und selbst fahren könnten. Die UBER-Fahrer helfen dem digitalen System UBER die Dienstleistung anzubieten. Sobald Autos selbst fahren können, müssen UBER-Fahrer nicht mehr fahren, um Geld zu verdienen. Es genügt dann, ihr privates Fahrzeug für die UBER-Nutzung „freizugeben“.

In gewisser Weise ist diese Erkenntnis auch beruhigend. Intelligente Systeme werden zwar einige Jobs tatsächlich ersetzen. Sie werden aber noch lange ein Human Backup und menschliche Trainer benötigen. Die Menschen, die heute mit Tätigkeiten wie dem Erfassen von Daten, dem Umwandeln oder Überprüfen von Daten beschäftigt sind, sind die zukünftigen Microtasker und Macrotasker der künstlichen Intelligenz. Natürlich werden diese Jobs nicht den gleichen Wohlfühlfaktor haben, wie es auf der Seite der Anwender dieser digitalen Systeme der Fall ist. Menschen, die als Human Backup in intelligenten Systemen arbeiten, werden durch diese getaktet arbeiten. Sie werden ein stückweit zu Dienern der KI.

Die heutigen Datenerfasser und Datenüberprüfer werden das zukünftige Human Backup der künstlichen Intelligenz.

Die zahlreichen Diskussionen auf der CHI haben gezeigt, wie kritisch, ja fast schon eifersüchtig, diese Entwicklung gesehen wird. Es wird befürchtet, dass die künstliche Intelligenz zur Konkurrenz für die Menschen wird.

Respect and value what it means to be a human. – Ben Shneiderman

Aus meiner Sicht ist es zu spät darüber zu diskutieren, ob wir diese Entwicklung so wollen. Sie passiert bereits und lässt sich nicht mehr aufhalten. Ich glaube, dass wir Menschen alles das, was wir heute in der Natur erleben, irgendwann künstlich nachbauen können – bis hin zum menschlichen Gehirn. Es ist nur eine Frage der Zeit, bis wir die Mechanismen dahinter gut genug verstanden haben. Ich glaube, dass wir in sehr ferner Zukunft Maschinen nutzen werden, die über menschliche Fähigkeiten verfügen. So lange mit solchen Entwicklungen Reichtum und/oder Ansehen erlangt werden kann, wird es Menschen geben, die daran forschen und dies realisieren. Das wird aber nicht über Nacht passieren. Wenn ich mir so anschaue, was sich in den letzten 50 Jahren verändert hat, so wird das noch Jahrzehnte, wenn nicht Jahrhunderte dauern. 

Anstatt das „Ob“ zu diskutieren, müssen wir uns die Frage stellen, wie wir diese Entwicklung zum Wohle der gesamten Menschheit nutzen können. Wir müssen darüber reden, wie alle Menschen Zugang zu solchen Technologien bekommen. Wir müssen diskutieren, wie wir sicherstellen, dass diese Technologien friedlich genutzt werden. Wir müssen Kontrollmechanismen und Zertifizierungen für künstliche Intelligenz und deren Algorithmen schaffen, um Missbrauch zu verhindern. Wir müssen darauf achten, dass Menschen trotz Human-Computer-Integration und Automatisierung die notwendigen Fähigkeiten erlernen und die notwendige Aufmerksamkeit bewahren können, um die Arbeit der intelligenten Systeme einschätzen und ggf. verbessern zu können.

Siehe auch
Human-computer integration