Kategorie-Archiv: Ideas / Innovation

Disability Mainstreaming #muc17

Der zweite Konferenztag der Mensch und Computer beginnt mit einer inspirierenden Keynote von Raúl Aguayo-Krauthausen (Sozialhelden) über Innovationen, UX und Inklusion mit vielen interessanten Denkanstößen:

Der größter Erfinder ist immer der Anwender selbst. – Raúl Krauthausen

Es genügt nicht eine Idee zu haben. Man muss sie auch umsetzen wollen. – Raúl Krauthausen

Ein Sportler weiß, warum er verloren, aber nicht warum er gewonnen hat. Man lernt aus Niederlagen mehr als aus Siegen. – Raúl Krauthausen

Der Vortrag ist sehr sehenswert und auf youtube verfügbar:

Immer besser – Perspektivenwechsel mit Tradition #muc17

Tim Schneidermeier (USEEDS), Jennifer Keisker (Miele) und Martin Proft (USEEDS) zeigten am Fallbeispiel „Miele“ wie Traditionsunternehmen in sich ständig ändernden Märkten und bei sich ändernden Kundenerwartungen trotz ihrer Größe und Reife immer einen Schritt „voraus bleiben“ können.

Etablierten Unternehmen, denen es richtig gut geht, tendieren dazu, durch das Festhalten an Bestehendem den Grundstein für Ihren Untergang zu legen. Miele gehört zu den etablierten Unternehmen, denen es richtig gut geht. Damit das so bleibt, will sich Miele zukünftig durch einen Innovationsprozess und Leuchtturmprojekte beweglich halten. Der Innovationsprozess basiert auf dem Design Thinking-Ansatz und wird durch die Designer von Miele getrieben. Designer bei Miele gestalten ganzheitlich die Customer Experience – von der Kaufentscheidung über die Produktnutzung bis zur Verschrottung. Der Innovationsprozess wird aktuell innerhalb von Miele über Schulungen platziert. Leuchtturmprojekte zeigen innovative Lösungsideen. Die Leuchttürme entstehen beispielsweise in dreiwöchigen Designsprints und werden bei Miele über Präsentationen und Hausmessen kommuniziert.

In der Zukunft ankommen – die nächste Generation von User Research #muc17

Theo Held, Clarissa Götz und Ramona Winkler (SAP) stellten in ihrem Beitrag u.a. die Methode „Zukunftswerkstatt“ am Beispiel eines persönlichen digitalen Assistenten vor. Die Methode „Zukunftswerkstatt“ dient der Generierung von Lösungsideen für gesellschaftliche Probleme. Die Methode wurde in den 1960er Jahren von Robert Jungk, Rüdiger Lutz und Norbert R. Müllert entwickelt und z.B. für die Stadtplanung eingesetzt.

Die Methode besteht aus drei Phasen „Kritik“, „Fantasie“ und „Verwirklichung“. In der „Kritik“-Phase werden Kritikpunkte zu einem gewählten Thema gesammelt. In der „Fantasie“-Phase werden Ideen für die fantasievolle Umgestaltung der Gegenwart entwickelt. Kritik ist in dieser Phase nicht erlaubt. In der „Verwirklichungsphase“ wird dann der Realitätscheck unter dem Einbezug von Experten gemacht.

Die „Zukunftswerkstatt“ bietet einen groben Rahmen für die Ideenentwicklung und basiert auf einer ähnlichen Mechanik, wie andere Kreativitätstechniken. Die Methode ist in bestimmten Kreisen so etabliert, dass sich seit 1987 Moderatoren der Zukunftswerkstätten in Selbstorganisation an wechselnden Orten jährlich treffen.

Human Computer Integration – wie Menschen und Maschinen zusammenwachsen

Die CHI 2017 hatte noch gar nicht richtig angefangen, da stach bereits ein großes Trendthema aus der Masse der zahlreichen Paper, Panels und Sessions hervor: Human Computer Integration. Der Begriff selbst geht auf eine Veröffentlichung von Umer Farooq und Jonathan T. Grudin in der ACM-Publikation „Interactions“ aus dem Dezember 2016 zurück.

Das Zusammenspiel von Mensch und Maschine hat sich in den letzten 50 Jahren nicht dramatisch verändert. Bisher war es immer der Mensch, der der Maschine gesagt hat, was zu tun ist – anfangs über Lochkarten bzw. -streifen später über Maus und Tastatur. Der Mensch hat durch ein Loch, durch einen Klick auf einen Button oder eine Texteingabe gesagt, was zu tun ist. Die Maschine hat es getan und dann auf den nächsten Befehl des Menschen gewartet. Seit einigen Jahren ist aber Bewegung in das Zusammenspiel zwischen Mensch und Maschine gekommen. Die Eingabemöglichkeiten haben sich durch die Weiterentwicklung von Sensorik und Algorithmen ständig erweitert. Es kamen Eingaben über Berührung, Sprache und Gehirnwellen dazu. Wir können heute digitale Systeme beobachten, die nicht mehr auf die Eingabe eines Menschen warten. Diese Maschinen sind so gebaut, dass sie Kontextinformationen sammeln und diese in Kombination mit Eingaben des Menschen bringen. Es sind digitale Systeme, die ihre Arbeit im Hintergrund ohne direkte Aufforderung eines Menschen tun.

Und genau darum geht es bei Human Computer Integration. Der Begriff beschreibt die nächste Ära nach Human Computer Interaction. Eine Ära in der Mensch und Maschine zusammenwachsen und partnerschaftlich zusammenarbeiten. Digitale Maschinen arbeiten in Zukunft, über die heute zu beobachtende Assistenz hinaus, viel mehr im Hintergrund, übernehmen Routinetätigkeiten, beobachten und bereiten Handlungsmöglichkeiten vor und handeln vorausschauend. Dies bedeutet eine große Veränderung für die Art und Weise, wie wir diese Maschinen gestalten. Die Sichtweisen, Methoden und Best-Practices der Disziplin „Human-Computer-Interaction“ sind dafür nicht mehr ausreichend. Es genügt nicht mehr einen verständlichen, effizienten und effektiven Weg anzubieten, Maschinen zu sagen, was sie tun müssen. Wir müssen lernen die „partnerschaftliche“ Zusammenarbeit zwischen Mensch und Maschine zu gestalten – also die Integration von Maschinen in den menschlichen Alltag. An dieser Stelle muss unbedingt erwähnt werden, was „partnerschaftlich“ in diesem Zusammenhang bedeutet. Damit ist keineswegs eine Partnerschaft mit den Qualitäten einer menschlichen Beziehung, wie z.B. Freundschaft oder Liebe, gemeint. Es geht vielmehr um partnerschaftliche Zusammenarbeit, wie man sie im Dienstleistungs- oder Arbeitsumfeld findet. Das Potential was in dieser Zusammenarbeit steckt, ist immens. Menschen und Maschinen werden noch eine lange Zeit über unterschiedliche Fähigkeiten verfügen. Die Kombination dieser unterschiedlichen Fähigkeiten wird neue Möglichkeiten für die Entwicklung der Menschheit bieten. Sie wird Unternehmen maßgeblich dabei helfen im wirtschaftlichen Wettbewerb bestehen zu können.

Consider the engagement as an ongoing partnership. – Farooq & Grudin

Human Computer Integration bedeutet aber nicht nur, dass sich die digitalen Systeme „partnerschaftlich“ in das Leben ihrer Nutzer integrieren. Da die Möglichkeiten der künstlichen Intelligenz heute noch in den Kinderschuhen stecken, brauchen solche Systeme ein menschliches Backup bzw. menschliche Trainer. Künstliche Intelligenz braucht Menschen im Hintergrund, welche die Unzulänglichkeiten der Algorithmen ausgleichen und das System trainieren. KI braucht quasi Eltern, welche auf eine gute Erziehung achten.  In den Beiträgen der CHI, u.a. von Microsoft Research und Google, klang immer wieder durch, dass viele Micro- und Marcrotasker heute im Hintergrund von automatisierten Systemen arbeiten. Microtasker kümmern sich dabei um die einzelnen Fälle, bei denen die KI nicht weiterweiß, und trainieren den Algorithmus. Macrotasker haben den gesamten UseCase im Blick und klären größere Eskalationsfälle. Das ist u.a. einer der Gründe, warum die amerikanischen Unternehmen heute so schnell sind. Sie ergänzen ihre künstliche Intelligenz durch Crowdsourcing, Microtasker und Macrotasker. Das hat neben dem Geschwindigkeitsaspekt noch den Charme, dass die Unternehmen so schneller lernen, was ihre KI noch alles lernen muss. Ich habe den Eindruck bekommen, dass 70-80% der heutigen Arbeit in solchen digitalen Systemen durch künstliche Intelligenz und 20-30% durch Menschen erledigt wird … und dass dies noch eine ziemlich lange Zeit so bleiben wird.

Als Beispiel für ein integriertes digitales System, welches sich dieses Vorgehen zunutze macht, könnte man UBER sehen. Das System UBER bietet heute eine sehr angenehme und einfache Art der persönlichen Mobilität. Das System UBER nutzt dabei die vorhandenen Privat-PKWs samt Fahrer und kombiniert es mit komfortablen Mechanismen für das Bestellen und Bezahlen. Betrachtet man UBER aus der Perspektive von Human-Computer-Integration, sticht besonders die Integration der menschlichen Fahrer in das System hervor. Im Grunde würde UBER die Fahrer gar nicht brauchen, wenn die Autos intelligent genug wären und selbst fahren könnten. Die UBER-Fahrer helfen dem digitalen System UBER die Dienstleistung anzubieten. Sobald Autos selbst fahren können, müssen UBER-Fahrer nicht mehr fahren, um Geld zu verdienen. Es genügt dann, ihr privates Fahrzeug für die UBER-Nutzung „freizugeben“.

In gewisser Weise ist diese Erkenntnis auch beruhigend. Intelligente Systeme werden zwar einige Jobs tatsächlich ersetzen. Sie werden aber noch lange ein Human Backup und menschliche Trainer benötigen. Die Menschen, die heute mit Tätigkeiten wie dem Erfassen von Daten, dem Umwandeln oder Überprüfen von Daten beschäftigt sind, sind die zukünftigen Microtasker und Macrotasker der künstlichen Intelligenz. Natürlich werden diese Jobs nicht den gleichen Wohlfühlfaktor haben, wie es auf der Seite der Anwender dieser digitalen Systeme der Fall ist. Menschen, die als Human Backup in intelligenten Systemen arbeiten, werden durch diese getaktet arbeiten. Sie werden ein stückweit zu Dienern der KI.

Die heutigen Datenerfasser und Datenüberprüfer werden das zukünftige Human Backup der künstlichen Intelligenz.

Die zahlreichen Diskussionen auf der CHI haben gezeigt, wie kritisch, ja fast schon eifersüchtig, diese Entwicklung gesehen wird. Es wird befürchtet, dass die künstliche Intelligenz zur Konkurrenz für die Menschen wird.

Respect and value what it means to be a human. – Ben Shneiderman

Aus meiner Sicht ist es zu spät darüber zu diskutieren, ob wir diese Entwicklung so wollen. Sie passiert bereits und lässt sich nicht mehr aufhalten. Ich glaube, dass wir Menschen alles das, was wir heute in der Natur erleben, irgendwann künstlich nachbauen können – bis hin zum menschlichen Gehirn. Es ist nur eine Frage der Zeit, bis wir die Mechanismen dahinter gut genug verstanden haben. Ich glaube, dass wir in sehr ferner Zukunft Maschinen nutzen werden, die über menschliche Fähigkeiten verfügen. So lange mit solchen Entwicklungen Reichtum und/oder Ansehen erlangt werden kann, wird es Menschen geben, die daran forschen und dies realisieren. Das wird aber nicht über Nacht passieren. Wenn ich mir so anschaue, was sich in den letzten 50 Jahren verändert hat, so wird das noch Jahrzehnte, wenn nicht Jahrhunderte dauern.

Anstatt das „Ob“ zu diskutieren, müssen wir uns die Frage stellen, wie wir diese Entwicklung zum Wohle der gesamten Menschheit nutzen können. Wir müssen darüber reden, wie alle Menschen Zugang zu solchen Technologien bekommen. Wir müssen diskutieren, wie wir sicherstellen, dass diese Technologien friedlich genutzt werden. Wir müssen Kontrollmechanismen und Zertifizierungen für künstliche Intelligenz und deren Algorithmen schaffen, um Missbrauch zu verhindern. Wir müssen darauf achten, dass Menschen trotz Human-Computer-Integration und Automatisierung die notwendigen Fähigkeiten erlernen und die notwendige Aufmerksamkeit bewahren können, um die Arbeit der intelligenten Systeme einschätzen und ggf. verbessern zu können.

Siehe auch
Human-computer integration

Computers, Automation and the Human Future #chi2017

Nicholas Carr schloss die CHI 2017 mit einer kritischen Sichtweise auf Autonomie und Digitalisierung. Er sieht klar die Fortschritte, die Human-Computer-Interaction in den letzten 10 Jahren gemacht. Und klar, auch die vielen Vorteile, die digitale Systeme für Menschen gebracht haben. Er zeigte aber am Beispiel der Inuit und dem Aufkommen von GPS auf, dass wir Menschen durch Technologie verlernen mit der Natur und ihrer Umgebung zu interagieren. Jedes Mal, wenn Dinge digitalisiert werden oder neue Technologien eingeführt werden, entstehen neben den gewollten Vorteilen der Technologie auch Nebenwirkungen, welche die Designer und Entwickler nicht vorhersehen konnten (The substitution myth). So verlernten beispielsweise die Inuit sich anhand ihre Umgebung und der Natur zielgerichtet und sicher durch Schneelandschaften zu navigieren. Sie verlassen sich auf ihre GPS-Geräte … bis zu dem Moment, in dem sie nicht mehr funktionieren.


Er ging in seinem Vortrag auf 3 Effekte ein, die bei der Automatisierung und Digitalisierung auftreten können:

Automation complacency
Menschen vertrauen Computern in der Regel sehr schnell. Sie gehen davon aus, dass die digitalen Systeme korrekt arbeiten und delegieren sehr schnell Aufgaben an sie. Durch das Vertrauen hören sie relativ schnell damit auf den automatisierten Prozess aufmerksam zu beobachten und können dann im Ernstfall nicht mehr schnell genug reagieren. Ein kleines Beispiel ist da die Rechtschreibkorrektur und die vielen teilweise sehr witzigen Messenger-Nachrichten, die durch diesen Effekt entstehen. In Bereichen, in denen Automation schon länger zum Alltag gehört, führt dieser Effekt zu sehr dramatischen Folgen. Beispiel Flugverkehr: Piloten müssen nach seiner Aussage heute gerade mal 3 min etwas aktiv im Flug tun. Den Rest der Zeit beobachten sie lediglich, was die Automaten machen. Dadurch kommt es zu automationsbedingten Fehlern. Die Aufmerksamkeit sinkt. Dadurch werden Fehler zu spät erkannt und unter Umständen nicht schnell genug reagiert.

Automation bias
Menschen glauben das, was sie auf Computerbildschirm lesen. Sie vertrauen den digitalen Informationen ohne diese ständig kritisch zu hinterfragen. Hier nannte er folgendes Beispiel: Ein Kreuzfahrtschiff verlor auf hoher See seine GPS-Antenne. Die Crew bemerkte dies nicht und da das GPS-System anzeigte, dass das Schiff auf dem richtigen Kurs ist, achtete auch niemand auf die Umgebung. So konnte der grobe Navigationsfehler nicht rechtzeitig erkannt werden. Das Schiff lief auf eine Insel. Im Gesundheitswesen kann der Effekt dazu führen, dass Krankheiten übersehen werden. Radiologen erhalten schon heute im Rahmen der Befundung automatisierte Hinweise auf möglicherweise kritische Stellen auf Röntgenbildern. Das ist im Grunde eine gute Sache, da so die Diagnose unterstützt wird. Die Hervorhebungen auf Röntgenbildern haben aber auch den Effekt, dass Radiologen weniger Aufmerksamkeit auf die Bereiche legen, die nicht hervorgehoben werden und so Krankheiten übersehen können. Er fasste diesen Effekt so zusammen: Die Nutzer von Automaten schalten nach und nach ihre Instinkte ab.

De-skilling, or „the degeneration effect“
Den größten Nachteil sieht er im De-skilling-Effekt. Wie auch schon in der industriellen Revolution zu beobachten war, verlieren Menschen mit der Automatisierung Schritt für Schritt auch die Fähigkeiten für die automatisierten Arbeitsschritte. Das ist im Grunde nicht weiter verwunderlich, da die Maschine ja den Arbeitsschritt übernimmt. Der negative Aspekt daran ist, dass den Menschen durch die Automatisierung die Möglichkeit genommen wird die grundlegenden Funktionsweisen zu erlernen und sich Expertenwissen anzueignen, um die Arbeit der Maschine beurteilen zu können. Sie sind abhängig von der Maschine und davon, dass diese die Arbeit richtig erledigt. Beispiel Taschenrechner: Wenn Kinder von Anfang an Rechnen mit dem Taschenrechner lernen, dann sind sie lebenslang auf diesen angewiesen.

„After a while you can’t do anything without pulling out your smartphone.“

Aus betriebswirtschaftlicher Sicht ist das klar von Vorteil. Wenn Menschen von Algorithmen oder Systemen des Unternehmens abhängig oder auf diese angewiesen sind, dann steigert das natürlich den Unternehmenserfolg. Aber es ist auch eine Gefahr, wie die Wahl von Trump auf Basis von Fehlinformationen zeigt. Die Konsumenten von sozialen Medien haben schlicht verlernt sich kritisch mit den Informationen auseinanderzusetzen, diese zu hinterfragen und Manipulationen zu erkennen. So zeigte Beispielsweise Facebook für Liberale oder Konservative komplett andere Inhalte an und stellte die gleichen Sachverhalte je nach Interessenslage passend dar.

Weil die Menschen nicht mehr mit den Informationen umgehen können und sich blind auf die Algorithmen verlassen, sind sie in einer Welt gefangen, die nur noch ihre Interessen und populären Inhalte wiedergibt (Echo Chambers).

Designing for humans flourishing

Interactive Systeme müssen mit dem menschlichen Lernen und der Weiterentwicklung der menschlichen Fähigkeiten in Einklang gebracht werden. Es gilt trotz Automatisierung die richtigen Anreize dafür zu setzen und dadurch Automation Complacency oder Stress durch Überforderungen beim Ausfall der Automaten zu vermeiden. Im Rahmen der Automatisierung und Digitalisierung sollte die Frage nach dem menschlichen Wohlergehen, der menschlichen Entwicklung und der Freude am Leben im Mittelpunkt stehen.

Für die Gestaltung von digitalen Systemen, die diese Aspekte berücksichtigen, gab er folgende Empfehlungen:

  • Automate after mastery: Erst im Kopf Rechnen lernen und dann Rechnen mit dem Taschenrechner automatisieren.
  • Transfer control between computer and operator: Die Verantwortung für eine Aufgabe sollte zwischen Anwender und Maschinen immer mal wieder wechseln, um die Aufmerksamkeit hochzuhalten.
  • Allow professional to assess situation before providing algorithmic aid: Der menschliche Experte sollte zuerst analysieren und dann erst die Empfehlungen der Maschine zur Absicherung seiner Einschätzung einholen.
  • Don’t hide feedback: Trotz Automation sollen die Anwender Feedback darüber erhalten, was die Maschinen gerade tun. Nur so können Menschen lernen und einschätzen, was die Maschinen tun.
  • Allow friction: Das Streben der Vereinfachung und Komplexitätsreduzierung muss kritisch hinterfragt werden. Das Meistern von Komplexität und Schwierigkeit kann für den Lernprozess (Beispiel: Videospiele)

Technology is a means of production. Technology is a means of experience.

Proxemic Transitions: Designing Shape-Changing Furniture for Informal Meetings #chi2017

Jens Emil Groenbaek (Aarhus University) zeigte in seinem Beitrag auf der CHI 2017 eine Idee, wie sich Büromöbel an die sich ständig ändernden Anforderungen der Zusammenarbeit in modernen Büroformaten, z.B. Open Space, schnell und flexibel anpassen können. Konkret zeigte er einen prototypischen Schreibtisch, der je nach der Dialogsituation mehreren Kollegen als Arbeitsfläche, als großes Display in Form eines Aufstellers oder als Schreibtisch für ein bis zwei Personen mit eingebautem Display dienen kann. Aber schaut selbst:

Unusual Displays #chi2017

In der Session „Unusual Displays“ wurden auf der CHI 2017 neuartige Anzeigeformen und -technologien vorgestellt. Die Spannendsten davon waren:

MistForm: Adaptive Shape Changing FogScreens
MistForm erzeugt anpassbare Projektionsflächen mit Hilfe von Nebel. Die Qualität der Projektionen finde ich schon ziemlich beeindruckend. Das Display ermöglicht nicht nur eine Interaktion ähnlich einem Touchscreen, sondern kann auch 3D-Inhalte darstellen. 3D-Hologramme rücken damit in Greifweite. 🙂

Spherical Handheld Perspective-Corrected Display (HPCD)
Das HPCD ist ein kugelförmiges Display, welches die Illusion erzeugt, dass ein 3D-Objekt in der Kugel ist. Der Anwender kann das Display rotieren und sich so das Objekt von allen Seiten anschauen. Die Illusion entsteht durch einen Projektor, der von der Decke ein Bild auf die Kugel projiziert, eine Shutter-Brille für den 3D-Eindruck und ein Trackingsystem, welches die Bewegung der Kugel aufzeichnet. Das Ergebnis sieht in der Praxis sehr cool aus und lässt sich sogar als eine Art Maus verwenden, ist aber technisch ziemlich aufwändig.

BreathScreen – An Ephemeral UI
BreathScreen basiert auf Nebel, der durch die Atemluft in kalten Umgebungen erzeugt wird. In der ursprünglichen Idee sollte das Bild durch einen Projektor in den Nebel der Atemluft projiziert werden, der am Kopf des Anwenders befestigt ist. Für den Versuch im Labor wurde ein Vaporizer mit eingebautem Projektor verwendet. Diese Idee eröffnet ganz neue Möglichkeiten für das „Raucherlebnis“ mit E-Zigaretten.