Schlagwort-Archiv: chi2017

CHI 2017 in Denver – Mein Fazit #chi2017 @sigchi

Das war sie wieder die CHI. Das Motto „Explore, Innovate, Inspire“ hat sich für mich voll und ganz erfüllt. Die Woche war sehr inspirierend, erkenntnisreich und hat sich für mich wie Goldwaschen angefühlt. Die Hauptthemen der Konferenz waren in diesem Jahr Human Computer Integration, Interaktion mit Bots, Autonomous Driving, Displays aus Nebel, Biologisches Produktdesign und die politische Beschäftigung damit, wie Trump passieren konnte. Der letzte Punkt war interessant, da einige Redner den Gewinn von Trump auf die Fehler der Algorithmen der sozialen Medien zurückführten. Mein könnte meinen, dass Silicon Valley hat den Amerikanern Trump eingebrockt.

Die Konferenz war gefühlt etwas kleiner als im letzten Jahr, wenn man das bei 2.898 Teilnehmer (davon einige Teilnehmer über 14 Telepräsenz-Roboter) aus 53 Ländern und hunderten Beiträge in 19 parallelen Sessions überhaupt so sagen kann.

Die Online Proceedings sind für eine kurze Zeit unter ACM Digital Library öffentlich erreichbar. Außerdem findet Ihr einige Preview-Videos von Beiträgen auf Youtube. Meine gesammelten Beiträge könnt Ihr hier nachlesen.

Nächstes Jahr findet die CHI übrigens unter dem Motto „Engage with CHI“ in Montreal statt.

Computers, Automation and the Human Future #chi2017

Nicholas Carr schloss die CHI 2017 mit einer kritischen Sichtweise auf Autonomie und Digitalisierung. Er sieht klar die Fortschritte, die Human-Computer-Interaction in den lezten 10 Jahren gemacht. Und klar, auch die vielen Vorteile, die digitale Systeme für Menschen gebracht haben. Er zeigte aber am Beispiel der Inuit und dem Aufkommen von GPS auf, dass wir Menschen durch Technologie verlernen mit der Natur und ihrer Umgebung zu interagieren. Jedes Mal, wenn Dinge digitalisiert werden oder neue Technologien eingeführt werden, entstehen neben den gewollten Vorteile der Technologie auch Nebenwirkungen, welche die Designer und Entwickler nicht vorhersehen konnten (The substitution myth). So verlernten beispielsweise die Inuit sich anhand ihre Umgebung und der Natur zielgerichtet und sicher durch Schneelandschaften zu navigieren. Sie verlassen sich auf ihre GPS-Geräte … bis zu dem Moment, in dem sie nicht mehr funktionieren.


Er ging in seinem Vortrag auf 3 Effekte ein, die bei der Automatisierung und Digitalisierung auftreten können:

Automation complacency
Menschen vertrauen Computern in der Regel sehr schnell. Sie gehen davon aus, dass die digitalen Systeme korrekt arbeiten und delegieren sehr schnell Aufgaben an sie. Durch das Vertrauen hören sie relativ schnell damit auf den automatisierten Prozess aufmerksam zu beobachten und können dann im Ernstfall nicht mehr schnell genug reagieren. Ein kleines Beispiel ist da die Rechtschreibkorrektur und die vielen teilweise sehr witzigen Messenger-Nachrichten, die durch diesen Effekt entstehen. In Bereichen, in denen Automation schon länger zum Alltag gehört, führt dieser Effekt zu sehr dramatischen Folgen. Beispiel Flugverkehr: Piloten müssen nach seiner Aussage heute gerade mal 3 min etwas aktiv im Flug tun. Den Rest der Zeit beobachten sie lediglich, was die Automaten machen. Dadurch kommt es zu automationsbedingten Fehlern. Die Aufmerksamkeit sinkt. Dadurch werden Fehler zu spät erkannt und unter Umständen nicht schnell genug reagiert.

Automation bias
Menschen glauben das, was sie auf Computerbildschirm lesen. Sie vertrauen den digitalen Informationen ohne diese ständig kritisch zu hinterfragen. Hier nannte er folgendes Beispiel: Ein Kreuzfahrtschiff verlor auf hoher See seine GPS-Antenne. Die Crew bemerkte dies nicht und da das GPS-System anzeigte, dass das Schiff auf dem richtigen Kurs ist, achtete auch niemand auf die Umgebung. So konnte der grobe Navigationsfehler nicht rechtzeitig erkann werden. Das Schiff lief auf eine Insel. Im Gesundheitswesen kann der Effekt dazu führen, dass Krankheiten übersehen werden. Radiologen erhalten schon heute im Rahmen der Befundung automatisierte Hinweise auf möglicherweise kritische Stellen auf Röntgenbildern. Das ist im Grunde eine gute Sache, da so die Diagnose unterstützt wird. Die Hervorhebungen auf Röntgenbildern haben aber auch den Effekt, dass Radiologen weniger Aufmerksamkeit auf die Bereiche legen, die nicht hervorgehoben werden und so Krankheiten übersehen können. Er fasste diesen Effekt so zusammen: Die Nutzer von Automaten schalten nach und nach ihre Instikte ab.

De-skilling, or „the degeneration effect“
Den größten Nachteil sieht er im De-skilling-Effekt. Wie auch schon in der industriellen Revolution zu beobachten war, verlieren Menschen mit der Automatisierung Schritt für Schritt auch die Fähigkeiten für die automatisierten Arbeitsschritte. Das ist im Grunde nicht weiter verwunderlich, da die Maschine ja den Arbeitsschritt übernimmt. Der negative Aspekt daran ist, dass den Menschen durch die Automatisierung die Möglichkeit genommen wird die grundlegenden Funktionsweisen zu erlernen und sich Expertenwissen anzueignen, um die Arbeit der Maschine beurteilen zu können. Sie sind abhängig von der Maschine und davon, dass diese die Arbeit richtig erledigt. Beispiel Taschenrechner: Wenn Kinder von Anfang an Rechnen mit dem Taschenrechner lernen, dann sind sie ihr lebenlang auf diesen angewiesen. 

„After a while you can’t do anything without pulling out your smartphone.“

Aus betriebswirtschaftlicher Sicht ist das klar von Vorteil. Wenn Menschen von Algorithmen oder Systemen des Unternehmens abhängig oder auf diese angewiesen sind, dann steigert das natürlich den Unternehmenserfolg. Aber es ist auch eine Gefahr, wie die Wahl von Trump auf Basis von Fehlinformationen zeigt. Die Konsumenten von sozialen Medien haben schlicht verlernt sich kritisch mit den Informationen auseinanderzusetzen, diese zu hinterfragen und Manipulationen zu erkennen. So zeigte Beispielsweise Facebook für Liberale oder Konservative komplett andere Inhalte an und stellte die gleichen Sachverhalte je nach Interessenslage passend dar. 

Weil die Menschen nicht mehr mit den Informationen umgehen können und sich blind auf die Algorithmen verlassen, sind sie in einer Welt gefangen, die nur noch ihre Interessen und populären Inhalte wiedergibt (Echo Chambers).  

Designing for humans flourishing

Interactive Systeme müssen mit dem menschlichen Lernen und der Weiterentwicklung der menschlichen Fähigkeiten in Einklang gebracht werden. Es gilt trotz Automatisierung die richtigen Anreize dafür zu setzen und dadurch Automation Complacency oder Stress durch Überforderungen beim Ausfall der Automaten zu vermeiden. Im Rahmen der Automatisierung und Digitalisierung sollte die Frage nach dem menschlichen Wohlergehen, der menschlichen Entwicklung und der Freude am Leben im Mittelpunkt stehen.

Für die Gestaltung von digitalen Systemen, die diese Aspekte berücksichtigen, gab er folgende Empfehlungen:

  • Automate after mastery: Erst im Kopf Rechnen lernen und dann Rechnen mit dem Taschenrechner automatisieren.
  • Transfer control between computer and operator: Die Verantwortung für eine Aufgabe sollte zwischen Anwender und Mschine immer mal wieder wechseln, um die Aufmerksamkeit hochzuhalten.
  • Allow professional to assess situation before providing algorithmic aid: Der menschliche Experte sollte zuerst analysieren und dann erst die Empfehlungen der Maschine zur Absicherung seiner Einschätzung einholen. 
  • Don’t hide feedback: Trotz Automation sollen die Anwender Feedback darüber erhalten, was die Maschinen gerade tun. Nur so können Menschen lernen und einschätzen, was die Maschinen tun.
  • Allow friction: Das Streben der Vereinfachung und Komplexitätsreduzierung muss kritisch hinterfragt werden. Das Meistern von Komplexität und Schwierigkeit kann für den Lernprozess (Beispiel: Videospiele)

Technology is a means of production. Technology is a means of experience.

Proxemic Transitions: Designing Shape-Changing Furniture for Informal Meetings #chi2017

Jens Emil Groenbaek (Aarhus University) zeigte in seinem Beitrag auf der CHI 2017 eine Idee, wie sich Büromöbel an die sich ständig ändernden Anforderungen der Zusammenarbeit in modernen Büroformaten, z.B. Open Space, schnell und flexibel anpassen können. Konkret zeigte er einen prototypischen Schreibtisch, der je nach der Dialogsituation mehreren Kollegen als Arbeitsfläche, als großes Display in Form eines Aufstellers oder als Schreibtisch für ein bis zwei Personen mit eingebautem Display dienen kann. Aber schaut selbst:

Tweaking Design Thinking for Strategic and Tactical Impact #chi2017

Im diesem Panel diskutierten Vertreter von Splunk, SAP Labs, Stanford D.School, IDEO und Google Best Practices für Design Thinking in Unternehmen. Grundannahme der Diskussion war, dass viele Design Thinking-Vorhaben in Unternehmen nicht erfolgreich sind, da es oft falsch verstanden und falsch genutzt wird.

Für mich ergaben sich aus der Diskussion folgende Best-Practices:

  • Do Design Thinking with an experienced coach.: Um sicher zu gehen, dass Design Thinking-Sessions gute Ergebnisse produzieren, bedarf es erfahrener Design Thinking Coaches. Diese können sicherstellen, dass die Methodik richtig angewendet wird. Google und SAP haben Mitarbeiter explizit zu Design Thinking Coaches ausgebildet, damit diese Entwicklungsteams bei der Ideenentwicklung helfen.
  • Do user research upfront und find the right problem.: Es ist sinnvoll User Research vor Design Thinking-Sessions dafür zu nutzen die richtigen Ansatzpunkte und Probleme zu identifizieren. Es gilt ein eindeutiges Problem zu finden, was gelöst werden soll.
  • Don’t do Design Thinking, to just do Design Thinking.: Design Thinking ist eine Innovationsmethode und eine Sichtweise auf Innovation. Es ist kein Allheilmittel und ersetzt auch nicht User Research. Design Thinking kann dabei helfen Ideen zur Lösung von Problemen zu entwickeln. Es ist aber kein Vorgehen zur Produktentwicklung. Es muss gut überlegt werden, ob und wann Design Thinking eingesetzt wird.
  • Design Thinking needs to be fast in large organizations.: Die Dauer von Design Thinking-Sessions wurde intensiv diskutiert. In der D.School liegt der Fokus mehr auf Problemverständnis sowie Kreativität und weniger auf Geschwindigkeit. Daher dauern Design Thinking-Sessions min. 8 Wochen. Bei Google und SAP ist die eine kurze Dauer und hohe Geschwindigkeit notwendig, damit sich die Mitarbeiter auf die Session konzentrieren. Die Zeit der Mitarbeiter in großen Unternehmen ist begrenzt und die Anzahl an Störungen bzw. Konkurrierenden Themen ist hoch. Um zu vermeiden, dass Projekte bei einem „Wir treffen uns jeden Freitag alle 2 Wochen“-Ansatz stecken bleiben, ist es notwendig die Session zu konzentrieren. Bei SAP dauern Design Thinking-Sessions daher 2-6 Wochen. Bei Google 3-5 Tage. In kleinen Unternehmen bzw. Startups ist das nicht notwendig, da hier von Natur aus ein höherer Fokus auf einzelne Aufgaben gelegt werden kann.
  • Adapt Design Thinking to culture.: Design Thinking-Formate müssen auf die Kultur der Teilnehmer (Herkunft) und Unternehmen angepasst werden. Dabei ist es von besonderer Bedeutung die Feebbackkultur eines Landes bzw. eines Unternehmens zu berücksichtigen. 
  • Design Thinking needs to be 100%.: Es ist hilfreich im Vorfeld von Design Thinking-Sessions  Teilnehmer aus einem Unternehmen zu gewinnen, die zum einen ein hohes Interesse an der Lösung des Problems haben und zum anderen das notwendige Engagement mitbringen. Den Teilnehmern muss von vornherein klar sein, dass nur eine 100%ige Teilnahme Sinn macht.
  • Recruting is critical.: Auch wenn die Stichproben in Design Thinking-Projekten eher klein sind und in erster Linie für ein begründetes Bauchgefühl sorgen sollen, so gilt es doch die Menschen zu rekrutieren, die ein gutes Bild auf die adressierte Anwenderschaft ermöglichen. Ein falsches Feedback führt die Design Thinker auf die falsche Spur.
  • Don’t sell Design Thinking as easy. Design Thinking is like soccer. You are not David Beckham because you understood the process. But encourage people to try it. Don’t be too afraid.“

Siehe auch

USING A „DARK HORSE“ PROTOTYPE TO MANAGE INNOVATIVE TEAMS

From Snake-Oil To Science: Measuring UX Maturity #chi2017

Jeff Sauro (MeasuringU) berichtete in seinem Beitrag über die Entwicklung eines Reifegrad-Modells für die Einführung von User Experience bzw. anwenderorientierter Produktentwicklung in Unternehmen. Aktuelle Reifegrad-Modelle werden seiner Erfahrung nach in amerikanischen Unternehmen häufig belächelt und nicht ernst genommen. Er führt das darauf zurück, dass vielen aktuellen Reifegradmodellen die wissenschaftliche Grundlage fehlt bzw. unklar ist, worauf die Reifegradmodelle genau basieren. Außerdem kann der Zusammenhang zwischen der Reife von UX in Unternehmen mit dem Produkterfolg nicht einfach hergestellt werden.


Auf Basis bestehender Reifegradmodelle von Nielsen, Schaffer und Earthy und Interviews mit UX Professionals von IBM, Autodesk, Capital One und United Healthcare entwickelte er einen eigenes Reifegradmodell. In diesem werden die Faktoren Individual Characteristics, Organization Characteristics, UX Staffing, UX Research Methods, Leadership and Culture, UX Integration, UX Training and Skills, Product Success Metrics, Organization Success Metrics, UX Budget/Resources, UX Challenges and Future Direction zur Einschätzung der Reife betrachtet. Dieses Modell validiert er mit einer Online-Umfrage unter amerikanischen Unternehmen (ca. n=100). 

Die ersten Ergebnisse der Umfrage sind:

  • In 3% der befragten amerikanischen Unternhemen ist UX noch gar nicht bekannt.
  • 6% der befragten Unternehmen haben UX instutionalisiert.
  • In reifen Unternehmen arbeiten die UX-Professionals abteilungsübergreifend.
  • Das Verhältnis zwischen den Disziplinen ist durchschnittlich 1 Researcher, 5 Designer, 100 Entwickler.
  • Reife Unternehmen haben zu 80% ein eigenes Budget und einen UX Director auf hoher Management-Ebene.
  • Die UX-Professionals sind in In-House UX-Teams mit Vollzeit-Mitarbeitern organisiert.
  • User Research und UX Design sind in alle Phasen der Produktentwicklung integriert.
  • Reife Unternehmen nutzen Metriken zur Mitarbeiterzufriedenheit, Anwenderzufriedenheit und zum Produkterfolg zur Erfolgskontrolle.

Leider konnte er noch keine Aussage über die Verbindung zwischen Reifegrad und dem Erfolg machen.

Siehe auch

measuringu.com/ux-maturity

Comparing Reliability of Amazon Mechanical Turk and SurveyMonkey to Traditional Market Research Surveys #chi2017

Frank Bentley (Yahoo) ging in seinem Beitrag der Frage nach, wie schnell und kostengünstig Online-Befragungen mit 100-200 Nutzern durchgeführt werden können, die auch noch verlässliche Ergebnisse liefern. Dazu verglich er klassische Marktforschungs-Befragungen mit Befragungen über Amazons Mechanical Turk und SurveyMonkey. Er stellte über alle drei Wege die gleichen Fragen und verglich anschließend die Ergebnisse.


Er kommt zu dem Schluss dass MTurk und SurveyMonkey gute und verlässliche Alternativen sind, wenn es darum geht die einfache Fragen mit der allgemeinen Anwenderschaft im Internet kostengünstig zu klären. (Für spezielle Zielgruppen ist der Weg nicht geeignet.) Er bezifferte die Kosten für die beiden Studien über MTurk und SurveyMonkey auf je ca. 150$. Yahoo nutzt MTurk und SurveyMonkey intensiv, um schnell Antworten zu bekommen. Sie klären darüber eher einfache Fragen, die nicht durch Analytics  beantwortet werden können. Wenn die Fragen eher offen sind, dann setzen sie auf MTurk. Ansonsten ist SurveyMonkey das Mittel der Wahl, da über deren Panel eine bessere Zielgruppen-Selektion möglich ist. Sie setzen klassische Marktforschungsinstrumente immer noch ein, wenn es ganz genau sein muss.

Genie: Input Retargeting on the Web through Command Reverse Engineering #chi2017

Die Interaktion in vielen komplexen Webanwendungen basiert auf Maus und Tastatur. Vorallem Webanwendungen in denen viel JavaScript für die Interaktion eingesetzt wird, wie z.B. Online-Games, übersteigen oft die Möglichkeiten herkömmlicher Accessibility-APIs. Diese Webseiten sind damit nicht barrierefrei, d.h. nicht für alle Menschen gleich zugänglich. In diesem Beitrag stellte Amanda Sweamgin (University of Washington) ein assistives Werkzeug namens Genie vor, welches dieses Problem lösen soll.

Genie analysiert die Webseite auf Aktionen, Events und Eingabefunktionen im Programmcode. Die gefundenen Code-Objekte werden dann von Genie so „umgelenkt“, dass sie über alternative Eingabemethoden angesprochen und zugänglich gemacht werden können. So ist es beispielsweise möglich über Genie für komplexe Webanwendungen zusätzlich zu Keyboard und Maus alternative Eingabemethoden, wie z.B. Sprache, anzubieten.