Kategorie-Archiv: Human Computer Integration

The Algorithm and the User: How Can HCI Use Lay Understandings of Algorithmic Systems #chi2018

Der letzte Tag der CHI startete für mich mit einer Paneldiskussion darüber, wie sich Menschen mit Hilfe des „gesunden Menschenverstandes“ intelligente Systeme erklären, die auf Algorithmen basieren. Konkret ging es in der Diskussionen um Volksweisheiten (Folk Theories), also weitverbreitete und allgemein anerkannte Theorien über die Funktionsweise von komplexen und schwer verständlichen Themen, die meist nicht der tatsächlichen Funktionsweise entsprechen. Volksweisheiten basieren meist auf Heuristiken, die aus Beobachtungen abgeleitet wurden. Sie beschreiben weitverbreitete mentale Modelle, welche viele Menschen von der Funktionsweise komplexer intelligenter Systeme haben und anwenden.

Das Thema wurde von Michael DeVito, Jeffrey Hancock, Megan French, Jeremy Birnholtz, Judd Antin, Karrie Karahalios, Stephanie Tong und Irina Shklovski diskutiert.

Facebook is listening to you all the time to make recommendations. – Volksweisheit zu Facebook

Systeme, die auf Algorithmen und künstlicher Intelligenz basieren, sind in ihrer Verhaltensweise so komplex zu verstehen, dass sich selbst die Architekten und Designer dieser Systeme schwer tun, deren Funktionsweisen vollständig zu verstehen und zu erklären. Beispielsweise entstehen selbst bei Facebook intern Volksweisheiten darüber, wie der News Feed wirklich funktioniert.

Ein anderes Beispiel: Viele Airbnb-Anwender verändern den Titel ihres Eintrages jeden Tag, weil sie glauben, dass sie damit ihren Eintrag noch oben bringen können. In Wirklichkeit hat das aber gar keinen Einfluss auf die Positionierung des Eintrags.

You can’t understand how everything works.

Volksweisheiten verbreiten sich sehr schnell, weil Menschen stolz darauf sind etwas Komplexes verstanden zu haben oder weil es erschreckend bzw. begeisternd ist. Ob diese dann richtig oder falsch sind spielt keine wirkliche Rolle.

Volksweisheiten beeinflussen nicht nur das Verständnis bzw. die Interaktion mit intelligenten Systemen, sie beeinflussen auch die Adoption von neuen Produkten / Technologien erheblich. Außerdem können sie dazu führen, dass Anwender ihre Zeit für sinnlose Tätigkeiten verschwenden.

Unternehmen, deren Produkte auf intelligenten Technologien basieren, erklären in der Regel wenig darüber, wie ihre Algorithmen funktionieren. Eine hohe Transparenz zur genauen Funktionsweise ist meist nicht gewünscht (Geistiges Eigentum, Wettbewerbsvorteil, Profit, Vermeidung von Missbrauch) oder auch nicht möglich (Unternehmen wissen selbst nicht genau, wie das intelligente System im Detail funktioniert). Anwendern bleibt also oft nichts anderes übrig, als intelligente Systeme zu beobachten und auf dieser Basis Volksweisheiten zu entwickeln.

Bei der Gestaltung von intelligenten Systemen sollte die Frage betrachtet werden, welche Volksweisheiten sich Anwender zurechtlegen, um die Funktionsweise eines intelligenten Systems zu erklären. Das intelligente System sollte so gestaltet sein, dass Anwender mentale Modelle bzw. Volksweisheiten entwickeln, die für beide Seiten fair und nützlich sind. Also Menschen dabei hilft das nötige und ein nützliches Verständnis zu einem intelligenten System zu entwickeln sowie Unternehmen dabei hilft ihre unternehmerischen Ziele zu erreichen. Weiterhin ist es für beide Seiten hilfreich regelmäßig zu überprüfen welche Volksweisheiten entstanden sind und angewendet werden.

Dieser Gestaltungsprozess ist ein Balanceakt. Es ist nicht damit getan, einfach umfangreich zu erklären und komplett offenzulegen, wie ein intelligentes System funktioniert. Es geht darum das System so einfach wie möglich zu erklären ohne dabei relevante Aspekte zu unterschlagen. Es geht darum die Interessen der Anwender und des Unternehmens in Balance zu bringen.

People don’t read. Most People don’t want to set up hundreds of control features.

Human Robot Teaming #chi2018

Der zweite Tag der #chi2018 begann für mich mit der Paneldiskussion von Maya Cakmak (University Washington), Jodi Forlizzi (Carnegie Mellon University), Wendy Ju (Cornell Tech), Leila Takayama (University of California), Hideaki Kuzuoka (University Tsukuba) zu „Human Robot Teaming“.

Hybride Teams aus Roboter und Menschen sind heute in vielen Industriebereichen und in der Medizin keine Besonderheit mehr. Maya Cakmak wies in ihrem Eröffnungsstatement allerdings darauf hin, dass Roboter dabei in den meisten Fällen nur in kontrollierten Umgebungen funktionieren und intensive technische Betreuung erfordern. Für Leila Takayama zeigen die Roboter-Menschen Teams, die heute in Versandhandel, Fertigungsstrassen oder beim Militär zu finden sind, nur einen Mini-Ausschnitt von dem, was zukünftig möglich ist. Durch die gezielte Kombination der Fähigkeiten von Menschen und Maschinen erwartet sie, dass noch deutlich mehr Nutzen aus dieser Zusammenarbeit entstehen kann. Sie plädiert daher für eine Diskussion über die Fähigkeiten der Beteiligten sowie der daraus entstehenden Synergieeffekte. Die Diskussion darüber, wie oder ob Roboter Menschen ersetzen, hält sie nicht für zielführend.

Nutzen

Roboter werden häufig aus der technischen Möglichkeit heraus entwickelt. Das ist auch nicht weiter verwunderlich, da noch viel Grundlagenforschung zu den technischen Möglichkeiten notwendig ist. Wendy Ju plädierte dafür, dass es nun an der Zeit ist, den Nutzen stärker in den Mittelpunkt der Entwicklung zu stellen. Nicht die technische Möglichkeit, sondern der Bedarf des Menschen sollte die Richtschnur für die Entwicklung sein.

Emotionale Beziehung

Ein wichtiger Aspekt für die Zusammenarbeit zwischen Menschen und Maschinen ist die emotionale Beziehung zwischen ihnen. Leila Takayama beobachtete, dass Menschen in hybriden Teams eine sehr enge Beziehung zu ihren digitalen Kollegen aufbauen, wenn die Roboter einen großen Nutzen zum Team beitragen. Konkret beobachtet sie bei Minenräum-Teams, bei denen Roboter und Menschen zusammen Minen räumen, dass Roboter, die bei der Minenräumung zerstört werden, repariert anstatt ersetzt werden müssen. Menschen schließen ihre digitalen Kollegen offenbar genauso ins Herz wie ihr menschlichen Kollegen.

Kommunikation

Hideaki Kuzuoka sieht bei der Kommunikation zwischen Mensch und Roboter noch große Potentiale. Menschen nutzen Gesten, um ihren Gesprächspartnern ihre Intentionen und Emotionen zu kommunizieren. Roboter können das in der Regel nicht. Aktuelle Roboter geben wenige oder keine Hinweise damit Menschen einschätzen können, was sie tun und warum. Für eine erfolgreiche Zusammenarbeit ist es notwendig, dass Menschen besser verstehen, was Roboter tun und warum. Idealerweise entwickeln auch Roboter die Fähigkeit die Intention ihrer menschlichen Kollegen zu verstehen.

Visuelle Gestaltung

Die äußere visuelle Gestaltung der Roboter hat einen wesentlichen Einfluss darauf, was Menschen von Robotern erwarten, sagt Jodi Forlizzi. Die äußere Hülle sollte daher so gestaltet sein, dass Menschen nicht zu viel von ihren digitalen Kollegen erwarten.

Teambuilding

Menschen und Roboter werden dann zu einem Team, wenn der Nutzen der Maschine für das Team klar ersichtlich ist und vom Team als hilfreich anerkannt wird. Außerdem ist es beim Aufstellen von hybriden Teams sinnvoll, das Team auf die menschlich-digitale Zusammenarbeit einzustellen – also eine Art Teambuilding durchzuführen. Wenn beides nicht der Fall ist, kann es dazu führen, dass Menschen Roboter für schlechte Teamperformance alleinverantwortlich machen oder diese sogar sabotieren.

Fazit

Viele Roboter-Entwickler übersehen heute, dass es auch in der Zukunft von völlig autonomen Maschinen nötig sein wird, dass Menschen sich darum kümmern, dass diese Maschinen funktionieren. Als Beispiel wurde hier das Paradebeispiel für autonome Systeme – der Marsrover – angeführt. Dieser kann zwar autonom die Marsoberfläche erkunden, aber damit er das kann, ist ein Team von über 100 Technikern erforderlich.

Designing Intelligence into Everyday Life #uxstrat


Paul-Jervis Heath (Modern Human) eröffnete die diesjährige UXSTRAT mit seinem Vortrag zur Integration von Mensch und Maschinen. UX Designer verstehen es heute die aktive Bedienung von Produkten zu gestalten. Dabei geht es oft um User Interfaces, welche den Anwender auffordern etwas zu tun (Siehe Normans „Affordance“-Begriff).

Embedding technology into our environment changes our relationship with that technology, that environment and with each other.

Mit der Integration von Technologie in das menschliche Leben, wird diese gleichzeitig unsichtbarer. Der Aufforderungscharakter von User Interfaces geht mit dieser Entwicklung verloren. Anwender müssen wieder neu lernen, wie sie mit dieser neuen Technology interagieren. Er sieht aktuell drei Hauptmotivationen für Menschen auf diese neue Technology aufzuspringen. Erstens, um darüber zu zeigen, wie modern sie sind. Zweitens um damit zu experimentieren. Drittens, weil es finanzielle oder zeitliche Vorteile bringt.

Für UX Designer von integrierten Technologien ist es wichtig, sich damit auseinander zu setzen, welche Auswirkungen die neue Technologien und deren Integration auf das Leben der Anwender hat. UX Designer müssen sich deutlich mehr mit den Nutzungskontexten auseinandersetzen, um eine positive User Experience zu erreichen. Dadurch können Erlebnisse wie dieses vermieden werden: Das Baby wurde gerade mit viel Liebe zum Einschlafen gebracht hat. Um jetzt das Licht auszumachen, flüstert der Papa zu Alexa „Psst. Alexa, mach das Licht aus.“ und Alexa antwortet in voller Lautstärke „Welches Licht soll ich ausschalten“. Auch wenn es süß ist in die aufgeweckten Augen eines Babys zu schauen, war das in dieser Situation sicher nicht das Ziel.

Um in dieser grundlegenden Veränderung erfolgreiche Produkte gestalten zu können, ist es für UX Designer von zentraler Bedeutung sich noch mehr mit dem „Warum“ von Tätigkeiten zu beschäftigen … also damit, warum Menschen bestimmte Dinge in einer bestimmten Art und Weise tun. Es geht um das tiefe Verständnis von Vorgängen, Absichten und Problemen, um dadurch Ideen für neue erfolgreiche Produkte und Service zu entwickeln. Außerdem ist es für ihn wichtig die komplette User Journey zu erfassen und zu visualisieren. Die Situation und die Umständen in der bzw. unter den User Journeys beginnen, sind der Schöüssel zur Beantwortung der Frage nach dem „Warum“. Dazu setzt er in seiner Praxis auf klassische Methoden wie Tagebuch-Studien, Shadowing und Experience Mapping. Er verdeutlichte dies anhand von zwei Showcases zu Küchengeräten und Shopping.

Im Fazit seines Vortrags resümierte er: Die Digitalisierung ist heute oft technologie-getrieben. Er empfiehlt UX Designern die menschlichen Bedürfnisse und Emotionen anstelle der Technologie in den Vordergrund zu stellen. Es darf nicht nur um Effizienz gehen. Um eine erstrebenswerte Zukunft zu bauen, sollten Dinge wie Emotionen, soziale Beziehungen, menschliches Zusammenleben und Menschlichkeit im Mittelpunkt der digitalen Veränderung stehen.

Right now it feels like there is a technology looking for a problem.

Conversational UX – Von Chat bis Bot, von GUI bis VUI #bitkom #uux

Die heutige Sitzung des BITKOM AK Usability und User Experience fand in den schön gelegenen Räumlichkeiten von Microsoft am Rheinufer in Köln statt. Thematisch ging es um eines der Trendthemen des Jahres 2017 – Conversational User Interfaces. Wie immer will ich an dieser Stelle versuchen Euch einen Eindruck von der Veranstaltung zu geben und die wichtigsten Erkenntnisse zusammenzufassen. 

Chatty Devices – Sascha Wolter, Deutsche Telekom

Sascha eröffnete den Tag mit einer amüsanten Einleitung zum Thema Conversational UX. Wie üblich bediente er sich dabei seiner persönlichen Dauerfokusgruppe (n=3) um Erfahrungen mit sprachlichen User Interfaces zu sammeln. Die Beobachtung seiner familiären Testgruppe ergab, dass sich Menschen trotz anfänglicher Skepsis so schnell an die Konversation mit Maschinen und an die Steuerung mittels Sprache bedienen, dass sie sich mit der alten Welt der manuellen Schalter schwer tun. Dieser Umstand macht sich auch in der zunehmenden Menge an verfügbaren Geräten bemerkbar. Immer mehr Hersteller drängen mit Sprachassistenten auf den Markt, um so ihre Ökosysteme näher in die Alltagswelt der Anwender zu integrieren.


Aus seinen bisherigen Erfahrungen schloss er, dass sich Unternehmen, die sich jetzt nicht mit sprachlichen User Interfaces beschäftigen, mit hoher Wahrscheinlichkeit einen wichtigen Zugangskanal zu Ihren Kunden verlieren werden. Es wird dabei aber nicht so sein, dass sprachliche User Interfaces graphische User Interfaces komplett ersetzen. Vielmehr werden sie je nach Kontext eine Ergänzung bieten. Wir werden in naher Zukunft multimodale Ein- und Ausgabemedien nutzen, um mit Maschinen zu interagieren.

Does mouse and monitor soon become a thing of the past?

Das schöne an Saschas Vorträgen ist, dass er es vor aller Begeisterung für die neue Technologie und Möglichkeiten immer auch versteht eine kritische und differenzierte Sicht auf neue Dinge zu werfen. So beschäftigte er sich natürlich auch mit den Schattenseiten von Sprachassistenten wie Cortana, Alexa und Google Home. Auch wenn oft behauptet wird, dass diese Sprachassistenten das Leben der Nutzer ausspionieren, gibt es zumindest in Deutschland klare rechtliche Grenzen um dies zu verhindern. (Siehe §90 Telekommunikationsgesetz) So ist der Besitz und Betrieb von Geräten, die ohne des Wissens der Anwender aufnehmen und senden verboten. Alle am Markt verfügbaren Geräte dürfen sich daher nur nach dem Sagen eines Wake Words (z.B. „Alexa“) oder einem expliziten Knopfdruck mit den dahinterliegenden Cloudservice verbinden. Entwickler, die sich mit sprachlichen User Interfaces befassen, dürfen nicht nur den technischen Fortschritt im Auge behalten, sondern sie müssen sich auch intensiv damit beschäftigen was die Verwendung dieser Technologie für seine Anwender aus ethischer und moralischer Sicht bedeuten kann. Eltern stehen heute vor der Herausforderung den Umgang mit sprachlichen UIs und künstlicher Intelligenz ihren Kindern zu vermitteln. (Siehe moralmachine.mit)

Auch wenn sich sprachliche User Interfaces in einer atemberaubenden Geschwindigkeit im Monatsrythmus weiterentwickeln, so ist die Thematik nicht neu. Für die Gestaltung von Conversational UIs verwies auf Grundlagenliteratur aus dem Jahr 1975, wie z.B. Grice’s Maxims. Eine der großen Herausforderungen bei der Gestaltung ist die Persönlichkeit von sprachlichen Interfaces. Wenn es nicht gelingt die Persönlichkeit eines Sprachassistenten authentisch und natürlich zu gestalten, landet man schnell im Uncanny Valley. Der Persönlichkeit von Sprachassistenten sollte daher eine hohe Aufmerksamkeit zu teil werden. (Siehe Cortana vs. Siri) Außerdem empfahl er die Gestaltung an den Richtlinien der Hersteller zu orientieren (z.B. Design Checklist von Google)

Create more personal computing – Malte Lantin, Microsoft

Malte Lantin gab in seinem Vortrag einen Einblick in die Sichtweise von Microsoft auf sprachliche User Interfaces. Microsoft versteht Konversationen als eine neue Plattform für die Mensch-Maschine-Interaktion. Sie unterscheiden dabei zwischen digitalen Assistenten, wie z.B. Cortana und Bots. Bots sind nach Microsoft-Sichtweise wie Apps, in denen die Funktionen angeboten werden. Digitale Assistenten sind Meta-Apss, die lediglich eine natürliche Brücke zwischen Mensch und Bot schlagen.

Human language is the new UI.

Microsoft-typisch ging er in einer kleinen Tech-Demo auf die techn. Möglichkeiten des Microsoft Bot Framework, der Cognitive Services und Microsofts Luis.ai ein. Außerdem stellte er den QnA-Maker vor mit dem sich aus FAQ einfache Chatbots erzeugen lassen.

Wer Bequemlichkeit beim Einkaufen schätzt, der wird den Amazon Echo lieben. – Thorsten Wilhelm, eResult

Thorsten Wilhelm stellte die Ergebnisse einer Studie (n=5) vor, in der das Nutzungserlebnis mit Amazon Echo untersucht wurde. Die Studie wurde durchgeführt, weil er durch die 300 Mio aktiven Amazon-Kunden und schon heute über 400.000 Echo-Geräten in Deutschland großes Potential für Amazon Echo sieht. Er sieht es als den Weg für Unternehmen ihre Dienste enger in den Alltag der Anwender zu integrieren. Aber auch bei dieser Technologie gilt: „Nicht irgendwas machen, nur um auch dabei zu sein.“. Um erfolgreich zu sein, gilt es herauszufinden, welchen echten Nutzen diese Interaktion stiften kann.

„Wir stellten fest, dass Amazon Echo („Alexa“) recht schnell in den Alltag integriert wird, neue Rituale entstehen und sich der Umgang mit anderen Geräten und auch die Kommunikation mit dem Partner und der Familie verändern.

Die Studie ist kostenlos auf der eResult-Webseite verfügbar.

Alexa Development: einmal API und zurück, bitte – Christoph Jerolimov


Wie der Titel des Beitrags schon andeut, führte Christoph Jerolimov die Teilnehmer anhand der beiden Alexa-Skills mobilecologne und Kino Bonn an die Implementierung von Alexa-Skills mit dem Alexa Skills Kit heran. Er erläuterte die technischen Grundprinzipien und zeigte Ausschnitte aus dem Programmcode der beiden Skills.

Es könnte aber alles so einfach sein, isses aber nich – Ulrich Leschak, Peter Behrens School of Art Düsseldorf


Ulrich Leschak – seines Zeichens Lehrbeauftragte für Kommunikationsdesign der Peter Behrens School of Art Düsseldorf – beschäftigte sich in seinem Beitrag mit dem Thema Einfachheit. Er betrachtet die Entwicklung der Sprachassistenten eingangs recht kritisch. Aus seiner Sicht führen sie dazu, dass die Menschen nicht mehr zu sich selbst finden. Die zahlreichen Geräte lenken sehr vom Leben ab und stören, wenn sie schlecht gestaltet sind. 

Wenn man weiß wie es geht, ist alles einfach. – Ulrich Leschak

Zu Einfachheit sagte er: Einfachheit ist eine Illusion, die schwer zu erzeugen ist. Einfachheit hängt immer vom Betrachter ab. Einfachheit ist eine Kunst und erfordert manchmal Besessenheit bei der Suche nach der einfachsten Lösung. Natürlich zitierte er in diesem Zusammhang auch die Laws of simplicity von Maeda.

Mit Blick auf die sprachliche User Interfaces plädierte er für einen verantwortungsvollen Umgang mit dieser Technologie. Entwickler müssen sich bewusst sein, welche emotionale Kraft  dieser Technologie innewohnt und welche Auswirkungen ein unbedachter Einsatz auf die Menschen haben kann.

Prototyping Conversations – Johannes Baeck, usability.de

Im letzten Vortrag des Tages ging Johannes Baeck auf die nutzerzentrierte Gestaltung von Conversational UI ein. Er berichtete aus einem Praxisprojekt mit welchen Methoden usability.de in den unterschiedlichen Projektphasen arbeitetet, um Konversationen zu konzipieren. 


So setzten sie in der Forschungsphase des Projektes beispielsweise auf Contextual Interviews in den Räumlichkeiten der Anwender, um den Kontext besser zu verstehen, in dem die Konversation stattfindet. Weiterhin erhoben sie Fragen, die Anwender in der Konversation mit der Maschine stellen wollen und welcher Modus (Screen, Sprache oder beides) für die Konversation am besten geeignet ist. In der Strategiephase verwendeten sie Experience Maps, um die Konversation im Gesamtkontext des Use Cases einordnen zu können und gemeinsames Verständnis im Team für den Umfang des Use Cases zu entwickeln. 

Personality allows people to know how to behave towards others and what to expect in return. – Wired for Speech, Clifford Nass & Scott Brave

Die Persönlichkeit des Bots gestalteten sie anhand von Bot-Personas. In diesen speziellen Personas wurden insbesondere Wertversprechen, Interaktionsprinzipien und Persönlichkeiten definiert. Auf diese Weise entstanden die Richtlinien für das Verhalten des Bots. In der Designphase bauten sie mittels Papier oder Sayspring – einem Prototyping-Tool für Alexa Skills – Prototypen und evaluierten Konversationen mit der Wizard-of-Oz-Methode.

Neues aus dem AK UUX

Neben der Ankündigung, dass der nächste AK UUX im Oktober bei DATEV in Nürnberg stattfinden wird, gab es auch erfreuliche Nachrichten. Der bitkom-Leitfaden „Usability & User Experience – Software näher zum Nutzer bringen“ ist endlich verfügbar. Der Leitfaden zeigt Best Practices aus dem Bereich User Experience für Unternehmen auf und gibt Entscheidungshilfen zur Auswahl und zum Einsatz von Methoden sowie Vorgehensweisen.

Panel: Human Computer Integration vs. Powerful Tools #chi2017

Kurz vor der Mittagspause wurde es richtig spannend auf der CHI 2017. Umer Farooq (Facebook), Jonathan T. Grudin (Microsoft Research), Ben Shneiderman (University of Maryland), Pattie Maes (MIT Media Lab) und Xiangshi Ren (Kochi University of Technology) diskutierten über das neue Trendthema der HCI-Community „Human Computer Integration“. Der Begriff selbst geht auf eine Veröffentlichung von Umer Farooq und Jonathan T. Grudin in der ACM-Publikation „Interactions“ aus dem Dezember 2016 zurück. Dieser beschäftigt sich intensiv mit den Auswirkungen der aktuell zu beoachtende Veränderung, dass immer weniger Maschinen und digitale Systeme durch Menschen direkt bedient werden müssen, sondern sich diese durch ihre eingebauten Algorithmen zunehmend wie eigenständige Persönlichkeiten verhalten.


Die Diskussion wurde durch Position Statements von Ben Shneiderman, Pattie Maes und Xiangshi Ren eröffnet. Ben Shneiderman vertrat in seinem Statement „Design Principles for Powerful Tool“ den Standpunkt, dass Menschen nachwievor die Verantwortung für die Werkzeuge, die sie nutzen übernehmen können müssen. 

Responsibility is a key driver of clear successful design.

Er hält ganz offensichtlich wenig von den ganzen Assistenten und digitalen Helferlein, die versuchen menschliches Verhalten zu immitieren. Die Vergangenheit hat seiner Meinung nach gezeigt, dass sich solche Systeme nicht bewähren.

AI community is not learning its lesson.

Er sieht es als die Aufgabe von digitalen Systemen Vertrauen und Empathie zwischen Menschen zu schaffen und nicht zwischen Menschen und Mashinen. Er hält an seinen Designprizipien fest, dass Werkzeuge verständlich, vorhersagbar und kontrollierbar sein müssen. Er will die menschliche Identität bewahren und nicht in einer Welt voller Cyborgs leben. Werkzeuge müssen Menschen bei Ihren Tätigkeiten unterstützen, das Lernen und die Zufriedenheit fördern. Nur so kann die Menschheit vorankommen. Er zitierte dann auch Galileo, der seine Entdeckungen auch nicht in Partnerschaft mit seinem Teleskop gemacht hat. Er nutzte es lediglich als Werkzeug.

Respect and value what it means to be a human.

Pattie Maes vertrat in dieser Diskussion die Kontraposition. In ihrem Statement The next era in computing: Human computer integration“ bezeichnete sie das partnerschaftliche Miteinander (Human Computer Integration) als unausweichlich, notwendig und wünschenswert. Sie begründete das mit 3 wesentlichen Trends:

  1. „Computers are getting closer to our bodies“: Die Interaktionen zwischen Mensch und Maschine sind immer näher an den menschlichen Körper herangerückt. Zu Beginn der Entwicklung musste man noch in spezielle Räume in Rechenzentren gehen, um digitale Systeme zu nutzen. Dann wanderte der Interaktion von Desktops über Smartphones und Wearables direkt an den menschlichen Körper.
  2. I/O: Die Eingabe- und Ausgabemechanismen haben sich von Lochkarten über Text-UIs und grafische Bedienoberflächen hin zu Touch und Sprache entwickelt. Heutige Systeme nutzen ein gewisses Spektrum der menschlichen Kommunikation für Ein- und Ausgabe … und I/O wird noch menschlicher. 
  3. „Computer become essential in every aspect in our life“: Zu Beginn der Entwicklung wurden Computer im wesentlichen für wissenschaftliche Aufgaben genutzt. Dies erweiterte sich dann schnell um persönliche Kommunikation und Unterhaltung. Heute sind Computer aus vielen Lebensbereichen nicht mehr wegzudenken.

Human Computer Interaction hat uns zwar schon weit gebracht, bringt aber auch einige Nachteile mit sich. So verlangen heutige digitale Systeme, wie z.B. Smartphones, sehr viel Aufmerksamkeit von ihren Nutzern. Die Aufmerksamkeit der Menschen muss zukünftig wieder weg von den Geräten hin zur Interaktion in der realen Welt gelenkt werde. Weiterhin sind die Ein- und Ausgabemethoden zwar schon vielschichtiger geworden, aber immer noch sehr limitiert. Es ist nicht wirklich sinnvoll wenn die Eingabe bei Smartphones auf zwei Daumen beschränkt ist. Die Ein- und Ausgabe von digitalen Systemen muss sich zukünftig die gesamte Bandbreite der menschlichen Kommunikation zu nutze machen. Außerdem haben die aktuellen digitalen Systeme zu stark verkürzten Aufmerksamkeitsspannen beim Menschen geführt. Multitasking-Situationen überfordern die menschlichen Fähigkeiten. 

Digitale Systeme sollten uns Menschen zukünftig als Coaches ganzheitlich dabei unterstützen zu den Menschen zu werden, die wir sein wollen. Die Enabler dafür sind auch schon da. Sensoren liefern immer mehr der dafür notwendigen Informationen. Künstliche Intelligenz interpretiert diese Daten und Kontexte sowie gibt uns darauf basierende Empfehlungen. Augmented Reality hilft dabei diese Informationen und Empfehlungen in unsere reale Umgebung zu integrieren.

„4th gen computer will be a natural extension that is always on, augments our experience, and helps us become the person we want to be“

    Xiangshi Ren ging es in seinem Statement „Integration as Human Engaged Computing (HEC)“ vorallem um die Überlebensfähigkeit der Menschheit. Aus seiner Sicht muss die Beziehung zwischen Mensch und Maschine grundlegend überdacht werden. Wenn die Fähigkeiten von Mensch und Maschine in Balance gebracht werden und sich gegenseitig ergänzen, dann ist es nicht nur möglich die menschlichen Fähigkeiten zu verbessern, sondern auch die Überlebensfähigkeit der Menschheit zu erhöhen. In seinem Statement folgte er der Philosophie, dass 1+1 mehr ist als 2.

    Die Diskussion im Publikum warf dann einige spannende Aspekte auf:

    Was passiert mit Menschen, die keinen Zugang zu solchen integrierten Technologien haben? Werden sie abgehängt?

    In der Diskussion wurde dies von einigen Teilnehmern als bereits bestehendes Problem angesehen, was durch die aktuellen Entwicklungen verstärkt wird. Um das zu verhindern, müssten die Technologien zum einen so günstig sein, dass sie sich jeder leisten kann. Ebenso müssten sich die Geschäftsmodelle für solche Technologien entsprechend verändern. Andere Teilnehmer sagten, dass dieses Problem bereits durch die Anpassungsfähigkeit des Menschen adressiert wird. Die Einstellungen der Menschen wird sich dahingehend ändern, dass der Zugang zu solchen Technologien höher bewertet werden wird, als andere Bedürfnisse. Als Beispiel wurden afrikanische Dörfer angeführt, an denen zwar viele technologische Entwicklungen vorbeigegangen sind, aber trotzdem fast jeder Einwohner ein Mobiltelefon hat.

    Menschen sind nicht perfekt und brauchen Unterstützung

    Menschen sind nicht perfekt und werden es auch nie sein. Sie machen Fehler. Sie stellen falsch Diagnosen oder schlafen am Steuer einfach ein. Menschen sollten durch Technologie dazu befähigt werden weniger Fehler zu machen. Von einer höheren Perspektive betrachtet, braucht die alternde und durch ihr Wachstum komplexer werdende menschliche Gesellschaft neuen Impulse um über ihre aktuellen Fähigkeiten hinauszuwachsen und um überlebensfähig zu bleiben.

    Verantwortung und Kontrolle

    Wir nutzen heute digitale Werkzeug, die sich im Wesentlichen noch so verhalten wie früher. In ihrem Kern sind sie aber schon teilweise intelligente Systeme. Kritisch daran ist dass sie zwar verständlich und kontrollierbar wirken, es aber in Wirklichkeit nicht sind. Die letzten Wahlen in den USA wurden als Beispiel dafür genannt, dass die Algorithmen aus Kontrolle geraten und missbraucht werden können. 

    Die Hersteller von intelligenten Systemen müssen die Verantwortung für ihre Systeme übernehmen … vor allem, wenn was schief geht. Darüberhinaus müssen Algorithmen von bedeutsamen Systemen, genau wie Gebäude oder Flugssysteme durch öffentlcihe Stellen auf ihre Kontrollierbarkeit geprüft werden. Es müsen zwingend Mechanismen zur Überwachung dieser Systeme und zur Analyse von Fehlverhalten geschaffen werden.

    Um das Ausmaß an Kontrolle erkennen zu kennen, sollten nicht nur die Implikationen auf einzelne Menschen, sondern Implikationen auf die gesamte Gesellschaftbetrachtet werden.

    HCI-Researcher müssen reagieren

    Human Computer Interaction-Researcher verfügen heute nicht über die entsprechenden Methoden, Vorgehensweisen und Kenntnisse, um integrierte Systeme zu gestalten. Das HCI-Methodenset muss entsprechend erweitert werden. 

    Menschen werden durch künstliche Intelligenz zu Dienern und Beobachtern

    Es ist zu Beobachten, dass Menschen durch aktuelle intelligente und integrierte Systemen die meiste Zeit zu Beobachtern werden. Ein viel zitiertes Beispiel war hier der Autopilot von Tesla. Ein Teilnehmer ging sogar soweit und beschrieb am Beispiel von UBER, wie Menschen zu Dienern von intelligenten Systemen werden, die ihnen sagen, was sie zu tun haben.

    Kritik an der AI Community

    Es wurde kritisiert, dass sie die Community für künstliche Intelligenz (AI-Community) im Wesentlichen mit ihren Algorithmen und nicht genug mit deren Einfluss auf menschliches Verhalten beschäftigt. Es ensteht aktuell der Eindruck, dass die AI Community gottgleich menschenähnliche Systeme schaffen will ohne die Konsequenzen zu betrachten.

    Wir haben keine Wahl
    So hitzig die Diskussion an manchen Stellen auch war. Es wurde sehr klar, dass wir gar keine Wahl mehr haben. Intelligente und integrierte Systeme werden zunehmen. Und auch wenn die heutige Generation noch wegschauen kann, so müssen sich nachfolgende Generationen damit beschäftigen. Daher sollten wir als UX Professionals jetzt damit anfangen.

    Siehe auch

    ACM: Human Computer Integration

    The trouble with autopilots: Assisted and autonomous driving on the social road #chi2017

    Barry Brown (University of Stockholm) kritisierte zu Beginn seines Vortrages das im Forschungsfeld des autonomen Fahrens nahezu ausschließlich über Sicherheit geforscht wird. Emotionale Aspekte und soziale Interaktionen im Straßenverkehr kommen seiner Ansicht nach zu kurz. Außerdem wird zu viel in Simulatoren und zu wenig auf der Straße geforscht. Interessant fand ich, dass offensichtlich viele Fahrer von Teslas gibt, die teilweise mit unterschiedlichen Kameras die Funktionsweise des Autopiloten aufzeichnen und auf youtube hochladen. Barry Brown analysierte 10,5 Stunden dieses Videomaterials von Google- und Tesla-Fahrzeugen. Dabei interessierte ihn besonders wie sich automatisiert fahrende Fahrzeuge im Verkehr verhalten und wie sie mit anderen Fahrzeugen bzw. andere Fahrer mit ihnen interagieren. Er kam zusammengefasst zu folgenden Erkenntnissen:

    • Autonome Fahrzeuge müssen noch viel dazu lernen, wie sie mit anderen Fahrzeugen interagieren. Dies wird noch eine längere Zeit in Anspruch nehmen, als aktuell vorhergesagt wird.
    • Autonome Fahrzeuge brauchen Kommunikationsfähigkeiten, um anderen Fahrern zu zeigen, was sie gerade tun. Wie bei anderen Systemen auch, bedarf es einer Transparenz des Verhaltens – nicht nur für Fahrer, sondern auch für andere Verkehrsteilnehmer. Autonome Fahrzeuge müssen für eine soziale Interaktion im Straßenverkehr ausgelegt werden. 

    Priming drivers before handover in semi-autonomous cars #chi2017

    Der Beitrag von Remo van der Heiden (Microsoft Research) drehte sich um das Priming von Autofahrern in semi-automatisierten Fahrzeugen. Auf dem Weg hin zu voll-autonomen Fahrzeugen muss die Interaktion zwischen Fahrer und Fahrzeug um teilautomatisieren Nutzungsszenarien erweitert werden, um sicheres Fahren in allen Stadien dieser Entwicklung zu ermöglichen.  

    Konkret ging er der Frage nach, wie ein möglicherweise abgelenkte Fahrer in semi-autonomen Fahrzeugen reaktiviert werden kann (Handover), wenn das Fahrzeug das automatischen Fahren nicht mehr übernehmen kann. Das experimentelle Setting für die Klärung dieser Frage umfasste 4 Situationen (z.B. Hund kreuzt Fahrbahn, starker Nebel) und zwei Tätigkeiten zur Ablenkung (z.B. Telefonanruf). Es wurden zwei unterschiedliche Typen für einen Pre-Alarm und der Vergleich von Handover mit sowie ohne Pre-Alarm untersucht. Seine Erkenntnisse im Überblick:

    • Fahrer brauchen Zeit, um sich von der ablenkenden Tätigkeit auf das Fahren zu fokussieren.
    • Damit der Handover erfolgreich klappt, ist ein PreAlert ca. 7-20 Sekunden vor dem Eintreten des Handovers sinnvoll. Die Fahrer schauen dadurch früher wieder auf die Straße, reduzieren ihre Geschwindigkeit und beenden früher die ablenkende Tätigkeit. Für mich stellt sich da natürlich die Frage, wie Fahrzeuge in die Lage versetzt werden, dass sie 7-20 Sekunden vorausschauen können.
    • Der Pre-Alert darf dabei nicht zu aufdringlich sein. Die Art des Pre-Alarms hatte keinen großen Einfluss auf das Verhalten der Fahrer.