Kategorie-Archiv: Human Computer Integration

Panel: Human Computer Integration vs. Powerful Tools #chi2017

Kurz vor der Mittagspause wurde es richtig spannend auf der CHI 2017. Umer Farooq (Facebook), Jonathan T. Grudin (Microsoft Research), Ben Shneiderman (University of Maryland), Pattie Maes (MIT Media Lab) und Xiangshi Ren (Kochi University of Technology) diskutierten über das neue Trendthema der HCI-Community „Human Computer Integration“. Der Begriff selbst geht auf eine Veröffentlichung von Umer Farooq und Jonathan T. Grudin in der ACM-Publikation „Interactions“ aus dem Dezember 2016 zurück. Dieser beschäftigt sich intensiv mit den Auswirkungen der aktuell zu beoachtende Veränderung, dass immer weniger Maschinen und digitale Systeme durch Menschen direkt bedient werden müssen, sondern sich diese durch ihre eingebauten Algorithmen zunehmend wie eigenständige Persönlichkeiten verhalten.


Die Diskussion wurde durch Position Statements von Ben Shneiderman, Pattie Maes und Xiangshi Ren eröffnet. Ben Shneiderman vertrat in seinem Statement „Design Principles for Powerful Tool“ den Standpunkt, dass Menschen nachwievor die Verantwortung für die Werkzeuge, die sie nutzen übernehmen können müssen. 

Responsibility is a key driver of clear successful design.

Er hält ganz offensichtlich wenig von den ganzen Assistenten und digitalen Helferlein, die versuchen menschliches Verhalten zu immitieren. Die Vergangenheit hat seiner Meinung nach gezeigt, dass sich solche Systeme nicht bewähren.

AI community is not learning its lesson.

Er sieht es als die Aufgabe von digitalen Systemen Vertrauen und Empathie zwischen Menschen zu schaffen und nicht zwischen Menschen und Mashinen. Er hält an seinen Designprizipien fest, dass Werkzeuge verständlich, vorhersagbar und kontrollierbar sein müssen. Er will die menschliche Identität bewahren und nicht in einer Welt voller Cyborgs leben. Werkzeuge müssen Menschen bei Ihren Tätigkeiten unterstützen, das Lernen und die Zufriedenheit fördern. Nur so kann die Menschheit vorankommen. Er zitierte dann auch Galileo, der seine Entdeckungen auch nicht in Partnerschaft mit seinem Teleskop gemacht hat. Er nutzte es lediglich als Werkzeug.

Respect and value what it means to be a human.

Pattie Maes vertrat in dieser Diskussion die Kontraposition. In ihrem Statement The next era in computing: Human computer integration“ bezeichnete sie das partnerschaftliche Miteinander (Human Computer Integration) als unausweichlich, notwendig und wünschenswert. Sie begründete das mit 3 wesentlichen Trends:

  1. „Computers are getting closer to our bodies“: Die Interaktionen zwischen Mensch und Maschine sind immer näher an den menschlichen Körper herangerückt. Zu Beginn der Entwicklung musste man noch in spezielle Räume in Rechenzentren gehen, um digitale Systeme zu nutzen. Dann wanderte der Interaktion von Desktops über Smartphones und Wearables direkt an den menschlichen Körper.
  2. I/O: Die Eingabe- und Ausgabemechanismen haben sich von Lochkarten über Text-UIs und grafische Bedienoberflächen hin zu Touch und Sprache entwickelt. Heutige Systeme nutzen ein gewisses Spektrum der menschlichen Kommunikation für Ein- und Ausgabe … und I/O wird noch menschlicher. 
  3. „Computer become essential in every aspect in our life“: Zu Beginn der Entwicklung wurden Computer im wesentlichen für wissenschaftliche Aufgaben genutzt. Dies erweiterte sich dann schnell um persönliche Kommunikation und Unterhaltung. Heute sind Computer aus vielen Lebensbereichen nicht mehr wegzudenken.

Human Computer Interaction hat uns zwar schon weit gebracht, bringt aber auch einige Nachteile mit sich. So verlangen heutige digitale Systeme, wie z.B. Smartphones, sehr viel Aufmerksamkeit von ihren Nutzern. Die Aufmerksamkeit der Menschen muss zukünftig wieder weg von den Geräten hin zur Interaktion in der realen Welt gelenkt werde. Weiterhin sind die Ein- und Ausgabemethoden zwar schon vielschichtiger geworden, aber immer noch sehr limitiert. Es ist nicht wirklich sinnvoll wenn die Eingabe bei Smartphones auf zwei Daumen beschränkt ist. Die Ein- und Ausgabe von digitalen Systemen muss sich zukünftig die gesamte Bandbreite der menschlichen Kommunikation zu nutze machen. Außerdem haben die aktuellen digitalen Systeme zu stark verkürzten Aufmerksamkeitsspannen beim Menschen geführt. Multitasking-Situationen überfordern die menschlichen Fähigkeiten. 

Digitale Systeme sollten uns Menschen zukünftig als Coaches ganzheitlich dabei unterstützen zu den Menschen zu werden, die wir sein wollen. Die Enabler dafür sind auch schon da. Sensoren liefern immer mehr der dafür notwendigen Informationen. Künstliche Intelligenz interpretiert diese Daten und Kontexte sowie gibt uns darauf basierende Empfehlungen. Augmented Reality hilft dabei diese Informationen und Empfehlungen in unsere reale Umgebung zu integrieren.

„4th gen computer will be a natural extension that is always on, augments our experience, and helps us become the person we want to be“

    Xiangshi Ren ging es in seinem Statement „Integration as Human Engaged Computing (HEC)“ vorallem um die Überlebensfähigkeit der Menschheit. Aus seiner Sicht muss die Beziehung zwischen Mensch und Maschine grundlegend überdacht werden. Wenn die Fähigkeiten von Mensch und Maschine in Balance gebracht werden und sich gegenseitig ergänzen, dann ist es nicht nur möglich die menschlichen Fähigkeiten zu verbessern, sondern auch die Überlebensfähigkeit der Menschheit zu erhöhen. In seinem Statement folgte er der Philosophie, dass 1+1 mehr ist als 2.

    Die Diskussion im Publikum warf dann einige spannende Aspekte auf:

    Was passiert mit Menschen, die keinen Zugang zu solchen integrierten Technologien haben? Werden sie abgehängt?

    In der Diskussion wurde dies von einigen Teilnehmern als bereits bestehendes Problem angesehen, was durch die aktuellen Entwicklungen verstärkt wird. Um das zu verhindern, müssten die Technologien zum einen so günstig sein, dass sie sich jeder leisten kann. Ebenso müssten sich die Geschäftsmodelle für solche Technologien entsprechend verändern. Andere Teilnehmer sagten, dass dieses Problem bereits durch die Anpassungsfähigkeit des Menschen adressiert wird. Die Einstellungen der Menschen wird sich dahingehend ändern, dass der Zugang zu solchen Technologien höher bewertet werden wird, als andere Bedürfnisse. Als Beispiel wurden afrikanische Dörfer angeführt, an denen zwar viele technologische Entwicklungen vorbeigegangen sind, aber trotzdem fast jeder Einwohner ein Mobiltelefon hat.

    Menschen sind nicht perfekt und brauchen Unterstützung

    Menschen sind nicht perfekt und werden es auch nie sein. Sie machen Fehler. Sie stellen falsch Diagnosen oder schlafen am Steuer einfach ein. Menschen sollten durch Technologie dazu befähigt werden weniger Fehler zu machen. Von einer höheren Perspektive betrachtet, braucht die alternde und durch ihr Wachstum komplexer werdende menschliche Gesellschaft neuen Impulse um über ihre aktuellen Fähigkeiten hinauszuwachsen und um überlebensfähig zu bleiben.

    Verantwortung und Kontrolle

    Wir nutzen heute digitale Werkzeug, die sich im Wesentlichen noch so verhalten wie früher. In ihrem Kern sind sie aber schon teilweise intelligente Systeme. Kritisch daran ist dass sie zwar verständlich und kontrollierbar wirken, es aber in Wirklichkeit nicht sind. Die letzten Wahlen in den USA wurden als Beispiel dafür genannt, dass die Algorithmen aus Kontrolle geraten und missbraucht werden können. 

    Die Hersteller von intelligenten Systemen müssen die Verantwortung für ihre Systeme übernehmen … vor allem, wenn was schief geht. Darüberhinaus müssen Algorithmen von bedeutsamen Systemen, genau wie Gebäude oder Flugssysteme durch öffentlcihe Stellen auf ihre Kontrollierbarkeit geprüft werden. Es müsen zwingend Mechanismen zur Überwachung dieser Systeme und zur Analyse von Fehlverhalten geschaffen werden.

    Um das Ausmaß an Kontrolle erkennen zu kennen, sollten nicht nur die Implikationen auf einzelne Menschen, sondern Implikationen auf die gesamte Gesellschaftbetrachtet werden.

    HCI-Researcher müssen reagieren

    Human Computer Interaction-Researcher verfügen heute nicht über die entsprechenden Methoden, Vorgehensweisen und Kenntnisse, um integrierte Systeme zu gestalten. Das HCI-Methodenset muss entsprechend erweitert werden. 

    Menschen werden durch künstliche Intelligenz zu Dienern und Beobachtern

    Es ist zu Beobachten, dass Menschen durch aktuelle intelligente und integrierte Systemen die meiste Zeit zu Beobachtern werden. Ein viel zitiertes Beispiel war hier der Autopilot von Tesla. Ein Teilnehmer ging sogar soweit und beschrieb am Beispiel von UBER, wie Menschen zu Dienern von intelligenten Systemen werden, die ihnen sagen, was sie zu tun haben.

    Kritik an der AI Community

    Es wurde kritisiert, dass sie die Community für künstliche Intelligenz (AI-Community) im Wesentlichen mit ihren Algorithmen und nicht genug mit deren Einfluss auf menschliches Verhalten beschäftigt. Es ensteht aktuell der Eindruck, dass die AI Community gottgleich menschenähnliche Systeme schaffen will ohne die Konsequenzen zu betrachten.

    Wir haben keine Wahl
    So hitzig die Diskussion an manchen Stellen auch war. Es wurde sehr klar, dass wir gar keine Wahl mehr haben. Intelligente und integrierte Systeme werden zunehmen. Und auch wenn die heutige Generation noch wegschauen kann, so müssen sich nachfolgende Generationen damit beschäftigen. Daher sollten wir als UX Professionals jetzt damit anfangen.

    Siehe auch

    ACM: Human Computer Integration

    The trouble with autopilots: Assisted and autonomous driving on the social road #chi2017

    Barry Brown (University of Stockholm) kritisierte zu Beginn seines Vortrages das im Forschungsfeld des autonomen Fahrens nahezu ausschließlich über Sicherheit geforscht wird. Emotionale Aspekte und soziale Interaktionen im Straßenverkehr kommen seiner Ansicht nach zu kurz. Außerdem wird zu viel in Simulatoren und zu wenig auf der Straße geforscht. Interessant fand ich, dass offensichtlich viele Fahrer von Teslas gibt, die teilweise mit unterschiedlichen Kameras die Funktionsweise des Autopiloten aufzeichnen und auf youtube hochladen. Barry Brown analysierte 10,5 Stunden dieses Videomaterials von Google- und Tesla-Fahrzeugen. Dabei interessierte ihn besonders wie sich automatisiert fahrende Fahrzeuge im Verkehr verhalten und wie sie mit anderen Fahrzeugen bzw. andere Fahrer mit ihnen interagieren. Er kam zusammengefasst zu folgenden Erkenntnissen:

    • Autonome Fahrzeuge müssen noch viel dazu lernen, wie sie mit anderen Fahrzeugen interagieren. Dies wird noch eine längere Zeit in Anspruch nehmen, als aktuell vorhergesagt wird.
    • Autonome Fahrzeuge brauchen Kommunikationsfähigkeiten, um anderen Fahrern zu zeigen, was sie gerade tun. Wie bei anderen Systemen auch, bedarf es einer Transparenz des Verhaltens – nicht nur für Fahrer, sondern auch für andere Verkehrsteilnehmer. Autonome Fahrzeuge müssen für eine soziale Interaktion im Straßenverkehr ausgelegt werden. 

    Priming drivers before handover in semi-autonomous cars #chi2017

    Der Beitrag von Remo van der Heiden (Microsoft Research) drehte sich um das Priming von Autofahrern in semi-automatisierten Fahrzeugen. Auf dem Weg hin zu voll-autonomen Fahrzeugen muss die Interaktion zwischen Fahrer und Fahrzeug um teilautomatisieren Nutzungsszenarien erweitert werden, um sicheres Fahren in allen Stadien dieser Entwicklung zu ermöglichen.  

    Konkret ging er der Frage nach, wie ein möglicherweise abgelenkte Fahrer in semi-autonomen Fahrzeugen reaktiviert werden kann (Handover), wenn das Fahrzeug das automatischen Fahren nicht mehr übernehmen kann. Das experimentelle Setting für die Klärung dieser Frage umfasste 4 Situationen (z.B. Hund kreuzt Fahrbahn, starker Nebel) und zwei Tätigkeiten zur Ablenkung (z.B. Telefonanruf). Es wurden zwei unterschiedliche Typen für einen Pre-Alarm und der Vergleich von Handover mit sowie ohne Pre-Alarm untersucht. Seine Erkenntnisse im Überblick:

    • Fahrer brauchen Zeit, um sich von der ablenkenden Tätigkeit auf das Fahren zu fokussieren.
    • Damit der Handover erfolgreich klappt, ist ein PreAlert ca. 7-20 Sekunden vor dem Eintreten des Handovers sinnvoll. Die Fahrer schauen dadurch früher wieder auf die Straße, reduzieren ihre Geschwindigkeit und beenden früher die ablenkende Tätigkeit. Für mich stellt sich da natürlich die Frage, wie Fahrzeuge in die Lage versetzt werden, dass sie 7-20 Sekunden vorausschauen können.
    • Der Pre-Alert darf dabei nicht zu aufdringlich sein. Die Art des Pre-Alarms hatte keinen großen Einfluss auf das Verhalten der Fahrer.