Kategorie-Archiv: Human Computer Integration

Designing Intelligence into Everyday Life #uxstrat


Paul-Jervis Heath (Modern Human) eröffnete die diesjährige UXSTRAT mit seinem Vortrag zur Integration von Mensch und Maschinen. UX Designer verstehen es heute die aktive Bedienung von Produkten zu gestalten. Dabei geht es oft um User Interfaces, welche den Anwender auffordern etwas zu tun (Siehe Normans „Affordance“-Begriff).

Embedding technology into our environment changes our relationship with that technology, that environment and with each other.

Mit der Integration von Technologie in das menschliche Leben, wird diese gleichzeitig unsichtbarer. Der Aufforderungscharakter von User Interfaces geht mit dieser Entwicklung verloren. Anwender müssen wieder neu lernen, wie sie mit dieser neuen Technology interagieren. Er sieht aktuell drei Hauptmotivationen für Menschen auf diese neue Technology aufzuspringen. Erstens, um darüber zu zeigen, wie modern sie sind. Zweitens um damit zu experimentieren. Drittens, weil es finanzielle oder zeitliche Vorteile bringt.

Für UX Designer von integrierten Technologien ist es wichtig, sich damit auseinander zu setzen, welche Auswirkungen die neue Technologien und deren Integration auf das Leben der Anwender hat. UX Designer müssen sich deutlich mehr mit den Nutzungskontexten auseinandersetzen, um eine positive User Experience zu erreichen. Dadurch können Erlebnisse wie dieses vermieden werden: Das Baby wurde gerade mit viel Liebe zum Einschlafen gebracht hat. Um jetzt das Licht auszumachen, flüstert der Papa zu Alexa „Psst. Alexa, mach das Licht aus.“ und Alexa antwortet in voller Lautstärke „Welches Licht soll ich ausschalten“. Auch wenn es süß ist in die aufgeweckten Augen eines Babys zu schauen, war das in dieser Situation sicher nicht das Ziel.

Um in dieser grundlegenden Veränderung erfolgreiche Produkte gestalten zu können, ist es für UX Designer von zentraler Bedeutung sich noch mehr mit dem „Warum“ von Tätigkeiten zu beschäftigen … also damit, warum Menschen bestimmte Dinge in einer bestimmten Art und Weise tun. Es geht um das tiefe Verständnis von Vorgängen, Absichten und Problemen, um dadurch Ideen für neue erfolgreiche Produkte und Service zu entwickeln. Außerdem ist es für ihn wichtig die komplette User Journey zu erfassen und zu visualisieren. Die Situation und die Umständen in der bzw. unter den User Journeys beginnen, sind der Schöüssel zur Beantwortung der Frage nach dem „Warum“. Dazu setzt er in seiner Praxis auf klassische Methoden wie Tagebuch-Studien, Shadowing und Experience Mapping. Er verdeutlichte dies anhand von zwei Showcases zu Küchengeräten und Shopping.

Im Fazit seines Vortrags resümierte er: Die Digitalisierung ist heute oft technologie-getrieben. Er empfiehlt UX Designern die menschlichen Bedürfnisse und Emotionen anstelle der Technologie in den Vordergrund zu stellen. Es darf nicht nur um Effizienz gehen. Um eine erstrebenswerte Zukunft zu bauen, sollten Dinge wie Emotionen, soziale Beziehungen, menschliches Zusammenleben und Menschlichkeit im Mittelpunkt der digitalen Veränderung stehen.

Right now it feels like there is a technology looking for a problem.

Conversational UX – Von Chat bis Bot, von GUI bis VUI #bitkom #uux

Die heutige Sitzung des BITKOM AK Usability und User Experience fand in den schön gelegenen Räumlichkeiten von Microsoft am Rheinufer in Köln statt. Thematisch ging es um eines der Trendthemen des Jahres 2017 – Conversational User Interfaces. Wie immer will ich an dieser Stelle versuchen Euch einen Eindruck von der Veranstaltung zu geben und die wichtigsten Erkenntnisse zusammenzufassen. 

Chatty Devices – Sascha Wolter, Deutsche Telekom

Sascha eröffnete den Tag mit einer amüsanten Einleitung zum Thema Conversational UX. Wie üblich bediente er sich dabei seiner persönlichen Dauerfokusgruppe (n=3) um Erfahrungen mit sprachlichen User Interfaces zu sammeln. Die Beobachtung seiner familiären Testgruppe ergab, dass sich Menschen trotz anfänglicher Skepsis so schnell an die Konversation mit Maschinen und an die Steuerung mittels Sprache bedienen, dass sie sich mit der alten Welt der manuellen Schalter schwer tun. Dieser Umstand macht sich auch in der zunehmenden Menge an verfügbaren Geräten bemerkbar. Immer mehr Hersteller drängen mit Sprachassistenten auf den Markt, um so ihre Ökosysteme näher in die Alltagswelt der Anwender zu integrieren.


Aus seinen bisherigen Erfahrungen schloss er, dass sich Unternehmen, die sich jetzt nicht mit sprachlichen User Interfaces beschäftigen, mit hoher Wahrscheinlichkeit einen wichtigen Zugangskanal zu Ihren Kunden verlieren werden. Es wird dabei aber nicht so sein, dass sprachliche User Interfaces graphische User Interfaces komplett ersetzen. Vielmehr werden sie je nach Kontext eine Ergänzung bieten. Wir werden in naher Zukunft multimodale Ein- und Ausgabemedien nutzen, um mit Maschinen zu interagieren.

Does mouse and monitor soon become a thing of the past?

Das schöne an Saschas Vorträgen ist, dass er es vor aller Begeisterung für die neue Technologie und Möglichkeiten immer auch versteht eine kritische und differenzierte Sicht auf neue Dinge zu werfen. So beschäftigte er sich natürlich auch mit den Schattenseiten von Sprachassistenten wie Cortana, Alexa und Google Home. Auch wenn oft behauptet wird, dass diese Sprachassistenten das Leben der Nutzer ausspionieren, gibt es zumindest in Deutschland klare rechtliche Grenzen um dies zu verhindern. (Siehe §90 Telekommunikationsgesetz) So ist der Besitz und Betrieb von Geräten, die ohne des Wissens der Anwender aufnehmen und senden verboten. Alle am Markt verfügbaren Geräte dürfen sich daher nur nach dem Sagen eines Wake Words (z.B. „Alexa“) oder einem expliziten Knopfdruck mit den dahinterliegenden Cloudservice verbinden. Entwickler, die sich mit sprachlichen User Interfaces befassen, dürfen nicht nur den technischen Fortschritt im Auge behalten, sondern sie müssen sich auch intensiv damit beschäftigen was die Verwendung dieser Technologie für seine Anwender aus ethischer und moralischer Sicht bedeuten kann. Eltern stehen heute vor der Herausforderung den Umgang mit sprachlichen UIs und künstlicher Intelligenz ihren Kindern zu vermitteln. (Siehe moralmachine.mit)

Auch wenn sich sprachliche User Interfaces in einer atemberaubenden Geschwindigkeit im Monatsrythmus weiterentwickeln, so ist die Thematik nicht neu. Für die Gestaltung von Conversational UIs verwies auf Grundlagenliteratur aus dem Jahr 1975, wie z.B. Grice’s Maxims. Eine der großen Herausforderungen bei der Gestaltung ist die Persönlichkeit von sprachlichen Interfaces. Wenn es nicht gelingt die Persönlichkeit eines Sprachassistenten authentisch und natürlich zu gestalten, landet man schnell im Uncanny Valley. Der Persönlichkeit von Sprachassistenten sollte daher eine hohe Aufmerksamkeit zu teil werden. (Siehe Cortana vs. Siri) Außerdem empfahl er die Gestaltung an den Richtlinien der Hersteller zu orientieren (z.B. Design Checklist von Google)

Create more personal computing – Malte Lantin, Microsoft

Malte Lantin gab in seinem Vortrag einen Einblick in die Sichtweise von Microsoft auf sprachliche User Interfaces. Microsoft versteht Konversationen als eine neue Plattform für die Mensch-Maschine-Interaktion. Sie unterscheiden dabei zwischen digitalen Assistenten, wie z.B. Cortana und Bots. Bots sind nach Microsoft-Sichtweise wie Apps, in denen die Funktionen angeboten werden. Digitale Assistenten sind Meta-Apss, die lediglich eine natürliche Brücke zwischen Mensch und Bot schlagen.

Human language is the new UI.

Microsoft-typisch ging er in einer kleinen Tech-Demo auf die techn. Möglichkeiten des Microsoft Bot Framework, der Cognitive Services und Microsofts Luis.ai ein. Außerdem stellte er den QnA-Maker vor mit dem sich aus FAQ einfache Chatbots erzeugen lassen.

Wer Bequemlichkeit beim Einkaufen schätzt, der wird den Amazon Echo lieben. – Thorsten Wilhelm, eResult

Thorsten Wilhelm stellte die Ergebnisse einer Studie (n=5) vor, in der das Nutzungserlebnis mit Amazon Echo untersucht wurde. Die Studie wurde durchgeführt, weil er durch die 300 Mio aktiven Amazon-Kunden und schon heute über 400.000 Echo-Geräten in Deutschland großes Potential für Amazon Echo sieht. Er sieht es als den Weg für Unternehmen ihre Dienste enger in den Alltag der Anwender zu integrieren. Aber auch bei dieser Technologie gilt: „Nicht irgendwas machen, nur um auch dabei zu sein.“. Um erfolgreich zu sein, gilt es herauszufinden, welchen echten Nutzen diese Interaktion stiften kann.

„Wir stellten fest, dass Amazon Echo („Alexa“) recht schnell in den Alltag integriert wird, neue Rituale entstehen und sich der Umgang mit anderen Geräten und auch die Kommunikation mit dem Partner und der Familie verändern.

Die Studie ist kostenlos auf der eResult-Webseite verfügbar.

Alexa Development: einmal API und zurück, bitte – Christoph Jerolimov


Wie der Titel des Beitrags schon andeut, führte Christoph Jerolimov die Teilnehmer anhand der beiden Alexa-Skills mobilecologne und Kino Bonn an die Implementierung von Alexa-Skills mit dem Alexa Skills Kit heran. Er erläuterte die technischen Grundprinzipien und zeigte Ausschnitte aus dem Programmcode der beiden Skills.

Es könnte aber alles so einfach sein, isses aber nich – Ulrich Leschak, Peter Behrens School of Art Düsseldorf


Ulrich Leschak – seines Zeichens Lehrbeauftragte für Kommunikationsdesign der Peter Behrens School of Art Düsseldorf – beschäftigte sich in seinem Beitrag mit dem Thema Einfachheit. Er betrachtet die Entwicklung der Sprachassistenten eingangs recht kritisch. Aus seiner Sicht führen sie dazu, dass die Menschen nicht mehr zu sich selbst finden. Die zahlreichen Geräte lenken sehr vom Leben ab und stören, wenn sie schlecht gestaltet sind. 

Wenn man weiß wie es geht, ist alles einfach. – Ulrich Leschak

Zu Einfachheit sagte er: Einfachheit ist eine Illusion, die schwer zu erzeugen ist. Einfachheit hängt immer vom Betrachter ab. Einfachheit ist eine Kunst und erfordert manchmal Besessenheit bei der Suche nach der einfachsten Lösung. Natürlich zitierte er in diesem Zusammhang auch die Laws of simplicity von Maeda.

Mit Blick auf die sprachliche User Interfaces plädierte er für einen verantwortungsvollen Umgang mit dieser Technologie. Entwickler müssen sich bewusst sein, welche emotionale Kraft  dieser Technologie innewohnt und welche Auswirkungen ein unbedachter Einsatz auf die Menschen haben kann.

Prototyping Conversations – Johannes Baeck, usability.de

Im letzten Vortrag des Tages ging Johannes Baeck auf die nutzerzentrierte Gestaltung von Conversational UI ein. Er berichtete aus einem Praxisprojekt mit welchen Methoden usability.de in den unterschiedlichen Projektphasen arbeitetet, um Konversationen zu konzipieren. 


So setzten sie in der Forschungsphase des Projektes beispielsweise auf Contextual Interviews in den Räumlichkeiten der Anwender, um den Kontext besser zu verstehen, in dem die Konversation stattfindet. Weiterhin erhoben sie Fragen, die Anwender in der Konversation mit der Maschine stellen wollen und welcher Modus (Screen, Sprache oder beides) für die Konversation am besten geeignet ist. In der Strategiephase verwendeten sie Experience Maps, um die Konversation im Gesamtkontext des Use Cases einordnen zu können und gemeinsames Verständnis im Team für den Umfang des Use Cases zu entwickeln. 

Personality allows people to know how to behave towards others and what to expect in return. – Wired for Speech, Clifford Nass & Scott Brave

Die Persönlichkeit des Bots gestalteten sie anhand von Bot-Personas. In diesen speziellen Personas wurden insbesondere Wertversprechen, Interaktionsprinzipien und Persönlichkeiten definiert. Auf diese Weise entstanden die Richtlinien für das Verhalten des Bots. In der Designphase bauten sie mittels Papier oder Sayspring – einem Prototyping-Tool für Alexa Skills – Prototypen und evaluierten Konversationen mit der Wizard-of-Oz-Methode.

Neues aus dem AK UUX

Neben der Ankündigung, dass der nächste AK UUX im Oktober bei DATEV in Nürnberg stattfinden wird, gab es auch erfreuliche Nachrichten. Der bitkom-Leitfaden „Usability & User Experience – Software näher zum Nutzer bringen“ ist endlich verfügbar. Der Leitfaden zeigt Best Practices aus dem Bereich User Experience für Unternehmen auf und gibt Entscheidungshilfen zur Auswahl und zum Einsatz von Methoden sowie Vorgehensweisen.

Panel: Human Computer Integration vs. Powerful Tools #chi2017

Kurz vor der Mittagspause wurde es richtig spannend auf der CHI 2017. Umer Farooq (Facebook), Jonathan T. Grudin (Microsoft Research), Ben Shneiderman (University of Maryland), Pattie Maes (MIT Media Lab) und Xiangshi Ren (Kochi University of Technology) diskutierten über das neue Trendthema der HCI-Community „Human Computer Integration“. Der Begriff selbst geht auf eine Veröffentlichung von Umer Farooq und Jonathan T. Grudin in der ACM-Publikation „Interactions“ aus dem Dezember 2016 zurück. Dieser beschäftigt sich intensiv mit den Auswirkungen der aktuell zu beoachtende Veränderung, dass immer weniger Maschinen und digitale Systeme durch Menschen direkt bedient werden müssen, sondern sich diese durch ihre eingebauten Algorithmen zunehmend wie eigenständige Persönlichkeiten verhalten.


Die Diskussion wurde durch Position Statements von Ben Shneiderman, Pattie Maes und Xiangshi Ren eröffnet. Ben Shneiderman vertrat in seinem Statement „Design Principles for Powerful Tool“ den Standpunkt, dass Menschen nachwievor die Verantwortung für die Werkzeuge, die sie nutzen übernehmen können müssen. 

Responsibility is a key driver of clear successful design.

Er hält ganz offensichtlich wenig von den ganzen Assistenten und digitalen Helferlein, die versuchen menschliches Verhalten zu immitieren. Die Vergangenheit hat seiner Meinung nach gezeigt, dass sich solche Systeme nicht bewähren.

AI community is not learning its lesson.

Er sieht es als die Aufgabe von digitalen Systemen Vertrauen und Empathie zwischen Menschen zu schaffen und nicht zwischen Menschen und Mashinen. Er hält an seinen Designprizipien fest, dass Werkzeuge verständlich, vorhersagbar und kontrollierbar sein müssen. Er will die menschliche Identität bewahren und nicht in einer Welt voller Cyborgs leben. Werkzeuge müssen Menschen bei Ihren Tätigkeiten unterstützen, das Lernen und die Zufriedenheit fördern. Nur so kann die Menschheit vorankommen. Er zitierte dann auch Galileo, der seine Entdeckungen auch nicht in Partnerschaft mit seinem Teleskop gemacht hat. Er nutzte es lediglich als Werkzeug.

Respect and value what it means to be a human.

Pattie Maes vertrat in dieser Diskussion die Kontraposition. In ihrem Statement The next era in computing: Human computer integration“ bezeichnete sie das partnerschaftliche Miteinander (Human Computer Integration) als unausweichlich, notwendig und wünschenswert. Sie begründete das mit 3 wesentlichen Trends:

  1. „Computers are getting closer to our bodies“: Die Interaktionen zwischen Mensch und Maschine sind immer näher an den menschlichen Körper herangerückt. Zu Beginn der Entwicklung musste man noch in spezielle Räume in Rechenzentren gehen, um digitale Systeme zu nutzen. Dann wanderte der Interaktion von Desktops über Smartphones und Wearables direkt an den menschlichen Körper.
  2. I/O: Die Eingabe- und Ausgabemechanismen haben sich von Lochkarten über Text-UIs und grafische Bedienoberflächen hin zu Touch und Sprache entwickelt. Heutige Systeme nutzen ein gewisses Spektrum der menschlichen Kommunikation für Ein- und Ausgabe … und I/O wird noch menschlicher. 
  3. „Computer become essential in every aspect in our life“: Zu Beginn der Entwicklung wurden Computer im wesentlichen für wissenschaftliche Aufgaben genutzt. Dies erweiterte sich dann schnell um persönliche Kommunikation und Unterhaltung. Heute sind Computer aus vielen Lebensbereichen nicht mehr wegzudenken.

Human Computer Interaction hat uns zwar schon weit gebracht, bringt aber auch einige Nachteile mit sich. So verlangen heutige digitale Systeme, wie z.B. Smartphones, sehr viel Aufmerksamkeit von ihren Nutzern. Die Aufmerksamkeit der Menschen muss zukünftig wieder weg von den Geräten hin zur Interaktion in der realen Welt gelenkt werde. Weiterhin sind die Ein- und Ausgabemethoden zwar schon vielschichtiger geworden, aber immer noch sehr limitiert. Es ist nicht wirklich sinnvoll wenn die Eingabe bei Smartphones auf zwei Daumen beschränkt ist. Die Ein- und Ausgabe von digitalen Systemen muss sich zukünftig die gesamte Bandbreite der menschlichen Kommunikation zu nutze machen. Außerdem haben die aktuellen digitalen Systeme zu stark verkürzten Aufmerksamkeitsspannen beim Menschen geführt. Multitasking-Situationen überfordern die menschlichen Fähigkeiten. 

Digitale Systeme sollten uns Menschen zukünftig als Coaches ganzheitlich dabei unterstützen zu den Menschen zu werden, die wir sein wollen. Die Enabler dafür sind auch schon da. Sensoren liefern immer mehr der dafür notwendigen Informationen. Künstliche Intelligenz interpretiert diese Daten und Kontexte sowie gibt uns darauf basierende Empfehlungen. Augmented Reality hilft dabei diese Informationen und Empfehlungen in unsere reale Umgebung zu integrieren.

„4th gen computer will be a natural extension that is always on, augments our experience, and helps us become the person we want to be“

    Xiangshi Ren ging es in seinem Statement „Integration as Human Engaged Computing (HEC)“ vorallem um die Überlebensfähigkeit der Menschheit. Aus seiner Sicht muss die Beziehung zwischen Mensch und Maschine grundlegend überdacht werden. Wenn die Fähigkeiten von Mensch und Maschine in Balance gebracht werden und sich gegenseitig ergänzen, dann ist es nicht nur möglich die menschlichen Fähigkeiten zu verbessern, sondern auch die Überlebensfähigkeit der Menschheit zu erhöhen. In seinem Statement folgte er der Philosophie, dass 1+1 mehr ist als 2.

    Die Diskussion im Publikum warf dann einige spannende Aspekte auf:

    Was passiert mit Menschen, die keinen Zugang zu solchen integrierten Technologien haben? Werden sie abgehängt?

    In der Diskussion wurde dies von einigen Teilnehmern als bereits bestehendes Problem angesehen, was durch die aktuellen Entwicklungen verstärkt wird. Um das zu verhindern, müssten die Technologien zum einen so günstig sein, dass sie sich jeder leisten kann. Ebenso müssten sich die Geschäftsmodelle für solche Technologien entsprechend verändern. Andere Teilnehmer sagten, dass dieses Problem bereits durch die Anpassungsfähigkeit des Menschen adressiert wird. Die Einstellungen der Menschen wird sich dahingehend ändern, dass der Zugang zu solchen Technologien höher bewertet werden wird, als andere Bedürfnisse. Als Beispiel wurden afrikanische Dörfer angeführt, an denen zwar viele technologische Entwicklungen vorbeigegangen sind, aber trotzdem fast jeder Einwohner ein Mobiltelefon hat.

    Menschen sind nicht perfekt und brauchen Unterstützung

    Menschen sind nicht perfekt und werden es auch nie sein. Sie machen Fehler. Sie stellen falsch Diagnosen oder schlafen am Steuer einfach ein. Menschen sollten durch Technologie dazu befähigt werden weniger Fehler zu machen. Von einer höheren Perspektive betrachtet, braucht die alternde und durch ihr Wachstum komplexer werdende menschliche Gesellschaft neuen Impulse um über ihre aktuellen Fähigkeiten hinauszuwachsen und um überlebensfähig zu bleiben.

    Verantwortung und Kontrolle

    Wir nutzen heute digitale Werkzeug, die sich im Wesentlichen noch so verhalten wie früher. In ihrem Kern sind sie aber schon teilweise intelligente Systeme. Kritisch daran ist dass sie zwar verständlich und kontrollierbar wirken, es aber in Wirklichkeit nicht sind. Die letzten Wahlen in den USA wurden als Beispiel dafür genannt, dass die Algorithmen aus Kontrolle geraten und missbraucht werden können. 

    Die Hersteller von intelligenten Systemen müssen die Verantwortung für ihre Systeme übernehmen … vor allem, wenn was schief geht. Darüberhinaus müssen Algorithmen von bedeutsamen Systemen, genau wie Gebäude oder Flugssysteme durch öffentlcihe Stellen auf ihre Kontrollierbarkeit geprüft werden. Es müsen zwingend Mechanismen zur Überwachung dieser Systeme und zur Analyse von Fehlverhalten geschaffen werden.

    Um das Ausmaß an Kontrolle erkennen zu kennen, sollten nicht nur die Implikationen auf einzelne Menschen, sondern Implikationen auf die gesamte Gesellschaftbetrachtet werden.

    HCI-Researcher müssen reagieren

    Human Computer Interaction-Researcher verfügen heute nicht über die entsprechenden Methoden, Vorgehensweisen und Kenntnisse, um integrierte Systeme zu gestalten. Das HCI-Methodenset muss entsprechend erweitert werden. 

    Menschen werden durch künstliche Intelligenz zu Dienern und Beobachtern

    Es ist zu Beobachten, dass Menschen durch aktuelle intelligente und integrierte Systemen die meiste Zeit zu Beobachtern werden. Ein viel zitiertes Beispiel war hier der Autopilot von Tesla. Ein Teilnehmer ging sogar soweit und beschrieb am Beispiel von UBER, wie Menschen zu Dienern von intelligenten Systemen werden, die ihnen sagen, was sie zu tun haben.

    Kritik an der AI Community

    Es wurde kritisiert, dass sie die Community für künstliche Intelligenz (AI-Community) im Wesentlichen mit ihren Algorithmen und nicht genug mit deren Einfluss auf menschliches Verhalten beschäftigt. Es ensteht aktuell der Eindruck, dass die AI Community gottgleich menschenähnliche Systeme schaffen will ohne die Konsequenzen zu betrachten.

    Wir haben keine Wahl
    So hitzig die Diskussion an manchen Stellen auch war. Es wurde sehr klar, dass wir gar keine Wahl mehr haben. Intelligente und integrierte Systeme werden zunehmen. Und auch wenn die heutige Generation noch wegschauen kann, so müssen sich nachfolgende Generationen damit beschäftigen. Daher sollten wir als UX Professionals jetzt damit anfangen.

    Siehe auch

    ACM: Human Computer Integration

    The trouble with autopilots: Assisted and autonomous driving on the social road #chi2017

    Barry Brown (University of Stockholm) kritisierte zu Beginn seines Vortrages das im Forschungsfeld des autonomen Fahrens nahezu ausschließlich über Sicherheit geforscht wird. Emotionale Aspekte und soziale Interaktionen im Straßenverkehr kommen seiner Ansicht nach zu kurz. Außerdem wird zu viel in Simulatoren und zu wenig auf der Straße geforscht. Interessant fand ich, dass offensichtlich viele Fahrer von Teslas gibt, die teilweise mit unterschiedlichen Kameras die Funktionsweise des Autopiloten aufzeichnen und auf youtube hochladen. Barry Brown analysierte 10,5 Stunden dieses Videomaterials von Google- und Tesla-Fahrzeugen. Dabei interessierte ihn besonders wie sich automatisiert fahrende Fahrzeuge im Verkehr verhalten und wie sie mit anderen Fahrzeugen bzw. andere Fahrer mit ihnen interagieren. Er kam zusammengefasst zu folgenden Erkenntnissen:

    • Autonome Fahrzeuge müssen noch viel dazu lernen, wie sie mit anderen Fahrzeugen interagieren. Dies wird noch eine längere Zeit in Anspruch nehmen, als aktuell vorhergesagt wird.
    • Autonome Fahrzeuge brauchen Kommunikationsfähigkeiten, um anderen Fahrern zu zeigen, was sie gerade tun. Wie bei anderen Systemen auch, bedarf es einer Transparenz des Verhaltens – nicht nur für Fahrer, sondern auch für andere Verkehrsteilnehmer. Autonome Fahrzeuge müssen für eine soziale Interaktion im Straßenverkehr ausgelegt werden. 

    Priming drivers before handover in semi-autonomous cars #chi2017

    Der Beitrag von Remo van der Heiden (Microsoft Research) drehte sich um das Priming von Autofahrern in semi-automatisierten Fahrzeugen. Auf dem Weg hin zu voll-autonomen Fahrzeugen muss die Interaktion zwischen Fahrer und Fahrzeug um teilautomatisieren Nutzungsszenarien erweitert werden, um sicheres Fahren in allen Stadien dieser Entwicklung zu ermöglichen.  

    Konkret ging er der Frage nach, wie ein möglicherweise abgelenkte Fahrer in semi-autonomen Fahrzeugen reaktiviert werden kann (Handover), wenn das Fahrzeug das automatischen Fahren nicht mehr übernehmen kann. Das experimentelle Setting für die Klärung dieser Frage umfasste 4 Situationen (z.B. Hund kreuzt Fahrbahn, starker Nebel) und zwei Tätigkeiten zur Ablenkung (z.B. Telefonanruf). Es wurden zwei unterschiedliche Typen für einen Pre-Alarm und der Vergleich von Handover mit sowie ohne Pre-Alarm untersucht. Seine Erkenntnisse im Überblick:

    • Fahrer brauchen Zeit, um sich von der ablenkenden Tätigkeit auf das Fahren zu fokussieren.
    • Damit der Handover erfolgreich klappt, ist ein PreAlert ca. 7-20 Sekunden vor dem Eintreten des Handovers sinnvoll. Die Fahrer schauen dadurch früher wieder auf die Straße, reduzieren ihre Geschwindigkeit und beenden früher die ablenkende Tätigkeit. Für mich stellt sich da natürlich die Frage, wie Fahrzeuge in die Lage versetzt werden, dass sie 7-20 Sekunden vorausschauen können.
    • Der Pre-Alert darf dabei nicht zu aufdringlich sein. Die Art des Pre-Alarms hatte keinen großen Einfluss auf das Verhalten der Fahrer.