Concept-i zeigt Toyotas Mobilität der Zukunft

Im Rahmen der CES 2017 hielt Toyota eine Pressekonferenz bei der es um das Konzeptauto Concept-i und autonomes Fahren im Allgemeinen ging. Während das Concept-i sehr futuristisch wirkte, gab die Präsentation zum autonomen Fahren einen wissenschaftlich fundierten Blick auf die Realität des autonomen Fahrens.
Toyotas Livestream auf der CES 2017

Das Concept-i setzt, ausgestattet mit einem digitalen Assistenten, auf eine Mensch-Auto-Beziehung

Toyotas Concept-i wurde von zwei Blickrichtungen beeinflusst. Einerseits argumentiert Toyota, dass wir unsere Autos ziemlich gut kennen, aber unsere Autos uns zu wenig kennen. Andererseits möchte der Hersteller wegen einem wachsenden Einzug von Technik ins Auto verhindern, dass die Beziehung zwischen Autos und Menschen kalt, robotisch und steril wird.
Mit dem Concept-i setzt Toyota deswegen auf eine „warme“, „immersive“ und „bezaubernde“ Beziehung zwischen Mensch und Auto. Das Auto der Zukunft soll nämlich, so Toyota, „Experience“ der Nutzer in den Vordergrund stellen und nicht die Technik. Neben den klassischen Funktionen eines „Zukunftsautos“ wie Konnektivität und autonomes Fahren, gibt Toyota dem Concept-i daher einen sehr emotionalen Charakter. Diese Designphilosophie nennt Toyota “Kinetic Warmth”.

Das Toyota Concept-i (Quelle: Toyota)

Toyota betont bewusst den Ausdruck Beziehung. Es soll nämlich keine Mensch-Auto-Interaktion, sondern eben Mensch-Auto-Beziehung sein. Diese Beziehung soll sowohl mit den Passagieren als auch mit der Außenwelt stattfinden. Yui, ein künstlicher Assistent, soll diese Beziehung pflegen.

Yui soll eine Beziehung mit dem Fahrer etablieren – er und der Fahrer sollen „Teammates“ werden

Das Auto soll uns verstehen und beschützen. Es soll unser Freund und Beschützer sein. So Toyota. Dazu soll eben Yui in der Lage sein. Es ist ein künstlicher Assistent der im Auto lebt und all die Features hat die man von anderen AI-Systemen kennt. Es lernt vom Fahrer und antizipiert seine Tätigkeiten.  Es liest seine Emotionen und misst dessen Aufmerksamkeit. Die Messung der Aufmerksamkeit ist wichtig um zwischen autonomen und manuellem Fahren wechseln zu können. Yui soll auch die Fantasie des Fahrers anregen (wie auch immer das genau aussieht bzw. funktioniert).
Yui soll natürlich auch kommunizieren, und zwar nach innen und außen. Die Kommunikation nach innen soll Information wo (laut Toyota im ganzen Auto, wie z. B. auf dem Dashboard, den Sitzen und Seiten.) und wann wir sie brauchen anzeigen. Nach außen kommuniziert Yui in Form von Richtungsangaben wie auf den Bildern unten zu sehen ist.

Yuis Kommunikation mit der Außenwelt. Hier ein Gefahrenhinweis “Watch out”

Yuis Kommunikation mit der Außenwelt. Hier ein Gefahrenhinweis “Watch out”

Yuis Kommunikation mit der Außenwelt. Hier zeigt es “Motion, Excitement & a little bit of magic”, so der CEO.

Das Concept-i könnte “creepy” sein und in den “Uncanny Valley” fallen

Das Auto wird sehr emotionalisiert, gar vermenschlicht. Möglicherweise zu viel, wie das Paradox des „Uncanny Valley“ zeigt. Dieses Paradox besagt, dass die Akzeptanz von menschenähnlichen Geräten (wie z. B. Robotern) durch Menschen nicht linear steigt, sondern in einem gewissen Intervall einbricht, bis sie wieder zu steigen anfängt (siehe Grafik). Zugegebenermaßen handelt es sich bei diesem Paradox um ein noch unbestätigtes Phänomen. Meine persönliche Erfahrung aber bestätigt es zumindest. „Creepy“ war nämlich mein erster Eindruck.

Darstellung des Uncanny-Valley-Phänomens (Quelle: Wikipedia)

Auch wenn wir möglicherweise menschenähnliche Roboterautos wie das Concept-i ablehnen, erwarten wir (vielleicht genau deshalb), dass sie besser fahren als Menschen.

Autos müssen eine nullprozentige Fehlerquote aufweisen um von Menschen akzeptiert zu werden

Im zweiten Teil stellte Gill Pratt, CEO des Toyota Research Institute, eine durchaus spannende Frage:

„Wie sicher ist sicher genug?“

Mit dieser Frage geht er auf die menschliche Fehlertoleranz ein. Menschen, so Pratt, tolerieren Fehler anderer Menschen, weil wir ja „alle nur Menschen sind“. Diese Empathie gibt es laut Pratt für Maschinen nicht. Rational gesehen, argumentiert Pratt, sollten Menschen gegenüber Maschinen dieselbe Fehlerquote tolerieren wie bei Menschen, emotional gesehen aber würden sie das eher nicht machen. Damit schlussfolgert er, dass lediglich eine Fehlerquote von null Prozent beim autonomen Fahrer akzeptabel ist. Dies wirft laut ihm einerseits die Frage auf wer diese Fehlerquote etablieren wird und andererseits ob es lokale bzw. globale Standards geben wird.
Auf gewisse Standards, nämlicher der Klassifizierungen des autonomen Fahrens, geht Pratt basierend darauf ein.

Level 2 & Level 3 Autonomie könnte schwieriger zu erreichen sein als Levels 4 & 5

Als speziellen Fall sieht Pratt Level 3 Autonomie. Bei Level 3 ist das Auto in der Lage in bestimmten Situationen selbstständig zu fahren, setzt aber voraus, dass der Fahrer jederzeit eingreifen kann. Zwei Probleme treten bei Level 3 auf. Erstens muss sichergestellt werden, dass das Auto jede problematische Situation (also jede die der Computer nicht selbst lösen kann) erkennt. Das zweite Problem ist das Wechseln der Aufmerksamkeit durch den Fahrer. Wie lange der Fahrer braucht um auf den „Handoff“ (die Übergabe der Fahrkontrolle vom Computer an den Fahrer) zu reagieren, ist hier ein kritischer Faktor. Je länger diese Spanne ist, desto früher müsste das Auto in der Lage sein Probleme zu erkennen. Verstärkt wird diese Problematik durch “overtrust”. Der Overtrust, eine Art übertriebener Anthropomorphismus, beschreibt, dass der Fahrer die Fähigkeiten der Autonomie überschätz. Dadurch widmet der Fahrer dem Fahren weniger Aufmerksamkeit als er sollte und läuft Gefahr Handoffs nicht rechtzeitig übernehmen zu können. Dieses “Übervertrauen” wird stärker je größer die Abstände zwischen den Handoffs sind.  (Die Bekämpfung dieser Problematik soll übrigens auch eine der Aufgaben von Yui sein.)
In diesem Kontext ging Pratt auf das „vigilance decrement“ ein.

Mit der Zeit abnehmende Wachsamkeit könnte Sicherheitsrisiko für Level 2 & Level 3 Autonomie sein

Das “vigilance decrement” besagt, dass die Wachsamkeit der Nutzer bei beobachtenden Tätigkeiten (wie z. B. die kontinuierliche Beobachtung von Radaren) mit der Zeit abnimmt. Pratt verdeutlicht dies mit einem kurzen Zuschauerexperiment (siehe Video Mackworth Clock-Test unten). Bei diesem soll der Zuschauer jedes Mal, wenn die Uhr zwei statt einer Sekunde springt, klatschen. In dem kurzen Videoexperiment, erwies sich das als relativ einfach. Wenn man sich aber vorstellt dies über einen längeren Zeitraum, sprich eine längere Fahrt, zu machen, wird die Problematik von Level 2 & Level 3 Autonomie klar.
Level 2 und Level 3 Autonomie könnte daher eine schlechte Idee sein. Deshalb überspringen manche Firmen diese Levels. Toyota ist da­hin ge­hend noch unentschlossen.
Mackworth Clock-Test zum Testen des vigilance decrement 

Level 5 Autonomie ist noch weit entfernt, Level 4 könnte schon 2020 verfügbar sein

Weiters argumentiert er, dass Level 5 Autonomie (keine Fahrerintervention notwendig), sich noch sehr weit in der Zukunft befindet. Es ist nämlich „a wonderful goal but none of us in the automobile or IT industries are close to achieving true Level 5 autonomy“, so Pratt. Level 4 (volle Autonomie in bestimmten Situationen) hingegen, sieht er bereits 2020 einsetzbar. Der Grund für die große Diskrepanz zwischen Level 4 und 5 ist die Komplexität des Fahrens. Level 5 ist so viel schwieriger, weil die Fahrbedingungen von unterschiedlichen Rahmenbedingungen, wie Wetter, Tageszeiten oder Geschwindigkeit, stark beeinflusst werden. Diese Komplexität erschwere den Entscheidungsprozess der für autonomes Fahren zuständigen Algorithmen erheblich, so Pratt.
Zur Behandlung dieser Sicherheitsprobleme des autonomen Fahrens arbeitet Toyota deshalb parallel an zwei Systemen. Guardian soll menschliches Fahren sicherer machen, Chauffeur unterstützt Level 2 bis Level 5.

Yuis Ansatz ist sehr sinnvoll, bedarf jedoch noch viel Arbeit

Toyotas Idee einen persönlichen Assistenten im Auto zu verbauen halte ich für sinnvoll. Dass aber Yui kein allzu leichtes Unterfangen ist, sollte aber auch klar sein. Stimmenbasierte Assistenten wie Siri oder Amazon Echo sind hier gute Analogien. Einige der Probleme sind dauerhaft fehlerfreie Befehlserkennung und der Funktionsumfang. Zusätzlich dazu gibt es auch autospezifische Probleme. Zwei habe ich in einem anderen Beitrag schon kurz angeführt. Hier möchte ich diese mit Blick auf Yui genauer behandeln. Erstens ist es die hochgesteckte Erwartungshaltung der Konsumenten (siehe 5. Punkt im anderen Beitrag) und Kontinuität (siehe 10. Punkt im anderen Beitrag).

Die Erwartungshaltung der Autokäufer ist von den Funktionen bestehender Unterhaltungselektronik geprägt

Mit “hochgesteckte Erwartungshaltung der Konsumenten” meine ich, dass Kunden von anderen Geräten (z. B. Smartphones oder stimmenbasierte Assistenten wie Amazon Echo) hinsichtlich Funktionsumfang verwöhnt sind. Als Folge erwarten sie diese Funktionen auch im Auto. Betrachtet man das Wachstum von beispielsweise Alexa (innerhalb von acht Monaten ist die Anzahl der „Skills“ um 600% gewachsen) dann könnten Toyotas Kunden, sobald Yui am Markt ist, bereits sehr hohe Erwartungen an Yui haben. Natürlich kann auch Toyota in der Zwischenzeit an Yui arbeiten, aber Alexa profitiert ungemein mehr dadurch, dass es bereits genutzt wird und Entwickler dafür schon Skills entwickeln. Ob Toyota deshalb Yui selbst entwickelt oder wie z. B. Ford einen bestehenden Dienst (in dem Fall Alexa) einbindet, bleibt abzuwarten.
In beiden Fällen wird es aber entscheidend sein, dass Yui einen „frictionless“ Übergang zwischen heimischen Geräten und dem Auto zulässt.

Kontinuität und Integration zwischen bestehender Unterhaltungselektronik und Yui wichtig

Ein einfaches Beispiel für so einen „frictionless“ Übergang ist Spotify. Hat man den Streamingdienst am Laptop und Telefon installiert, kann man mit nur einem Klick zwischen diesen beiden Ausgabequellen wechseln. Die Musik wird dann mit nur kurzer Verzögerung am anderen Gerät wiedergegeben. Eine solche Umsetzung wird auch bei Yui wichtig.
Andererseits wird es relevant ob und wie sich Yui von anderen Assistenten unterscheidet bzw. wie stark Yui überhaupt zur Differenzierung von Toyota Autos beitragen wird. Ich sehe hier zwei Wege. Ein persönlicher Assistent per se als Differenzierungsmerkmal oder Yuis Fokus auf Mensch-Auto-Beziehung als Unterscheidungsmerkmal.

Es wird sich zeigen ob Yui per se oder Yuis Mensch-Auto-Beziehung als Unterscheidungsmerkmal durchsetzt

Wenn sich andere Hersteller gegen die Implementierung eines PA (persönlicher Assistent) entscheiden, dann wäre Yui eines der Alleinstellungsmerkmale von Toyota Autos. In Kombination mit anderen Features wie z. B. einem darauf angepassten Interieur könnte dies ein möglicher USP sein. Nichtsdestotrotz halte ich diesen Ansatz als unwahrscheinlich, weil andere Hersteller auch PA anbieten werden. Beispielsweise hat Audi mit “PIA” bereits auch einen PA vorgestellt. Selbst wenn Toyota Yui in günstigeren Preissegmenten als die Konkurrenzanbieten würde, sehe ich diese Strategie als zu schwache Abgrenzung. Wahrscheinlicher ist deshalb dass die Differenzierung – ähnlich wie in der Softwarewelt – nach Anwendungsfall bzw. Sentiment erfolgt.

PA werden sich hinsichtlich Anwendungsfall und Sentiment, in Abstimmung mit dem restlichen Auto – unterscheiden

Dem Voice Report von VoiceLabs zu Folge sind die AI Software von Amazon, Apple, Google und Microsoft auf unterschiedliche Einsatzgebiete spezialisiert. So wird Amazon z. B. am besten für „commerce“ und Microsoft für Spiele geeigent sein.
Hier sollte man auch noch die AI-Software von smarten Kopfhörern (hearables) als Vergleich hernehmen. Anhand dieser erkennt man weitere Anwendungsfälle, wie z. B. „Sportcoaching“. Ein Beispiel dafür ist Vi. Der Hersteller beschreibt diesen drahtlosen Kopfhörer als „first AI personal trainer“. Mercedes geht mit „Fit & Healthy“ in eine ähnliche Richtung.
Basierend auf dieser Übersicht ergibt sich für OEMs die Frage wie sie ihre PA ausrichten sollen. Egal ob sie die Assistenten selbst entwickeln oder extern beziehen (wie Ford mit Alexa) gibt es folgende Fragen:

  • Werden bestehende Anbieter (Alexa, Google etc.) in der Lage sein auch im Auto perfekt zu funktionieren?
  • Wird es langfristig einen Unterschied zwischen den AIs geben? Heißt, werden sie sich wie von VoiceLabs prognostiziert nach Anwendungsfällen unterscheiden oder werden künftig alle alles können?
  • Wie wird die Sentiment Differenzierung aussehen, insbesondere wenn es keine funktionale Unterscheidung gäbe? Werden die Assistenten auf Beziehung ausgelegt sein (wie Toyota mit Yui demonstriert), eine Porsche-Experience bieten, sehr leger oder höchst professionell sein?

Ich denke, dass sowohl die Anwendungsfälle als auch das Sentiment zur Differenzierung der PA beitragen werden. Die PA müssen aber in Einklang mit dem Auto gestaltet werden. Ein Sportwagen bekommt einen „Vi-artige“ AI welche bezüglich des Fahrstils coacht, ein Familienauto wird auf Gaming und eine Luxuslimousine auf Effizienz und Office setzen.

Yuis Beziehung mit der Außenwelt wird wichtig sein für neue Paradigmen in der Mensch-Auto-Interaktion

Auch die Beziehung mit der Außenwelt wie sie Toyota durch Yui demonstriert, finde ich durchaus wichtig. Einerseits wird die Wichtigkeit klar wenn man berücksichtigt, dass Hersteller befürchten selbstfahrende Autos könnten von “manuellen Fahrern” gemobbt werden. Andererseits nimmt autonomes Fahren die Kommunikationsmöglichkeiten zwischen Fahrer und Passanten weg. So entfällt z. B. das „Abnicken“ wenn es um Vorrang geht. Nebst Toyota hat sich übrigens auch Mercedes dazu Gedanken gemacht. Das untere Bild zeigt wie ein Mercedes Fahrzeug einen Zebrastreifen auf die Straße projiziert. Im Video – siehe unten-gibt das Auto dem Passanten auch einen gesprochenen Hinweis.

Der Mercedes F 015 projiziert einen Zebrastreifen für einen Passanten auf die Straße (Quelle: Screenshot)

Video zum Mercedes-Benz F 015 

Quelle des Headerbildes: http://toyotanews.pressroom.toyota.com/releases/toyota-concept-i-future-of-mobility-human-ces-2017.htm

Sign up for Newsletter: