Das autonome Fahren wird kommen. Dafür müssen sich die Fahrzeuge aber an festgelegte (Verkehrs-)Regeln halten - genau wie die Fahrer, die in den vergangenen hundert Jahren den Verkehrsfluss bestimmt haben. Allerdings gibt es immer wieder Grauzonen, in denen sich Fahrzeugführer und Fußgänger mit Blickkontakten oder Handzeichen verständigen. Ein Forschungsprojekt will nun auch Fahrzeugen diese sozialen Kommunikationsformen beibringen.

Hallo Herr Stegmüller, Sie arbeiten am Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO an Forschungen zur sozialen Interaktion autonomer Fahrzeuge?

Bei der von der Industrie getriebenen Entwicklung des automatisierten Fahrens wurde bisher eines übersehen: Das Auflösen derjenigen Verkehrssituationen, die ein soziales Interagieren von Verkehrsteilnehmern benötigen. Daher haben wir ein Forschungsprojekt gestartet, das sich genau mit dieser Frage beschäftigt.

Sie meinen damit das Herauswinken eines anderen Fahrzeugs auf die Spur, die Abstimmung bei unübersichtlichen Vorfahrtssituationen durch Blickkontakt und Gesten oder das Anhalten des Verkehrs durch einen Fußgänger?

Das alles sind Interaktionen, die in der Logik des Autonomen Fahrens noch zu wenig beachtet werden.

Ein Hauptproblem dürfte dabei die hohe Komplexität der sozialen Interaktion sein. Jeder Mensch ist anders, die Zeichen, Gesten und Mimiken unterscheiden sich …

Das ist aber nur ein Teil des Problems. Hinzu kommt, dass Menschen nicht nur unterschiedliche Zeichen senden, sondern auf die sozialen Gesten eines autonomen Fahrzeugs auch unterschiedlich reagieren. Damit muss die Logik des Fahrzeugs umgehen können, wenn sie eine Geste registriert. Zudem muss es Signale beherrschen wie: »Bitte sehr, Sie zuerst«, »Ich lasse sie rein«, oder auch »Sorry«, wenn das Auto nach Meinung des Fußgängers zu schnell Richtung Zebrastreifen fährt. Es geht also um den gegenseitigen Austausch und das Verstehen von Signalen. Und es geht um die Frage, wie Fahrzeuge lernen können mit anderen – menschlichen – Verkehrsteilnehmern zu interagieren.

Die Forschungen hierzu stehen erst am Anfang.

Deshalb arbeiten wir zunächst eher an grundsätzlichen Fragestellungen. Wir untersuchen im Moment zum Beispiel die Frage, ob und wie sehr sich verschiedene Anzeigesignale im Fahrzeug eignen. Sollen wir mit einem großen Smiley arbeiten, der an die Frontscheibe projiziert wird? Oder brauchen wir eher einen Lauftext? Oder Tonsignale? Entscheidend ist, dass Menschen die »Reaktion« des Fahrzeugs intuitiv verstehen. Das testen wir im Moment mit Versuchspersonen.

Das Beispiel verdeutlicht, dass es im Moment wohl weniger um ein Projekt mit konkreten Ergebniserwartungen geht als um eine Initiative des Fraunhofer IAO, an die künftige Projekte andocken sollen.

Genau. Unsere Forschungen sind deshalb auch eingebettet in die Ambient-Mobility-Initiative. Das ist eine Forschungskooperation des SENSEable City Laboratory am Massachusetts Institut of Technologie und des Fraunhofer IAO. Hier untersuchen wir unterschiedlichste Ansätze zur Zukunft der Mobilität und haben die Freiheit auch mal abseits konkreter, langfristiger Projektpläne interessanten Forschungsfragen schrittweise nachzugehen.

Trotzdem: Bei der Hannover Messe stellen Sie erste Forschungsergebnisse vor?

Wir haben dort einen Demonstrator aufgebaut. Er ist in der Lage, Fußgänger-Gesten wie „Stop“ oder »Vorbeifahren« zu erkennen und kann mit Hilfe von beweglichen LED-Matrix-Scheinwerfern sowie Projektions- und Anzeigeflächen Signale aussenden. Allerdings sind diese Gesten eingespielt, sprich: Es arbeitet noch keine lernende Intelligenz im Hintergrund. Unser nächstes Ziel ist es dann, ein Erprobungsfahrzeug zu entwickeln. Ein Renault Twizy soll so ausgestattet und umgebaut werden, dass wir mit ihm realitätsnahe Probandentests durchführen können.

Sie arbeiten auf der Basis von Microsofts Kinect, also der Gestenerkennung der Xbox-Konsole, wie sie derzeit auf dem Markt ist?

Wir nutzen diese Technik, weil es uns zunächst weniger um Hard- oder Software geht, also um kommunikative Mechanismen. Für die Beantwortung der Frage, wie sich Fahrzeug und Fußgänger generell »verständlich« machen können, ist die Gestenerkennung der Kinect zunächst ausreichend.

 (aku)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Fünf + = 5
Bitte Zahl eintragen!
image description
Interviewpartner
Alle anzeigen
Sebastian Stegmüller
  • Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Weitere Artikel
Alle anzeigen
Hannover Messe 2018 - Industrie 4.0
Der Evolution nächster Schritt – 5G
Deutsche Daten-Drehscheibe
Veranstaltungen
Alle anzeigen
Stellenangebote
Alle anzeigen