Navigation und Service

Das mitfühlende Auto : Datum:

An Autos, die im Straßenverkehr mitdenken, von selbst die Spur oder das Tempo halten und notfalls bremsen, haben wir uns längst gewöhnt. Bei der Erforschung und Entwicklung autonomer Fahrzeuge kommt aber eines oft zu kurz: Die Gefühle und unbewussten Verhaltensweisen von Menschen. Ein interdisziplinäres Forscherteam aus den Bereichen Neurotechnologie, vernetzte Mobilität und Robotik widmet sich an der Hochschule für Technik und Wirtschaft des Saarlandes der Frage, wie autonome Fahrzeuge besser auf die Emotionen ihrer Insassen reagieren können. Aufgebaut wurde der Simulator mit BMBF-Mitteln im Rahmen des FH-Invest-Projekts MIND2CAR, kofinanziert durch das Saarland und die Industrie.

Mit Mensch-Maschine-Schnittstellen kennt Professor Daniel Strauss sich bestens aus: seit Jahren arbeitet er in der Systems Neuroscience & Neurotechnology Unit (SNNU) der htw saar mit den verschiedensten Varianten solcher Schnittstellen, um zum Beispiel die akustische Ablenkbarkeit von Autofahrern zu erforschen oder neue Robotik-Konzepte zu testen.

 Eine junge Frau in einem Autositz mit EEG-Haube hält das Lenkrad und schaut auf einen Bildschirm des Fahrsimulators
Neuroergonomische Untersuchtung eines Takeover-Szenarios (Automatisierungsstufe 3) in der MIND2CAR-Forschungsplattform. © SNN-Unit, htw saar

Der Simulator MIND2CAR ist aber auch für den Neurowissenschaftler und sein Team etwas ganz Besonderes: ein weltweit einzigartiges Gerät, um die Interaktion zwischen Mensch und Fahrzeug zu erforschen, vor allem beim automatisierten Fahren. Dank neuer neurotechnologischer Methoden kann MIND2CAR die Gedanken oder Gefühle seiner Insassen „lesen“ und zum Beispiel den Informationsaustausch optimal an ihre Aufmerksamkeit und an die Verkehrslage anpassen. Dabei hat das Projektteam allerdings nicht nur die Fahrsicherheit im Blick: An MIND2CAR soll auch untersucht werden, wie Menschen mit neurologischen Einschränkungen aufgrund von Alter und Erkrankung durch Assistenz- und Automatisierungsfunktionen unterstützt werden können. Durch die Zusammenführung von digital vernetzter Mobilität und psychophysiologischen Daten spielt auch das Thema Datensicherheit eine wichtige Rolle bei der Arbeit mit dem Simulator.

MIND2CAR wurde im Rahmen eines gleichnamigen FH-Invest-Projekts über mehrere Jahre hinweg aufgebaut, ein internationales Konsortium war daran beteiligt. „Das ist kein Gerät von der Stange“, betont Projektleiter Strauss: „Diese Plattform ist für uns extrem wichtig, weil sie uns neue und innovative Forschung ermöglicht. Wir können damit alle fünf Stufen des autonomen Fahrens nachbilden und komplett neue Konzepte erforschen.“ So könne MIND2CAR bei Stufe 5 sogar zu einer „empathischen Maschine“ werden, die die Gefühlslage der Insassen verstehe und Interaktionsstrategien daran anpasse.

Ein geschützter Raum auch für abseitige Ideen

Wem schon Autos mit automatischer Einparkfunktion irgendwie unheimlich sind, den mag es bei der Vorstellung eines mitfühlenden Fahrzeugs durchaus gruseln. Daniel Strauss hat aber gute Gründe, die Möglichkeiten des Simulators bis an die Grenzen des Vorstellbaren auszunutzen: „Autonomes Fahren ist ein heißes Thema, die Menschen interessieren sich vor allem für die höheren Automatisierungsstufen - auch wenn sie noch nicht ausgereift sind. In unserem Simulator können wir gefahrlos alles testen“, erläutert der Wissenschaftler. „Dabei können wir auch abseitige Konzepte ausprobieren, die vielleicht niemals umgesetzt werden. Nur so können wir herausfinden, ob diese Konzepte überhaupt sinnvoll sind.“

Die fünf Stufen des automatisierten Fahrens


Stufe 1: Assistiertes Fahren; der Fahrer beherrscht das Fahrzeug und hat den Verkehr immer im Blick, wird aber von Assistenzsystemen wie Tempomat oder Abstandsregler unterstützt.

Stufe 2: Teilautomatisiertes Fahren; der Fahrer beherrscht das Fahrzeug und hat den Verkehr immer im Blick, das Auto kann aber einige Aufgaben schon selbst ausführen - zum Beispiel auf der Autobahn gleichzeitig die Spur halten und beschleunigen oder bremsen.

Stufe 3: Hochautomatisiertes Fahren; der Fahrer darf sich vorübergehend vom Verkehr abwenden, muss aber auf Anforderung das Steuer wieder übernehmen.

Stufe 4: Vollautomatisiertes Fahren; der Fahrer kann die Kontrolle komplett an das Fahrzeug abgeben und zum Beispiel schlafen oder lesen, muss aber grundsätzlich fahrtüchtig sein und kann auch das Steuer selbst übernehmen.

Stufe 5: Autonomes Fahren; es gibt keinen Fahrer mehr, die Insassen des Autos sind nur noch Passagiere, und das Auto kann auch komplett ohne Insassen fahren.

Der Simulator ist also ein geschützter Raum für alle möglichen Forschungsideen im Zusammenhang mit autonomen Autos. Dazu gehören ganz pragmatische Ansätze, zum Beispiel die Reisekrankheit, mit der viele Menschen Bekanntschaft machen, wenn sie versuchen, in einem fahrenden Auto zu lesen: Der Gleichgewichtssinn registriert die Bewegung des Autos, die Augen melden aber Stillstand, da sie auf ein unbewegtes Objekt gerichtet sind. Das Gehirn ist verwirrt, dem Körper wird schlecht - ein sehr ungünstiger Effekt, wenn autonome Autos irgendwann einmal als mobiler Arbeitsplatz dienen sollen.

Strauss und sein Team untersuchen daher, wie das Fahrzeug schon die ersten Anzeichen von Übelkeit bei seinen Insassen erkennen und sein Fahrverhalten anpassen kann. Dazu schicken sie ihre Probanden mit einer EEG-Haube in den Simulator, um die Hirnströme zu messen. Da solche Hauben aber natürlich nicht für den Alltagsgebrauch geeignet sind, tüfteln die Wissenschaftlerinnen und Wissenschaftler parallel ein System aus Kameras und Sensoren aus, das mit den EEG-Daten abgeglichen wird, bis es ähnlich zuverlässige Ergebnisse liefert.

Vier junge Forscher an Bildschirmen vor einem großen eckigen Kasten in türkis und weiß
Außenansicht der MIND2CAR-Forschungsplattform © SNN-Unit, htw saar

Das Auto kommuniziert mit seiner Umwelt

Ein weiteres pragmatisches Forschungsthema für MIND2CAR ist der so genannte „Takeover“, der bei Automatisierungsstufe 3 zum Einsatz kommt: Bei dieser Stufe fährt das Fahrzeug weitgehend von alleine, fordert aber in kritischen Situationen seinen Fahrer auf, das Steuer zu übernehmen. Da dieses Konzept den Fahrer nur sehr begrenzt aus der Verantwortung entlässt, ist es für Daniel Strauss ohnehin eher widersinnig - zumindest, solange das Auto nicht registrieren kann, wie es um die Aufmerksamkeit des Menschen bestellt ist.

„Stellen Sie sich vor, Sie sitzen in einem Auto der Stufe 3 und lesen Ihre Mails“, sagt er. „Sie scrollen so durch, aber dann ist plötzlich eine Mail dabei, die Sie emotional stark fordert - vielleicht weil sie ärgerliche, traurige oder sehr erfreuliche Neuigkeiten enthält. In so einem Moment wird das Auto es viel schwerer haben, Ihre Aufmerksamkeit zurückzugewinnen.“ Also muss das Auto wissen, wie abgelenkt der Mensch gerade ist, und muss diese Information dann auch noch mit der momentanen Verkehrslage in Einklang bringen, damit es den Takeover optimal einleiten kann. Um das zu leisten, verfügt MIND2CAR neben der Neurosensorik auch über eine fortgeschrittene Simulation zum vernetzten Verkehrsgeschehen, die die Kommunikation vom Fahrzeug zu anderen Fahrzeugen oder mit der Infrastruktur berücksichtigt.

Überhaupt, die Ankündigungen: Wie reagiert ein gestresster oder gereizter Mensch, wenn sein Auto ihn morgens überschwänglich begrüßt? Ab wann werden Assistenzsysteme als so nervtötend empfunden, dass man sie lieber abschaltet? Das sind Fragen, die sich die Automobilbranche heute schon stellt - und für die MIND2CAR Antworten liefern kann. Doch damit sind die Möglichkeiten des Simulators noch lange nicht ausgereizt. Spannend wird es für Daniel Strauss immer dann, wenn die Gesundheit ins Spiel kommt: Wie kann ein Fahrzeug Menschen mit körperlichen oder geistigen Einschränkungen helfen, im Verkehr zurechtzukommen? Und ist es sinnvoll, wenn das eigene Auto einen zum Arzt schickt, weil es findet, dass man krank aussieht? Ein solches Gesundheitsmonitoring ist natürlich noch völlige Zukunftsmusik - aber eben auch eine jener Ideen, die im geschützten Raum von MIND2CAR schon heute durchdacht und ausprobiert werden können.

Roboter und virtuelle Bedienfelder

Neben der Neurosensorik sind auch die Interaktionsmöglichkeiten zwischen Mensch und Maschine in MIND2CAR ziemlich futuristisch: ein kollaborativer Roboter, mehrere großformatige Touchscreens und auch eine so genannte virtuelle Haptik. Mit dieser Technik können per Ultraschall virtuelle Bedienfelder und Knöpfe in den Raum projiziert werden. Greift man mit der Hand danach, kann man den Knopf tatsächlich fühlen und bedienen, man muss also nicht einmal hinschauen, um ihn zu finden. Ähnlich wie bei den klassischen mechanischen Drehknöpfen im eigenen Auto findet man sich intuitiv zurecht - ein großer Vorteil gegenüber den modernen Touch-Displays, die zwar viele Funktionen bieten, aber dem Tastsinn keinerlei Anhaltspunkte zur Orientierung geben.

Das Projekt zum Aufbau des Simulators ist seit Dezember 2019 beendet, und das Projektteam hat eines seiner wichtigsten Ziele erreicht: Der neue Simulator sollte Ideen und Ergebnisse aus früheren Forschungsarbeiten vereinen, am Ende aber deutlich mehr können als alle bestehenden Konzepte. Die virtuellen Knöpfe, die innovative Neurosensorik und die Tatsache, dass MIND2CAR inzwischen auch komplette Fahrtestfelder im Saarland abbilden kann, auf dem die htw saar autonome Fahrzeugkonzepte testet: All das darf getrost als Beleg für die Einzigartigkeit des Geräts gewertet werden.

Und trotzdem: Die eigentliche Arbeit fängt gerade erst an, viele Ideen sind im Projektverlauf neu entstanden und werden nun nach und nach in Forschungsarbeiten umgesetzt. Der Weg zum empathischen Auto ist noch weit - doch Daniel Strauss und sein Team sind bereit, ihn zu gehen. Auch wenn sich manche Ideen am Ende vielleicht doch als zu verrückt erweisen.