mobil.teltarif.de
zum Adventskalender
Suche Desktop-Version
Menü
Aktualisiert: 20.03.2017 - 16:59*
Autonomes Fahren

Sachschaden vor Personenschaden: Wie Roboterautos entscheiden sollten

Dobrindt: Autofahrer sollen sich abwenden dürfen

Ein Auto fährt eine Straße entlang, es muss einem Hindernis aus­weichen, links eine Frau mit Kinder­wagen, rechts ein Rentner. Wie würden Sie entscheiden? Mit diesem Szenario konfrontieren Auto­manager ihr Gegenüber gern, wenn es darum geht, welche Entscheidungen autonom agierende Autos einmal treffen dürfen sollen.

Genau mit dieser Frage beschäftigt sich auch eine von Bundesverkehrsminister Alexander Dobrindt (CSU) eingesetzte Ethik-Kommission für computer­gesteuerte Autos, am vergangenen Freitag ihre Arbeit aufnahm. Das Experten­gremium unter Vorsitz des früheren Bundes­verfassungs­richters Udo Di Fabio soll Leit­linien für die Programmierung automatisierter Fahr­systeme entwickeln. Dabei soll nach Worten Dobrindts unter anderem gelten, dass ein Sach­schaden einem Personen­schaden immer vor­zuziehen ist.

Dobrindt: Autofahrer sollen sich abwenden dürfen

Die Bundes­regierung feilt gerade an einem Rechts­rahmen für Roboter­autos. Nach dem Plan von Verkehrs­minister Dobrindt sollen sich Auto­fahrer abwenden können, um beispiels­weise Zeitung zu lesen, E-Mails zu schreiben oder Filme anzusehen. Der Fahrer soll aber "wahrnehmungsbereit" sein und hat die Pflicht für ein "Mindestmaß an Aufmerksamkeit". Auch Haftungs­fragen müssen geklärt werden, wenn das Auto die Kontrolle übernimmt.

Bundesverkehrsminister Alexander Dobrindt (CSU) testet am 10.04.2015 in Ingolstadt (Bayern), auf dem Fahrersitz sitzend, einen selbstfahrenden Audi.

Bundesverkehrsminister Alexander Dobrindt (CSU) in einem selbstfahrenden Prototyp von Audi
Bild: dpa

Welche Entscheidungen das Auto treffen darf, ist dagegen noch weitgehend ungeklärt. Während ein Fahrer in Gefahren­situationen spontan reagiert, müssen die Grund­lagen für solche Entscheidungen in einem autonomen Fahr­zeug durch Programmierer gelegt werden. "Das Dilemma wird kommen", sagte Daimler-Entwicklungs­vorstand Thomas Weber am Rande des Pariser Auto­salons. "Deshalb ist es gut, sich möglichst früh mit diesen Fragen zu beschäftigen."

Rechtsexperten gehen davon aus, dass nach der bisherigen Auf­fassung Leben nicht gegen Leben auf­gewogen werden kann. Sie verweisen auf ein Urteil des Bundes­verfassungs­gerichts: Es traf diese Entscheidung Anfang des Jahres, als es um den Abschuss von Flug­zeugen ging, die von Terroristen für einen An­schlag gekapert werden. Ein Roboter­auto dürfte demnach nicht so programmiert werden, dass es beispiels­weise eine Frau mit einem Kinder­wagen schont und statt­dessen beim Aus­weichen einen älteren Menschen trifft. Eine andere Frage dürfte sein, ob der Computer unmoralisch oder gar rechts­widrig handeln darf, um beispiels­weise Hinder­nissen auszuweichen.

Autobauer haben unterschiedliche Meinungen

Die Hersteller selbst sind bei der Frage, wer über Leben und Tod entscheiden darf, noch gemischter Meinung. Einig ist man sich nur in der Frage, dass autonome Systeme Unfälle vermeiden können. Der Auto­bauer Daimler hat im vergangenen Jahr versucht, in einem Weiß­buch Antworten auf diese Fragen zu finden - eindeutige Aus­sagen blieben aber aus. "Ich bin aber sicher, dass wir Lösungen finden können", sagte Entwicklungs­vorstand Weber.

BMW-Vertriebs­chef Ian Robertson schiebt das Problem auf die lange Bank: "Wir glauben, dass die Ver­antwortung des Fahrers noch für eine ganze Zeit die Grund­lage ist - wenn nicht gar für noch länger", sagte Robertson in Paris. "Wir glauben auch, dass die Technologie für die nächsten Schritte momentan noch etwas unreif ist."

Unstrittig ist in der Branche allerdings, wer die Ver­antwortung für die Technologie übernimmt: Aus Sicht der Hersteller sei klar, dass das nicht an Zu­lieferer delegiert werden könne, sagte PSA-Entwicklungschef Gilles Le Borgne. "Und ich lade Sie ein, mit Valeo, Bosch, Conti etc. zu sprechen: Sie werden die Ver­antwortung für die Funktion nicht übernehmen. Sie wollen es nicht."

Für das autonome Fahren der dritten oder vierten Ebene - also wenn der Fahrer nach und nach komplett aus der Ver­antwortung genommen wird - müsse man zunächst die gesetzlichen Voraus­setzungen ändern, so Le Borgne. "Und danach gibt es echte Fragen der Verlässlich­keit und der Sicher­heit, die man angehen muss. Aber wir arbeiten daran."

Dass selbst­fahrende Autos noch immer mit Problemen zu kämpfen haben, beweisen unter anderem die immer wieder auftretenden Unfälle von Googles Roboterwagen.

Anzeige:
© by WhatsBroadcast

Mehr zum Thema Auto

dpa /

[Newsübersicht] RSS [Newsversand]