Benutzer blumenwiese schrieb:
Wenn ein Auto autonom fährt, MUSS es Entscheidungen über Leben und Tod treffen können. Keine Entscheidung wäre nämlich auch eine. Es fungiert in diesem Fall ja nur als Stellvertreter für den Menschen.
Zwei Anmerkungen von meiner Seite:
- Die meisten tötlichen Unfälle entstehen durch Dummheiten des menschlichen Fahrers. Überhöhte Geschwindigkeit, Alkohol oder Unachtsamkeit ist dabei fast immer im Spiel. Alles Dinge, von denen autonomen Autos so erstmal nicht betroffen sind. So ist der Bremsweg bei 50 km/h innerorts auch deutlich kürzer als beim menschlichen Fahrer mit 65 km/h... Aber das ist meinerseits vielleicht ein doofes Argument, weil alle Leser ja selber nicht und niemals zu schnell fahren... ;)
- Warum wird immer dieses blöde "alte Mensch" gegen "Mutter und Kind"-Beispiel gebracht? Ist das wirklich eine gängige Entscheidung bei tötlichen Unfällen? Schau mal bei Google News nach "tötlicher Unfall":
1. Motorradfahrer ist am Montagmorgen in Frankfurt mit einem abbiegenden Auto zusammengestoßen
2. 36-Jähriger rast auf Gegenspur in zwei Autos
3. Tödlicher Unfall auf B3
Ich möchte das nicht auf Schlagzeilen reduzieren, aber ich denke, dass man ganz gut sieht, dass das "alte Mensch" gegen "Mutter und Kind"-Beispiel gewaltig hinkt!
Man könnte daher auch jedes Leben als gleich wichtig definieren, das meinen die Richter in Karlsruhe wahrscheinlich auch genauso!
Und dass nun festgelegt wird, dass das Auto immer den geringeren Schaden anrichten soll ist ja logisch. Und ich denke, dass diese Grundsätze transparent und für jeden nachvollziehbar erarbeitet werden müssen.
Was aber klar sein sollte: Wir sollten uns nicht an dem "alte Mensch" gegen "Mutter und Kind"-Beispiel hochziehen, sondern die Technik nutzen, sobald sie verfügbar ist - das hätte nämlich sehr wahrscheinlich die drei oben genannten Todesfälle verhindert!
Viele Grüße