Auch der Roboter wird nie unschuldig bleiben

Der erste tote Fußgänger durch ein autonom fahrendes Auto wirft ein schlechtes Licht auf die Versprechen der Hersteller und zeigt den Bedarf an klaren Regelungen hierzulande.

Von Wolfgang Mulke

20. Mär. 2018

Nun ist der menschliche wie kommunikative Notfall für die Verfechter des autonomen Fahrens eingetreten. Eine erste tödlich überfahrene Fußgängerin in den USA, die von einem selbstfahrenden Auto erfasst wurde, widerlegt die Versprechen der Industrie hinsichtlich der überlegenen Sicherheit der Computersteuerung. Zunächst jedenfalls. Die Testläufe werden sicher weitergehen. Dafür sind die mit der noch jungen Technologie verbundenen wirtschaftlichen Hoffnungen viel zu groß.

 

In Deutschland ist ein ähnlicher Unfall derzeit kaum vorstellbar. Hier werden die Praxistests auf einem sehr begrenzten Raum gefahren, zum Beispiel auf einem Teilstück der A9, wo kaum Fußgänger unerwartet die Fahrbahn kreuzen. Hier zeigt sich auch ein grundsätzlich anderes Verständnis des Schutzes der Bevölkerung diesseits und jenseits des Atlantiks. In den USA darf vieles ausprobiert werden. Wenn es schief geht, drohen den Unternehmen und ihren Managern allerdings drastische Strafen. Hierzulande müssen sie erst einmal die Unbedenklichkeit ihres Vorhabens nachweisen. Geht etwas schief, fallen anschließende Sanktionen milde aus.

 

Über die Vor- und Nachteile beider Systeme lässt sich trefflich streiten. Nur hilft dies bei der Einordnung des Unfalls mit einem Uber-Fahrzeug nicht weiter. Bevor Schlussfolgerungen für die Technologie gezogen werden können, müssen dessen Umstände aufgeklärt werden. Was bisher bekannt ist, räumt allerdings mit einem Irrtum auf: Auch Roboter sind nicht unfehlbar. Sie werden es auch vermutlich nie sein. Denn es treten in der Lebenspraxis immer wieder Situationen ein, die nicht vorhersehbar und damit beherrschbar sind. Entscheidend für die Zukunft des autonomen Fahrens ist letztlich, ob der autonome Autoverkehr unter dem Strich sicherer ist als der von Menschenhand geführte. Lässt sich diese Frage mit „ja“ beantworten, bringt die Technologie einen Fortschritt. Andernfalls landet sie auf dem Haufen der überflüssigen Erfindungen.

 

Einige Lehren, auch für die Entwicklung des autonomen Fahrens in Deutschland, lassen sich auch in Kenntnis der Unkenntnis vieler Details des Unfallhergangs schon ziehen. So bedarf es glasklarer Haftungsregeln für den Ernstfall. Die letzte Bundesregierung hat zwar die rechtlichen Spielräume für automatisierte Fahrzeuge geschaffen. In der Haftungsfrage ist die Gesetzeslage aber so schwammig formuliert, dass sich kein Autofahrer rechtlich sicher fühlen kann, ob er nicht bei einem Unfall schuldig gesprochen wird. Eine klare Abgrenzung der Verantwortlichkeiten ist notwendig. Die geltende Vorschrift, dass der Fahrer im Notfall eingreifen können und es auch tun muss, verlagert das Risiko einseitig vom Hersteller zum Kunden. Das darf nicht so bleiben.

 

Auch eine zweite ethische Frage stellt sich anders als bisher. In Deutschland wurden zwei Grundsätze festgeschrieben. Der eine besagt, dass der Roboter am Steuer im Notfall eher einen Sach- als einen Personenschaden in Kauf nehmen muss. Zweitens darf die Maschine keinen Unterschied zwischen potenziellen Verkehrsopfern machen, sofern sie unvermeidbar sind: zum Beispiel zwischen Alt und Jung, Mann und Frau, Deutscher oder Ausländer. Nun muss die Frage beantwortet werden, ob der Tod durch den Roboter als gesellschaftliches Risiko grundsätzlich akzeptiert wird. Und in welchem Ausmaß.

 

So traurig der Unfall in Arizona auch ist, jeder Fehler hilft den Entwicklern weiter. Das klingt zynisch, entspringt aber einer realistischen Einschätzung der Verhältnisse. Auf dem Grabstein des Flugpioniers Otto Lilienthal steht der Leitspruch „Opfer müssen gebracht werden“. Aber damit meinte sich der Erfinder selbst. Dieses Risiko gehen die Vorstände der Auto- oder Technologie-Konzerne bei der Entwicklung des autonomen Fahrens heute wohl lieber nicht ein.

« Zurück | Nachrichten »