Google-Auto rammt Bus

US-Konzern übernimmt Verantwortung für den Fehler seines selbstfahrenden Autos. Wer bei solchen Verkehrsunfällen haften würde, ist rechtlich noch weitgehend ungeklärt

Teilen!

Von Hannes Koch

01. Mär. 2016 –

Die US-Firma Google hat offiziell die Verantwortung für einen Unfall übernommen, den eines seiner autonom fahrenden Autos verursachte. Ein großer Schaden entstand zwar nicht: Das Computer-Vehikel wechselte langsam die Fahrspur, ein von hinten kommender Bus touchierte es: Blech verbogen. Trotzdem zeigt das Ereignis, wieviele Probleme beim Roboterfahren noch ungelöst sind.

 

Auf den ersten Blick scheint die Angelegenheit einfach. Die Software wird angepasst. Die Entwickler und das Auto lernen. Das Fahrzeug wird sicherer. Das ist eine der großen Hoffnungen: Vollautomatisch fahrende Wagen könnten in einigen Jahren viel weniger Unfälle verursachen, als Menschen es tun.

 

Auf computergesteuerte Autos, deren Passagiere nicht mehr lenken, sondern Zeit für andere Tätigkeiten haben, setzen manche Unternehmen große Hoffnungen. Googles Testmobile haben mittlerweile hunderttausende Kilometer auf öffentlichen Straßen zurückgelegt – allerdings immer mit einem Fahrer, der zur Not eingreift. Daimler hat unlängst die Erlaubnis für autonomes Fahren auf Autobahnen im US-Bundesstaat Nevada erhalten. Und Nissan will ab 2020 Roboterautomobile in Tokio einsetzen.

 

Doch viele Fragen sind bisher weitgehend unbeantwortet. „Die Technik kommt schneller voran als die Klärung der rechtlichen Probleme“, sagt Christoph Enaux von der Kanzlei Greenberg Traurig. Die Anwälte beraten unter anderem Regierungen und Unternehmen, wenn es um den Rechtsrahmen der digitalisierten Ökonomie geht. Im vorliegenden Fall zeige sich, so Enaux, dass beispielsweise Probleme der Haftung beim autonomen Fahren gelöst werden müssten.

 

Ist bei einem Unfall der Hersteller des Fahrzeugs oder der Entwickler der Software schuld? Schließlich konnte das Programm den Schaden nicht verhindern. Vielleicht war es mit der komplexen Situation überfordert. Oder haftet der Fahrer, der eingreifen konnte, es aber nicht tat? Dass eine Maschine eigenständige Entscheidungen trifft, ist im heutigen Verkehrsrecht nicht vorgesehen, sagt Enaux. Weltweit gehe man noch davon aus, dass Menschen die Fahrzeuge permanent steuern und deshalb auch für Unfälle verantwortlich sind. Will man dagegen eine Haftung für die Software-Entwickler einführen, kann das für die Autohersteller sehr teuer werden.

 

Autonomes Fahren könnte außerdem neue ethische Bewertungen erfordern. Heute verursachen Menschen ja mitunter schwere Schäden, für die sie nicht verantwortlich gemacht werden können. Es gab keinen Ausweg, es ging alles viel zu schnell, der Zufall war schuld. Einer autonom fahrenden Maschine müssten die Entwickler jedoch genau definierte Verhaltensweisen auch für schreckliche Alternativ-Situationen einspeichern: Im Extremfall beschriebe man Kriterien dafür, welcher von zwei Menschen bei einem Unfall geopfert werden soll – der Fußgänger oder der Autofahrer. Solch unethisches Verhalten wird aber kaum jemand programmieren wollen - vielleicht ein Grund, warum es komplett autonomes Autofahren niemals geben wird.

« Zurück | Nachrichten »