The Ethics of Crashing

Direkt vor Ihrem Fahrzeug läuft ein Kind auf die Straße. Der Bremsweg ist zu kurz, und auf der Gegenfahrbahn kommt ein Sattelschlepper daher. Bremsen Sie, und riskieren Sie damit das Leben des Kindes – oder weichen Sie in den Gegenverkehr aus und beenden vielleicht Ihr eigenes (und das all Ihrer Mitfahrer) an der Front des LKWs? Und wie sieht diese Fragestellung aus, wenn am Steuer kein Mensch sondern der Computer sitzt?

In der Realität bleibt für derartige Überlegungen keine Zeit. Man reagiert instinktiv. Doch autonome Fahrzeuge müssten durchaus eine bewusste Entscheidung treffen. Selbstfahrende Autos können sich nicht auf die über Millionen Jahre entwickelten Instinktreaktionen unseres Hirnstamms verlassen – jede Aktion, jede Entscheidung wird aktiv und kalkuliert getroffen. Selbst Inaktivität ist für die Steuersoftware eines autonomen Fahrzeugs ein “bewusster” Schritt.

Die eigentliche Entscheidung fällt dabei nicht erst Momente vor dem Crash. Sie wird in Form von Codezeilen im Computer des Fahrzeugs vorgegeben. Wann das Fahrzeug welchen Hindernissen wie ausweichen soll, bestimmt der Programmcode des Autopiloten.

“Our car is driving more smoothly and more safely than our trained professional drivers.”
Chris Urmson, Head of Google Self Driving Car Division

rinspeed-XchangE-concept-interior

Beim Concept Car XchangE von Rinspeed tritt das Lenkrad in den Hintergrund: Das selbstfahrende Auto auf Basis des Tesla Model S ist zwar nur eine Design-Studie, zeigt jedoch durchaus ein mögliches Fahrzeugkonzept für kommende Generationen autonomer Fahrzeuge.

Schuldfrage

Zunächst mal ein etwas einfacheres Gedankenspiel. Sei es technisches Versagen, ein Fehler in der Programmierung oder schlichtweg Pech, früher oder später wird ein autonomes Fahrzeug auch mal einen Unfall verursachen. Es wird also zweifellos zu einer Situation kommen, wo die Unfallschuld – nach gängigem Rechtsverständnis – auf das autonome Fahrzeug fällt. Doch wer ist hier eigentlich Schuld?

  • Ist es der Fahrzeuglenker, der die korrekte Funktionsweise des autonomen Fahrzeugs hätte überwachen sollen?

  • Ist es der Fahrzeughersteller, der den Autopiloten offenbar nicht ausreichend auf eine derartige Situation hin optimiert hat?

  • Ist es der Softwareentwickler des Autopiloten, der bei der Programmierung einen Fehler hinterlassen hat?

  • Oder ist es vielleicht überhaupt niemand, weil das Versagen des Computers im selbstfahrenden Auto mit höherer Gewalt gleichgesetzt werden muss?

Daß so eine Situation durchaus nicht aus der Luft gegriffen ist, zeigte sich vor wenigen Woche bei einem unserer Testfahrzeuge. Ohne erkennbaren Grund legte das Auto – ausgestattet mit einem automatischen Notbremssystem – in einer Kurve eine Vollbremsung hin. Fast bis zum Stillstand verzögerte das Fahrzeug, bevor es die Bremsen wieder löste.

Der Auslöser: Einige Verkehrshütchen am Straßenrand. Die hat die Elektronik offenbar für ein unausweichliches Hindernis gehalten.

Ohne Grund eine Vollbremsung hinzulegen würde im Falle eines Auffahrunfalls zumindest Teilschuld nach sich ziehen. Stellt man hier wieder die Frage, wer denn für die Vollbremsung verantwortlich war, ist die Antwort schon etwas einfacher:

  • Der Fahrer kann es nicht gewesen sein, denn er hat in diesem Moment keine Möglichkeit, die Vollbremsung aktiv zu verhindern.

  • Der Fahrzeughersteller wäre dagegen sehr wohl verantwortlich: Es war schließlich ein Fehler der Software, der die Vollbremsung auslöste.

autonome-autos-roadmap

Crash-Optimierung

Im Fall eines unvermeidlichen Unfalls werden Roboter-Autos zwangsläufig Berechnungen zur “Unfall-Optimierung” durchführen. Egal ob es sich dabei um die Wahl des optimalen Bremsweges oder um ein Ausweichmaneuver handelt – selbstfahrende Autos können Unfälle nicht einfach so passieren lassen: Passivität ist keine Option, wenn eine Phalanx aus Sensoren den Bordcomputer im Millisekunden-Takt mit neuen Informationen versorgt.

Beispiel A:

Zwei Fahrradfahrer biegen vor dem Fahrzeug auf die Straße. Einer trägt Helm und volle Schutzausrüstung, der andere sitzt in Shorts, T-Shirt und ohne Helm am Bike. Der Bremsweg reicht nicht mehr aus um eine Kollision zu verhindern. Es bleibt nur mehr ein Ausweichmaneuver, um zumindest nur einen der beiden Radler zu treffen. Doch welchen?

Der Autopilot wählt nun beispielsweise den Helm-Träger als “Ziel” aus. Sein Verletzungsrisiko ist geringer, als das des ungeschützten Fahrradfahrers. Gleichzeitig wird der vorbildlich gekleidete Radfahrer bestraft. Der Fahrradfahrer ohne Helm kommt nochmal glimpflich davon, obwohl er wissentlich ein höheres Risiko in Kauf nimmt, da er ja keinen Helm trägt.

autonome-autos-radfahrer

Welche möglichen Kollisionsziele soll ein autonomes Fahrzeug meiden, welche als kleineres Übel akzeptieren?

Beispiel B:

Ein entgegenkommendes Auto überholt mit hoher Geschwindigkeit ein anderes Auto. Dem autonomen Fahrzeug bleiben zwei Möglichkeiten: Entweder der Frontalzusammenstoss mit dem überholenden Auto, oder die Richtungsänderung – direkt in den Gegenverkehr.

Wählt das selbstfahrende Auto den Gegenverkehr, ist das Risiko für die Insassen des eigenen Fahrzeugs geringer, als beim Zusammenstoss mit dem deutlich schnelleren überholenden Fahrzeug. Doch wie kommt das Auto auf der Gegenfahrbahn dazu, als “Blech-Airbag” herhalten zu müssen.

Ähnliches gilt generell bei allen Entscheidungen, wo zwischen einem weicheren, und einem harten Objekt gewählt werden kann. Werden autonome Fahrzeuge dahingehend getrimmt die Gesamtzahl der Verkehrstoten zu minimieren, wird das Auto daher immer die Option wählen, bei der das Maximalrisiko aller Verkehrsteilnehmer beim Unfall am geringsten ist.

Das bedeutet aber auch: Lieber 10 Schwerverletzte als ein Toter (und 9 Unverletzte).

In kleinem Rahmen passiert schon jetzt eine kalkulierte Risikoverlagerung bei automatisierten Sicherheitssystemen. Mercedes-Benz verwendet (beispielsweise in der neuen C-Klasse) ein System, das bei einer drohenden Kollision von hinten im Stand die Bremsen fest anzieht. Damit soll verhindert werden, dass bei einer Heckkollision an der Ampel der Wagen in die Kreuzung geschleudert wird (was einen schweren Folgeunfall auslösen könnte).

Hier wird  abgewogen: Da die Bremsen des Fahrzeugs betätigt sind, ist der Aufprall für den auffahrenden Hintermann etwas schwerer. Das eigene Risiko wird etwas gesenkt. Automatisch bewertet das System also die eigene Sicherheit höher, als die des Unfallverursachers.

autonome-autos-nutzung

Rules of Engagement

Da in der heutigen Zeit so gut wie alles im Straßenverkehr nach allen Regeln der Bürokratie katalogisiert, reguliert und normiert wird, ist es wohl nur eine Frage der Zeit, bis sich die (europäische) Gesetzgebung mit autonomen Fahrzeugen beschäftigen wird.

Doch wie reguliert man das Unfallverhalten? Wird es etwa ein Punktesystem geben, bei dem das autonome Fahrzeug im Fall eines Unfalls versucht eine möglichst kleine Gesamtsumme zu erreichen? Oder sollen selbstfahrende Autos gar aktiv an Berechnungen zur Unfalloptimierung gehindert werden, um Insassen nicht einen “unfairen Vorteil” gegenüber anderen Verkehrsteilnehmern zu verschaffen?

Neben der Frage nach der Sinnhaftigkeit einer derartigen Regulierung stellt sich auch eine ethische: Darf und soll der Gesetzgeber das Verhalten eines Roboter-Fahrzeugs gegenüber anderen Verkehrsteilnehmern regulieren?

Vergleicht man die rapide technische Weiterentwicklung bei autonomen Fahrzeugen, wie sie derzeit nicht nur von Autoherstellern, sondern auch von IT-Größen wie Google voran getrieben wird, mit der gängigen Trägheit der Legislative, dürfte dabei natürlich wenig Sinnvolles herauskommen. Im schlimmsten Fall könnte eine Überregulierung innovationshemmend auf die Branche wirken.

In jedem Fall wird Autoherstellern eine völlig neue Rolle zuteil werden: Sie werden in den Programmzeilen ihrer selbstfahrenden Autos festlegen, wie wir Unfälle haben – und dabei in einem bisher nicht gekannten Grad Entscheidungen über Leben und Tod treffen.

Menschliches Versagen als Unfallursache wird bei autonomen Fahrzeugen nicht ausgeschaltet, sondern nur vom Fahrer auf den Hersteller übertragen.

But everything will be cheaper…. right?

Versicherungsanstalten lassen derzeit kaum eine Gelegenheit aus, um ihren Kunden von der schönen, und vor allem billigen Zukunft versicherter Mobilität zu erzählen. Da die Autos selbst fahren, werden die Prämien ganz, ganz billig werden. Und überhaupt, wahrscheinlich wird der Fahrer gar nicht mehr für die Versicherung zahlen müssen, sondern der Hersteller.

So zumindest die Theorie.

Ob bei autonomen Fahrzeuge Versicherungsprämien wirklich sinken werden, bleibt abzuwarten. Eigentlich hätten sie das nämlich schon tun müssen: Eine Mercedes C-Klasse, ein Nissan Quashqai oder auch ein Infiniti Q50 müssten ja schon heute deutlich reduzierte Prämien bedeuten, wenn sie mit den beim jeweiligen Hersteller erhältlichen Sicherheitsassistenten ausgestattet sind. Ein Auto das selbst bremst, wird schließlich nicht so leicht einen Auffahrunfall verursachen.

Doch davon sieht man bisher noch nichts.



Related Articles

Fünf Dinge, die wir auf unserer ersten Auto-Auktion gelernt haben

Auf der Oldtimer-Messe in Salzburg gab es etwas zu erleben, womit weder Jan noch Andi bisher Kontakt hatten: Eine Auto-Auktion.

Getaway

Gangster wissen, das richtige Auto verstärkt die eigene Autorität, mitunter sogar den Nimbus der Unverwundbarkeit. Das falsche Auto beendet allerdings ganz schnell jede noch so verheissungsvolle Gangsterkarriere.

War of Gears

Mehr Gänge, mehr Effizienz, geringeres Gewicht – das Wettrennen der Getriebehersteller um den besten Kraftschluss zwischen Motor und Rädern geht in die nächste Runde. Aktueller Spitzenreiter: ZFs Automatikgetriebe mit 9 Gängen.