Mythen des autonomen Fahrens III

Der Hype um das autonome Auto scheint ungebrochen. Warum ist das so? Mit der Technik werden zahlreiche Versprechen verknüpft, die die Mobilität auf den Kopf stellen sollen. Das selbstfahrende Automobil verspricht Sicherheit, neue Freiräume und nicht weniger als die „Demokratisierung des Fahrens“. Aber was ist wirklich dran an diesen Verheißungen? Und wo gibt es das autonome Auto überhaupt schon? Eine kritische Aufklärung, die wir in fünf separaten Teilen unternehmen wollen.

Mythos III: Das autonome Auto entscheidet richtig und gut

Menschen entscheiden in kritischen Verkehrssituationen oft intuitiv. Ihren kognitiven Fähigkeiten sind dabei Grenzen gesetzt. Wenn nur wenige Augenblicke zur Entscheidung bleiben, sind wir deshalb nachsichtig bei offensichtlichen menschlichen „Fehlentscheidungen“. Diese Nachsicht braucht es bei autonomen Autos nicht, denn hier ist die Situation eine andere: Erstens können die Maschinen innerhalb von Millisekunden „richtig“ entscheiden und zweitens können sie im Vorhinein von Menschen so programmiert werden, dass sie „richtig“ entscheiden. Was „richtig“ ist, gibt also nicht das Fahrzeug vor, sondern der Programmierer, der der intelligenten Maschine die Regeln diktiert.

In den viel diskutierten Dilemma-Situationen – das Fahrzeug bzw. der Programmierer hat im Falle eines Unfalls die Wahl zwischen zwei Übeln – gibt es jedoch keine eindeutig richtige Entscheidung, sondern nur schlechte. Sollen zwei Fahrzeuginsassen geopfert werden, wenn dadurch eine Gruppe von vier Kindern vor dem Tod bewahrt wird? Diese beliebten philosophischen Gedankenspiele, die als „Trolley-Problem“ bekannt wurden und medial immer wieder aufgegriffen werden, führen aber am Kern des Problems vorbei, weil sie sich fundamental von den ethischen Fragen unterscheiden, die sich aus der tatsächlichen Praxis autonomer Fahrzeuge ergeben1: Im Trolley-Problem muss ein Einzelner entscheiden, während die Programmierung autonomer Fahrzeuge von zahlreichen Akteuren diskutiert und beeinflusst werden kann. Zahlreiche Umweltfaktoren, die das Entscheidungsszenario komplizierter werden lassen, werden in Trolley-Problemen meist ebenso ausgeblendet wie Fragen der juristischen und moralischen Verantwortung – beides muss bei der Programmierung jedoch berücksichtigt werden. Darüber hinaus gehen die Gedankenexperimente zum Trolley-Problem davon aus, dass die „Ergebnisse“ des Experiments (Tod/Überleben) sicher und bekannt sind, während Entscheidungsmodelle in autonomen Fahrzeugen Wahrscheinlichkeiten abschätzen. Zudem blendet das Trolley-Problem soziale Interaktion und Repetition aus: Dilemma-Situationen können sich wiederholen und Verkehrsteilnehmer ihr Verhalten an das autonomer Fahrzeuge anpassen. Wenn etwa Radfahrer mit Helm gegenüber solchen ohne bevorzugt zum „Ziel“ autonomer Fahrzeuge werden, weil diese „schadensminimierend“ entscheiden, setzt das eindeutige negative Anreize.

Die Debatte darüber, wie autonome Autos „ethisch richtig“ programmiert werden sollten, steht noch am Anfang. Sie muss aber gesamtgesellschaftlich geführt werden, zumal – das haben zahlreiche Untersuchungen gezeigt – kein klarer Konsens darüber herrscht, was die richtigen und die falschen Entscheidungen sind, wenn Menschen durch autonome Autos zu Schaden kommen könnten. Geht man davon aus, dass die Technik insgesamt zu einer Reduzierung von Unfallzahlen führt, sei aber vielleicht bereits ein Ergebnis dieser Überlegungen vorweggenommen: Autonome Autos, die im Zweifel ihre Insassen zugunsten Dritter opfern, werden vermutlich auf wenig Akzeptanz stoßen. Denn wer kauft schon ein Auto, das einen im Extremfall ungefragt in den Tod fährt?


 

  1. Vgl. Nyholm/Smids (2017): The Ethics of Accident-Algorithms for Self-Driving Cars: an Applied Trolley Problem? In: Ethical Theory and Moral Practice 19 (5)