Autos, die komplett unabhängig von einem menschlichen Fahrer durch die Straßen gesteuert werden, gehören schon länger nicht mehr nur in Science-Fiction-Filme. Mehrere Unternehmen arbeiten an entsprechenden Lösungen und Prototypen. Mit derartigen Technologien eröffnen sich aber regelmäßig auch ethische und moralische Dilemma, deren Beantwortung hochkomplex ist. So zum Beispiel die Frage, ob ein autonom fahrendes Auto das Leben seines Insassen für das Leben mehrerer anderer Menschen opfern darf.


Ethische Zwickmühle

Stellen Sie sich, werter Leser, das folgende Szenario vor: Sie sitzen, 5–10 Jahre von heute, in Ihrem brandneuen, selbst fahrenden Mercedes und fahren in eine enge, einspurige Straße. Dank der Automatik ist das Auto mit hoher Geschwindigkeit unterwegs. Die Gruppe von 10 Menschen, die auf der Straße läuft, erfasst die Automatik des Wagens viel zu spät, sodass es selbst mit der Reaktionszeit eines Computers nicht mehr möglich ist, rechtzeitig zum Stehen zu kommen. Es gibt nur noch zwei Möglichkeiten: Entweder, der Computer des Wagens entscheidet sich, zu bremsen und in die Gruppe hineinzusteigern, oder auszuweichen und den Wagen mit der Wand kollidieren zu lassen. Zwei Möglichkeiten, die beide höchstwahrscheinlich mit Schwerverletzten oder Toten enden werden. Im ersten Fall wäre eine unbestimmte Anzahl an Personen aus der Fußgängergruppe betroffen, im letzteren lediglich Sie. Wie soll der Computer sich entscheiden?


Gut, das Beispiel ist etwas plakativ gewählt und nicht wirklich wahrscheinlich. Das Grundproblem sollte jedoch klar werden, und es sind durchaus Situationen denkbar, in denen eine solche oder eine ähnliche Fragestellung aufgeworfen wird.

Mit diesem moralischen Dilemma hat sich eine Gruppe Forscher in einem Artikel in der Zeitschrift Arvix auseinandergesetzt. Geleitet wurde das Team von Jean-Francois Bonnefon von der Toulouse School of Economics. Nach Ansicht der Gruppe sind Unfälle mit Grundsituationen, die der geschilderten ähneln, auf mittlere Sicht bei der Verwendung autonomer Fahrzeuge unvermeidbar. Die Art und Weise, wie die Computer auf diese Situationen reagieren, könnte maßgeblich für die öffentliche Rezeption der Technologie verantwortlich sein.

Mehrheit befürwortet Tötung des Insassen

It is a formidable challenge to define the algorithms that will guide AVs [Autonomous Vehicles] confronted with such moral dilemmas. We argue to achieve these objectives, manufacturers and regulators will need psychologists to apply the methods of experimental ethics to situations involving AVs and unavoidable harm”, so die Forscher in dem Artikel.

Das Team befragte über Amazons Mechanical Turk, einem Online-Crowdfunding-Tool, mehrere Hundert Personen. Die Teilnehmer wurden mit mehreren Szenarios konfrontiert, darunter auch das eingangs beschriebene. Außerdem wurden Parameter wie die Anzahl an Personen in dem Wagen und in der Gruppe sowie deren Alter und andere variiert.

Die Ergebnisse überraschen wenig: Bei objektiver Betrachtung waren die meisten Befragten gewillt, das Leben des Insassen für das Leben der Gruppenmitglieder zu opfern. Diese Antwort hatte aber nur Bestand, solange sie sich nicht selber als Insassen des Wagens sahen. “On a scale from –50 (protect the driver at all costs) to +50 (maximize the number of lives saved), the average response was +24. Results suggest that participants were generally comfortable with utilitarian AVs, programmed to minimize an accident’s death toll”, so die Forscher weiter.

Moralische und juristische Problematiken

Die juristische Betrachtung solcher Fragestellungen ist eine Grauzone. Sowohl in den USA als auch im europäischen Ländern wären neue Gesetze bezüglich autonomer Fahrzeuge nötig, um Klarheit in diese Grauzone zu bringen. Interessant ist auch die Frage nach den Auswirkungen von eventuell vorhandenen unterschiedlichen moralischen Standards in der Programmierung der Computer. “If a manufacturer offers different versions of its moral algorithm, and a buyer knowingly chose one of them, is the buyer to blame for the harmful consequences of the algorithm’s decisions?”, heißt es in dem Artikel weiter.

Trotz dieser Problematik scheint es nachweisbar, dass autonome Autos sicherer sind also solche mit menschlichen Fahrern. Dies könnte jedoch zu einem neuen Dilemma führen. “If fewer people buy self-driving cars because they are programmed to sacrifice their owners, then more people are likely to die because ordinary cars are involved in so many more accidents. The result is a Catch–22 situation”, heißt es in einem Artikel im MIT Technology Review.

Selbstfahrende Fahrzeuge sind eine logische Entwicklung im Bereich Transport und Verkehr. Ihre weitreichende Einführung wird die Art und Weise revolutionieren, auf die die Menschheit reist. Die Entwicklung von ethisch autonomen künstlichen Intelligenzen bleibt aber eine der größten Herausforderungen in diesem Bereich. Eine Herausforderung, der wir uns werden stellen müssen.

Teile den Artikel oder unterstütze uns mit einer Spende.
PayPal SpendeAmazon Spendenshopping

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.