Statt des Kindes besser einen Erwachsenen überfahren?

Manchmal zählen Sekundenbruchteile, dann muss eine Entscheidung fallen, die über Leben und Tod bestimmt. Am Steuer eines Autos, kurz vor einem Unfall, hat der Fahrer zumeist kaum Zeit, zu reagieren – umso haariger wird, es wenn er Leben gegeneinander abwägen muss: Soll ich den Mann oder das Kind überfahren – oder doch lieber mich selbst opfern?


Kann eine Maschine ethische Entscheidungen treffen?

Zum Glück passiert es nur in sehr seltenen Fällen, dass eine solche Entscheidung getroffen werden muss, aber manch ein Autofahrer befand sich leider doch schon in dieser Situation: Es gab keine Möglichkeit mehr, zu bremsen oder in eine ungefährliche Richtung auszweichen; nur zwei Wege blieben offen und jeder davon würde ein anderes Leben fordern. Trotz allen Drucks und aller Panik laufen in einem menschlichen Kopf in solchen Momenten ethische Entscheidungen ab, die durchaus auch bei klarem Verstand vertretbar erscheinen. Doch kann – und darf! – eine Maschine, ein autonom fahrendes Auto, ebensolche Entscheidungen treffen? Wäre das moralisch legitimiert?

Ein interessanter Vortrag zu diesem Thema im Video


Die Probanden folgten dem »Value-of-Life«-Ansatz

Im Ernstfall geht es gar nicht anders, sagen Forscher der Uni Osnabrück und versuchten deshalb, eine Sammlung menschlicher Entscheidungen zu erstellen, aus denen sich eventuell ein Algorithmus für selbstfahrende Autos entwickeln ließe. Die Versuchssitution sah folgendermaßen aus: 100 Probanden saßen nacheinander mit einer VR-Brille am Steuer, ihnen wurde eine dreidimensionale Unfallsitution vorgespielt. Es gab nur zwei Fahrspuren, auszuweichen oder zu bremsen war unmöglich. Auf den Spuren befanden sich wechselnd ein Tier undein Mensch, ein Gegenstand und ein Tier, ein Mensch und ein Gegenstand, aber auch unterschiedliche Menschen wie Männer, Frauen und Kinder. Das Ergebnis überrascht wenig: Die Fahrer, denen nur eine Sekunde Entscheidungszeit blieb, überfuhren eher einen Gegenstand als ein Tier und eher ein Tier als einen Menschen. Sie folgten also dem sogenannten »Value-of-Life-Ansatz« der sich auch im Zuge einer Computerprogrammierung verwenden ließe.

Wer würde ein Auto fahren wollen, das im Zweifelsfall den Fahrer opfert?

Doch es gibt auch Gegenstimmen zu dieser Studie: Solche Situationen können gar nicht »trocken« simuliert werden, meinen einige Wissenschaftler. Der Ernstfall unterscheidet sich einfach viel zu sehr von der bewussten Probesituation. Auch ein Bremsen oder das Opfern des eigenen Lebens war im Versuch ausgeschlossen, und gerade Letzteres stellt eine Option dar, die im Bezug zum autonomen Fahren recht gruselig erscheint: Wäre ein Auto so programmiert, dass es im Zweifelsfall den Fahrer opfert, wer würde es fahren wollen? Würde es immer andere Menschen überfahren, um seinen Inhaber zu schützen, was wäre das für eine Art von Moral?

Quelle: deutschlandfunknova.de

Teile den Artikel oder unterstütze uns mit einer Spende.
PayPal SpendeAmazon Spendenshopping

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.