Autonome Systeme werden in Zukunft immer mehr an Bedeutung erlangen. Sei es in der Industrie oder in unseren Autos – Experimente mit autonomen Steuersystemen sind längst Alltag und geben einen Ausblick auf Technologien, die unser Leben nachhaltig verändern werden. Auch in der Kriegsführung werden autonome Systeme eine Rolle spielen. Völlig autonom handelnde Tötungsroboter, die auf dem Schlachtfeld eigenständig über Leben und Tod entscheiden, sind schon lange keine Science-Fiction mehr. Zwar sind die Systeme noch lange nicht bereit für den praktischen Einsatz, aber das ist nur noch eine Frage der Zeit. Seit Montag wird unter dem Dach der Vereinten Nationen (UN) über autonome Waffensysteme diskutiert.


In Zukunft könnten Waffensysteme eigenständig entscheiden, ob Sie ein Ziel angreifen oder nicht. Bild: Mowag Weapons System, Irish Defence Forces, Flickr, CC BY-SA 2.0

Autonome Waffensysteme töten von allein

Es gibt sogar bereits einen offiziellen Begriff für die Systeme. Im Englischen werden sie als „Lethal Autonomous Weapon Systems“ (Laws) bezeichnet, zu deutsch „Tödliche Autonome Waffensysteme“. Auch wenn der Begriff offiziell geprägt ist, entzieht er sich noch einer allgemein gültigen Definitionen. Nach dem Verständnis der UN können Laws Ziele eigenständig identifizieren, entscheiden, ob sie einen Angriff starten und dann die Ziele auch selbstständig eliminieren. Einmal mit der richtigen Programmierung versehen, ist ein menschliches Eingreifen während des Einsatzes also nicht mehr notwendig: Die Systeme töten von alleine. Mögliche Einsatzszenarien gibt es viele: Laws könnten in Zukunft als fest verbaute Systeme auf Kriegsschiffen oder an Grenzen zum Einsatz kommen. Sie könnten strategisch wichtige Ziele schützen oder aber auch mobil auf Panzern oder sogar in einer Art Mech eingesetzt werden. Ganz zu schweigen davon, dass der Schritt zu autonomen Drohnen nicht mehr weit zu sein scheint.

Experten von der Menschenrechtsorganisation Human Rights Watch zufolge arbeiten sowohl die USA als auch Großbritannien, Israel, China, Südkorea und Russland an autonomen Waffensystemen.


Rechtliches und ethisches Neuland

Um die Verwendung der autonomen Systemen hat sich eine scharfe Diskussion entwickelt. Befürworter sprechen davon, dass die Gefahr für menschliche Soldaten durch autonome Systeme minimiert werden kann. Jedoch liegt der Punkt, an dem die autonomen Systeme wirklich kaum noch von Soldaten am Boden unterstützt werden müssten, wahrscheinlich noch weit in der Zukunft. Außerdem kann gerade die Entkoppelung des Menschen von dem eigentlichen Tötungsvorgang zu einer starken Enthemmung führen – eine Entwicklung, die auch bereits beim Einsatz ferngesteuerter Drohnen bereits zu beobachten ist.

Der Einsatz von autonomen Waffensystemen geht auch mit einer Vielzahl rechtlicher und ethischer Probleme einher, für die es noch keine Lösung gibt. So stellt sich vor allem die Frage, wer letztlich für die Entscheidung der Roboter verantwortlich ist. Künstlichen Systemen fehlt das Verständnis für moralisches Handeln, für Verantwortung und für Verhältnismäßigkeit. Letztere ist für Kriegsführung jedoch sogar im Völkerrecht verankert. Die dort festgeschriebene Verpflichtung zur Vermeidung von unnötiger Zerstörung und Leid beim Gegner lässt sich aus Expertensicht kaum programmieren. Die Entmenschlichung des Krieges könnte bei Gegnern, die nicht über entsprechende Systeme verfügen, zu katastrophalen Folgen führen.

Außerdem stellt sich die Frage, wer die kriegsrechtliche Verantwortung für Kriegsverbrechen trägt, wenn alles Handeln der autonomen Systeme von menschlichen Entscheidungen entkoppelt ist. Menschen könnten nur dann auch zur Verantwortung gezogen werden, wenn sie in der konkreten Situation selber über den Angriff entschieden haben.

Nicht erst handeln, wenn es zu spät ist

Momentan fehlt es komplett an rechtlichen Rahmenbedingungen für autonome Waffensysteme. Und das wird in Zukunft auch erstmal so bleiben, da die aktuell in den UN stattfindende Konferenz lediglich die militärischen, politischen, ethischen und rechtlichen Dimensionen der Laws ausloten soll. Ein konkretes Verbot steht auf der Konferenz nicht zur Debatte.

Es ist jedoch von entscheidender Bedeutung, dass die internationale Gemeinschaft sich auf rechtliche Rahmenbedingungen – und seien es nur grobe – für den Einsatz von autonomen Waffensystemen einigt, bevor diese tatsächlich einsatzbereit sind. Wenn erst dann die Diskussion über verpflichtende Vorschriften begonnen wird, könnte es bereits zu spät sein.

Auch Deutschland hält sich noch zurück, was eine Positionierung zu dem Thema angeht. Bis auf einen Vorschlag, vorerst eine Begriffsbestimmung vorzunehmen und eine technische Expertengruppe einzusetzen, die über die Risiken dieser Waffengattung aufklären soll, kam bisher noch nicht viel von der Bundesregierung. Kritiker sind der Meinung, dass dies viel zu wenig sei und verlangen eine klare Positionierung gegen den Einsatz solcher Waffensysteme.

Klare Positionen sind gefragt

Widerstand gegen den Einsatz von autonomen Waffensystemen kommt vor allem von privater Seite. Erst kürzlich warnten Elon Musk und andere KI-Pioniere die Vereinten Nationen in einem offenen Brief vor den Gefahren solcher Systeme. In den Händen von Diktatoren oder Despoten könnten Laws schreckliche Dinge anrichten, und generell stellen autonome Waffensysteme auf dem Schlachtfeld eine kaum einschätzbare Gefahr dar, so die Gruppe.

Um aber wirklich gegen den Einsatz von autonomen Waffensystemen vorzugehen, braucht es mehr als Engagement aus der Industrie. Es braucht Regierungen einflussreicher Staaten, die eine klare Position beziehen.

"

Teile den Artikel oder unterstütze uns mit einer Spende.
PayPal SpendeAmazon Spendenshopping

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.