Home » Trend Nachrichten » Kampfroboter: Warum die Welt einheitliche ethische Richtlinien für die Robotik braucht

Kampfroboter: Warum die Welt einheitliche ethische Richtlinien für die Robotik braucht

Im Bereich Robotik wurden in den letzten Jahren beeindruckende Fortschritte gemacht. Doch Roboter sind nicht nur im zivilen Bereich einsetzbar, sondern auch im militärischen. Aber wenn man Roboter mit Waffen ausstattet, dann geht von ihnen erhebliche Gefahr aus. So viel Gefahr, dass die Weltgemeinschaft sich auf gemeinsame ethische Richtlinien einigen sollte, die die Entwicklung von militärischen Kampfrobotern untersagen. Dies fordert eine Gruppe einflussreicher Größen aus der Tech- und Wissenschaftswelt in einem offenen Brief. Unter ihnen sind Elon Musk, Stephen Hawking, Steve Wozniak, Daniel Dennett und zahlreiche andere.

Neue Art der Kriegsführung

Im Bereich fliegende Drohnen ist bereits sehr viel Automatismus vorhanden. Die Fluggeräte fliegen nahezu von selbst, die Ziele werden per Knopfdruck ausgeschaltet. In Zukunft wäre es denkbar, dass diese Entwicklung sich fortsetzt bis hin zu Drohnen, die sich sowohl in der Luft als auch am Boden ihren Weg selbstständig suchen und bei Kontakt mit Menschen entscheiden, ob es sich um Freund oder Feind handelt und entsprechend reagieren.

Mit dieser Entwicklung würde sich auch die Kriegsführung weiter ändern. Lassen wir heute schon nicht selten Maschinen anstatt Menschen kämpfen, so würde sich dieser Effekt nur noch weiter verstärken. Eigenständige, unabhängige Waffen wären laut dem Brief nach der Erfindung des Schwarzpulvers und der Atombombe die dritte Revolution der Kriegsführung. Halbautomatische Kampfroboter wie den Samsung SGR-A1 gibt es bereits.

Bisher kein internationales Konzept für eigenständige Waffen

Trotz der schnellen Fortschritte existieren bisher keine internationalen Richtlinien für den Umgang mit automatischen Waffen. Das bedeutet aber nicht, dass die Thematik nicht behandelt wird. Die Vereinten Nationen organisierten bereits mehrere Treffen, um eine gemeinsame Linie zu finden. Zuletzt traf man sich im April dieses Jahres. Deutschland vertritt offiziell die Meinung, dass die Entscheidung über Leben und Tod nicht durch einen Computer getroffen werden darf. Andere Länder wie die USA, Israel und Großbritannien finden ein Verbot überflüssig.

Kampfeinsätze können nicht programmiert werden

Ein Kampfeinsatz besteht nicht aus schwarz/weiß-Entscheidungen der Marke Freund oder Feind. Vielmehr ist eine Vielzahl an ethisch komplexer Entscheidungen zu treffen, unmöglich alle vorher als Eventualität programmiert werden können. KI muss der Definition nach lernfähig sein. Es besteht die Gefahr, dass die Roboter während des Einsatzes eine “falsche” Moral entwickeln. Auch wenn die KI-Forschung durchaus Mittel und Wege bereithält, den Lerneffekt einzudämmen, lässt sich diese Gefahr nicht von der Hand weisen.

Missbrauch ist vorprogrammiert

Wenn derartige Waffensysteme existieren, werden sie zwangsläufig irgendwann in die falschen Hände geraten. Terroristische Gruppierungen oder Verbrechersyndikate sind nicht unbedingt die Gruppen, die man im Besitz intelligenter Waffensysteme wissen will.

Wahrscheinlich ist die Entwicklung solcher Systeme eh nur eine Frage der Zeit. Ein eindeutiges Votum der internationalen Gemeinschaft würde aber dazu beitragen, diese Entwicklung hinauszuzögern.

Teile den Artikel oder unterstütze uns mit einer Spende.


PayPal SpendeAmazon Spendenshopping

Jetzt einen Kommentar zum Thema schreiben

Ihre E-Mail Adresse wird nicht veröffentlicht! Pflichtfelder sind markiert *

*

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>