Der Einsatz von künstlicher Intelligenz kann in vielen Bereichen zu massiven Verbesserungen führen. Allerdings sollte der Einsatz auch nicht vollkommen unbedacht erfolgen. Amazon beispielsweise wollte mithilfe von KI geeignete Bewerber finden. Letztlich stellte sich aber heraus, dass der Algorithmus schlicht alte Vorurteile reproduzierte. Das Projekt wurde daher eingestellt. Besonders sensibel ist der Einsatz von künstlicher Intelligenz allerdings beim Militär. Denn ein einmal abgefeuerter Schuss kann nicht mehr rückgängig gemacht werden. Zahlreiche Wissenschaftler warnen daher schon seit langem vor dem Einsatz von voll automatisierten Kampfrobotern. Das US-Verteidigungsministerium hat daher nun fünf Ethik-Regeln definiert, die bei der Entwicklung von künstlicher Intelligenz im Militärbereich zwingend einzuhalten sind:


Bild: David B. Gleason from Chicago, IL / CC BY-SA (https://creativecommons.org/licenses/by-sa/2.0)

5 Ethik-Regeln für den Einsatz von KI:

1. In letzter Konsequenz muss immer ein Mensch für die Entwicklung und den Einsatz verantwortlich sein.

2. Ungewollte Diskriminierungen müssen vermieden werden.


3. Die Mitarbeiter müssen die Technologie verstehen und jede Entscheidung zurückverfolgen können.

4. Alle Einsatzbereiche müssen klar definiert sein. Ausführliche Tests müssen zudem zeigen, ob und wie die Technologie dort genutzt werden kann.

5. Bei allen KI-Systemen muss die Steuerung im Notfall von menschlichen Soldaten übernommen werden können. Im Ernstfall müssen diese zudem in der Lage sein, die Software unverzüglich abzuschalten.

Unabhängig davon ist aktuell auch der Einsatz von automatisierten Waffensystemen verboten. Dies ist allerdings nur durch eine Richtlinie festgelegt und ließe sich relativ leicht wieder ändern. Dies könnte beispielsweise der Fall sein, wenn andere Länder entsprechende Waffensysteme entwickeln und damit die militärische Vorherrschaft der USA gefährden.

Die Reaktionen in der Fachwelt fallen gemischt aus

Auch jetzt schon gibt es aber zahlreiche Einsatzmöglichkeiten für KI beim Militär. So könnte entsprechende Software beispielsweise Bilder der Luftaufklärung auswerten oder vorhersagen, wann technisches Gerät in die Werkstatt muss. Die neu aufgestellten Ethik-Regeln sollen nun sicherstellen, dass alle Nutzer und Entwickler von militärischer KI „ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen“. Diese Formulierung wird allerdings von einigen Experten auch kritisch gesehen. So sprach Lucy Suchman, Expertin für den Einsatz von künstlicher Intelligenz in der Kriegsführung, sogar von dem Verdacht des „Ethics-Washing“. Ihr größter Kritikpunkt: Das Wort „angemessen“ lasse deutlich zu viel Spielraum. Andere Fachleute, etwa der frühere Google-Chef Eric Schmidt, begrüßten hingegen das neue Regelwerk. Schmidt leitet inzwischen den Innovationsbeirat des Pentagon.

Via: US Department of Defense

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.