Der Aufstand von Maschinen gegen die Menschheit gehört ins Reich von Filmen wie Terminator oder Matrix. Der Direktor von Microsoft Research, Chris Bishop, brachte nun die provokante These vor, dass die Angst vor genau solchen Aufständen die Entwicklung im Bereich Künstliche Intelligenz zurückhalte und ausbremse.


T-800 Terminator
Foto: Terminator Exhibition: T-800CC BY-SA 2.0

KI ist weniger gefährlich, als wir denken

Künstliche Intelligenz hat enormes Potential. Autonom fahrende Autos und effiziente Produktionswege sind nur der Anfang. Um das Potential aber ausschöpfen zu können, sei es zwingend erforderlich, dass wir Künstliche Intelligenz nicht mehr als etwas sehen, das man fürchten muss, so Chris Bishop. Gegenüber The Guardian betonte Bishop, dass wir aufhören müssen, Künstliche Intelligenz mit Systemen wie Skynet aus Terminator zu verbinden. Zwar habe Künstliche Intelligenz Risiken, aber die Angst vor dem “Ende der Menschheit” sei deutlich überzogen.

Zu jenen, die vor den Gefahren von Künstlicher Intelligenz warnen, gehören prominente Namen wie Elon Musk und Stephen Hawking. “The development of full artificial intelligence could spell the end of the human race”, so Hawking letztes Jahr gegenüber BBC.


Bishop mahnt zur Besonnenheit

Bishop ist der Meinung, dass derartige Stimmen, besonders wenn sie von so prominenten Menschen kommen, die Entwicklung von KI entscheidend ausbremsen. “I think Stephen is looking far into the future. I find it very difficult to predict where technology goes in 10 years, let alone 1,000 years! It’s clear humanity faces many challenges but I’m very optimistic about the potential of technology to give us a head start in tackling these problems”, so der Chef von Microsoft Research.

Die so angestoßene Debatte kommt in einer Zeit, in der mehrere Organisationen, darunter die Human Rights Watch, sich mit der Forderung an die UN richten, militärische Drohnen, die autonom Ziele zerstören können, per Resolution zu verbieten.

2 Kommentare

  1. eisvogel

    15. April 2016 at 01:13

    Die Angst vor KI kann ich nicht nachvollziehen. Welchen Vorteil hätte es für die KI, die Menschheit auszurotten? Der Kampf um Ressourcen kann es nicht sein. Es wäre für die KI ein Leichtes, die unerschöpflichen Ressourcen des Weltraumes für sich zu erschließen. Da haben es wir Menschen wesentlich schwerer. KI braucht weder Wasser & Nahrung noch atembare Atmosphäre. KI könnte Planeten besiedeln, die für uns nicht lebensfähig wären. KI könnte dort die Voraussetzungen für uns schaffen.

  2. Konrad

    22. April 2016 at 10:20

    Du gibst dir die Antwort doch selber:
    „KI braucht weder Wasser & Nahrung noch atembare Atmosphäre“

    Was machst du täglich für das Überleben der Ratten & Ameisen? Warum sollte eine KI sich darum scheren, ob & wo sie Voraussetzungen für uns schaffen kann? So lange sie uns als organische Hand braucht schön und gut, darüber hinaus sind wir im Vergleich mit Robotern nicht konkurrenzfähig und gehen den Gang der Evolution.
    Woher weißt du, welche Ziele eine KI hat, haben könnte? Das ist das Problem. Die Theorie geht nur bis: über unser Vorstellungsvermögen hinaus.
    Vielleicht hätte es einen Vorteil, die Menschheit auszurotten, oder aber dies ist nur ein Nebeneffekt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.