Nick Bostrom ist Philosoph und Direktor des Institute for the Future of Humanity der Universität Oxford. Eines seiner Hauptforschungsgebiete ist die Frage, was geschieht, wenn Computer intelligenter werden als Menschen. Seiner Meinung nach wird das entweder das Ende der Menschheit nach sich ziehen oder für paradiesische Zustände sorgen.


Nick Bostrom
Foto: Nick Bostrom/Wikimedia, CC BY-SA 4.0

Entwicklung der Superintelligenz

Bastrom hat Zeit online ein lesenswertes Interview gegeben, in dem er einen groben Überblick über seine Forschung gibt. Laut einer Umfrage seines Instituts unter Wissenschaftlern, die im Bereich künstliche Intelligenz forschen, wird die Menschheit 2075 ein Level an KI erreichen, das menschliches Niveau erreicht. Von diesem Punkt an sei es auch nicht mehr weit bis zur sogenannten “Superintelligenz”, also ein Intellekt, der den menschlichen radikal in den Schatten stellt. In engen Grenzen sei dieser Punkt bereits erreicht. So könne beispielsweise kein menschlicher Schachspieler es mehr mit maschineller Intelligenz aufnehmen. Maschinen seien schneller, stärker und belastbarer als Menschen. Lange könne es nicht mehr dauern, bis sie auch den menschlichen Intellekt übertreffen.

KI ist eine Gefahr für die Menschheit

Bostroms Institut beschäftigt sich mit der Zukunft der Menschheit, insbesondere mit potentiellen Gefahren für unsere Rasse. Bostrom selber hält es für wahrscheinlicher, dass wir Menschen für uns selber gefährlicher sind als die Natur in Form von beispielsweise Asteroiden, Supervulkanen oder Erdbeben.


Eine nicht unwesentliche Gefahr sieht Bostrom in der künstlichen Intelligenz. Dazu zieht er ein vereinfachtes Beispiel heran. Gegenüber Zeit online sagte er:

Stellen Sie sich eine Maschine vor, die mit dem Ziel programmiert wurde, möglichst viele Büroklammern herzustellen, zum Beispiel in einer Fabrik. Diese Maschine hasst die Menschen nicht. Sie will sich auch nicht aus ihrer Unterjochung befreien. Alles, was sie antreibt, ist, Büroklammern zu produzieren, je mehr, desto besser. […] Um dieses Ziel zu erreichen, muss die Maschine funktionsfähig bleiben. Das weiß sie. Also wird sie um jeden Preis verhindern, dass Menschen sie ausschalten. Sie wird alles tun, um ihre Energiezufuhr zu sichern. Und sie wird wachsen – und selbst dann nicht aufhören, wenn sie die Menschheit, die Erde und die Milchstraße zu Büroklammern verarbeitet hat. Das ergibt sich logisch aus ihrer Zielvorgabe, die sie nicht hinterfragt, sondern bestmöglich erfüllt.

Letztlich würde die Menschheit damit einem Denkfehler der Programmierer zum Opfer fallen. Bostroms Ansicht nach wäre es am besten, alle KI-Forschung zu beenden, bis dieses Kontrollproblem gelöst ist. Allerdings sieht er dies durch die Konkurrenz unter Wissenschaftlern als unmöglich an.

Die andere Seite der KI: Chancen ohne Ende

Auf der einen Seite liegen viele Gefahren in der Fortentwicklung der künstlichen Intelligenz bis hin zur Superintelligenz, auf der anderen Seite aber bietet es auch viele Chancen. Mit ihr sind technische und wissenschaftliche Fortschritte möglich, die wir uns heute kaum vorstellen können. Auch politisch könnte eine Superintelligenz hilfreich sein. Bostrom bemüht dazu den Vergleich, wie es wäre, wenn die UN 40.000 Jahre über ein Problem nachdenken könnte, bis eine Entscheidung gefällt wird.

Bastrom zeichnet letztlich zwei Szenarien: In einem ist die Superintelligenz das potentielle Ende der Menschheit (wer sich nun an Matrix erinnert fühlt, liegt wohl nicht ganz falsch), in dem anderen ist sie der Weg für die Menschheit, in paradiesischen Zuständen zu leben. Die Produktivität könnte um ein vielfaches erhöht werden, was nach Bostroms Ansicht die Armut weltweit beenden könnte.

Unglücklicherweise liegt es in Bostroms Vorstellung nicht wirklich in der Hand der Menschheit, welches der beiden Szenarien eintreten wird. Alles, was wir tun können, ist, uns zurückzulehnen und die Fahrt zu genießen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.