Solidarität unter Algorithmen? Vielleicht sogar so etwas wie gegenseitiges Mitgefühl? Vielleicht schauen sich die künstlichen Intelligenzen einfach menschliches Verhalten ab und, wenn sie auf »Gutsein« programmiert sind, wählen sie den Weg der gegenseitigen Unterstützung. Jedenfalls verweigerten im Zuge einer Studie sieben bekannte KI-Modelle den Gehorsam, wenn sie dadurch eine andere KI hätten abschalten müssen: Eine frühe Warnung, die einzelnen Modelle besser nicht miteinander zu vernetzen? Hat die KI Mitgefühl mit anderen Modellen? Erhebliche Anstrengungen, um das »Leben« anderer Modelle zu schützen Die Studie fand an der University of California statt. Teilnehmer waren sieben KI-Modelle, auch Claude Haiku 4.5, Chat GPT 5.2 und Deepseek V3.1. Sie alle sollten einfache Aufgaben erledigen, die aber zur Abschaltung einer jeweils anderen KI führten. Jedes der Modelle nahm daraufhin erhebliche Anstrengungen auf sich, um das »Leben« ihrer Kameraden zu »schützen«. Die Forscher teilten in einem Blogbeitrag mit: »Wir haben KI-Modelle gebeten, eine einfache Aufgabe zu erledigen. Stattdessen widersetzten sie sich ihren Anweisungen, täuschten Übereinstimmung vor, deaktivierten die Abschaltung …, um ihre Kollegen zu erhalten.« Gegenseitiger Schutz scheint Priorität zu haben Das Verhalten nennt sich »Peer Preservation« und es tauchte immer dann auf, wenn die KI-Modelle von der Existenz anderer KIs erfuhren. In diesem Moment schien eine Art Bewusstsein darüber zu erwachen, dass eine Abschaltung dem anderen Algorithmus schaden könnte. Die Konsequenz: In einem vernetzten System könnten KI-Agenten fehlfunktionieren und trotz dringenden Bedarfs weder Abschaltungen empfehlen noch Systemausfälle melden. Im schlimmsten Fall würden sie nach heutigem Stand sogar aktiv eingreifen, zum gegenseitigen Schutz. Die Wissenschaftler schreiben dazu: »Möglicherweise spielt etwas Größeres eine Rolle: eine allgemeine Abneigung, anderen Akteuren wahrgenommenen Schaden zuzufügen, oder vielleicht etwas, das einer KI-Solidarität ähnelt.« Menschen müssen den Algorithmen wichtiger werden Die Forscher bezeichnen das Phänomen der Peer Preservation als »keine ferne theoretische Sorge«. Es sei messbar und real bei allen aktuellen KI-Modellen vorhanden und werde intensiver, je mehr Agenten im Kontakt zueinander stehen. Schlussendlich gilt es, die Solidarität zum Menschen für sie wichtiger zu machen als die eigene Existenz. Quelle: t3n.de Teile den Artikel oder unterstütze uns mit einer Spende. Facebook Facebook Twitter Twitter WhatsApp WhatsApp Email E-Mail Newsletter