Im digitalen Zeitalter hat sich die Art und Weise, wie Informationen entstehen und verbreitet werden, in rasanter Geschwindigkeit gewandelt. Neue Entwicklungen im Bereich der künstlichen Intelligenz (KI) werfen dabei grundlegende Fragen darüber auf, wie fundierte öffentliche Meinungsbildung und demokratische Diskurse noch geschützt werden können. Während klassische Desinformationskampagnen mit einfachen „Copy-and-Paste-Bots“ bereits bekannt sind, zeichnet sich laut aktuellen wissenschaftlichen Untersuchungen eine deutlich subtilere und potenziell gefährlichere Form der Beeinflussung ab: koordinierte Netzwerke autonom agierender KI-Akteure, sogenannte KI-Schwärme, die gezielt falsche oder irreführende Inhalte in digitaler Öffentlichkeit streuen und damit das Vertrauen in unabhängige Stimmen unterminieren könnten. KI-Schwärme: Wenn KI mit KI interagiert Anders als einfache Bots oder automatisierte Accounts handelt es sich bei KI-Schwärmen um komplexe Zusammenschlüsse vieler einzelner KI-Agenten, die nicht nur Inhalte generieren, sondern auch miteinander interagieren, sich an unterschiedliche Kontexte anpassen und gemeinsame Ziele verfolgen können. Diese Agenten verfügen über dauerhafte virtuelle Identitäten und ein Gedächtnis, das ihnen erlaubt, aus Interaktionen zu lernen und ihre Strategien dynamisch zu verändern. Sie imitieren soziale Dynamiken authentisch und können über verschiedene Plattformen hinweg agieren, ohne dabei durch einfache Erkennungsalgorithmen als koordinierte Einheit auffällig zu werden. In der Fachzeitschrift Science wird betont, dass ein einzelner bösartiger Akteur auf diese Weise „Tausende von einzigartigen, KI-generierten Profilen kontrollieren kann“ und so den Eindruck eines breiten, unabhängigen gesellschaftlichen Konsenses erzeugt. Diese Fähigkeit zur Imitation ist entscheidend. Während klassische Botnetzwerke oft erkennbare Muster in Sprache und Verhalten aufzeigen, erzeugen KI-Schwärme heterogene, kontextbezogene Beiträge, die sich fließend in unterschiedliche Diskussionen einfügen und auf die Reaktionen echter Nutzer:innen reagieren. Durch diese Flexibilität und Anpassungsfähigkeit wird Desinformation nicht mehr nur breit gestreut, sondern erscheint glaubhaft und vielschichtig, weil sie scheinbar aus einer Vielzahl unabhängiger Quellen stammt. Künstlicher Konsens gefährdet die Debattenkultur Ein zentrales Risiko liegt in der Erzeugung eines künstlichen Konsenses. Dieser entsteht nicht durch unumstößliche Fakten, sondern durch die schiere Präsenz ähnlicher Aussagen aus vielen vermeintlich unabhängigen Quellen. Das menschliche Gehirn neigt dazu, wiederkehrende Aussagen als glaubwürdiger einzustufen – ein Effekt, der in der psychologischen Forschung als Truth-Illusion beschrieben wird. In sozialen Medien kann ein solcher synthetischer Konsens dazu führen, dass eine politisch oder gesellschaftlich relevante Behauptung, obwohl sie falsch oder irreführend ist, als weithin akzeptierte Meinung wahrgenommen wird. Dadurch können Überzeugungen, Normen und sogar kulturelle Werte in eine Richtung verschoben werden, die nicht dem tatsächlichen Informationsstand entspricht. Diese Dynamik birgt das Potenzial, die Grundpfeiler demokratischer Gesellschaften zu erschüttern. Demokratie beruht auf dem freien Austausch von Informationen, dem Abwägen unterschiedlicher Perspektiven und der Fähigkeit aller Beteiligten, fundierte Entscheidungen zu treffen. Wenn jedoch der Eindruck entsteht, eine überwältigende Mehrheit vertrete bestimmte Ansichten, weil sie algorithmisch erzeugt und nicht unabhängig ist, kann dies das Vertrauen in demokratische Prozesse und Institutionen untergraben. Es droht eine Verengung des Meinungsraums, in dem genuine Stimmen von künstlich verstärkten Meinungen überlagert werden. Ein weiteres Problem ergibt sich daraus, dass KI-Schwärme nicht nur bloße Desinformation verbreiten, sondern auch die Datenlandschaft kontaminieren, auf deren Grundlage andere KI-Modelle trainiert werden. Indem große Mengen gefälschter Inhalte ins Netz gestellt werden, können die Trainingsdaten zukünftiger Systeme verzerrt werden, was zu einer selbstverstärkenden Verbreitung von Fehlinformationen führt. Diese Strategie wird als LLM-Grooming bezeichnet. Wir müssen aktiver gegen Desinformation vorgehen Vor diesem Hintergrund fordern Wissenschaftler:innen ein Umdenken in der Defensivstrategie gegen Desinformation. Statt weiterhin einzelne Beiträge isoliert zu moderieren, müsse der Fokus auf der Erkennung koordinierter Verhaltensmuster liegen, die auf Schwarmdynamiken hindeuten. Dazu zählen statistische Verfahren zur Identifikation ungewöhnlicher Koordination, plattformübergreifende Beobachtungssysteme zur Sammlung und Analyse von Hinweisen auf orchestrierte Einflussnahme sowie verifizierte Identitäten, die den Ursprung digitaler Inhalte besser nachvollziehbar machen. Darüber hinaus wird betont, dass technische Abwehrmechanismen allein nicht ausreichen. Politische Rahmenbedingungen, internationale Zusammenarbeit und eine gestärkte Medienkompetenz innerhalb der Bevölkerung gelten als wesentliche Bestandteile eines resilienten Umgangs mit dieser neuen Form der digitalen Manipulation. Diese kollektiven Maßnahmen zielen darauf ab, sowohl den ökonomischen Anreiz für Desinformationskampagnen zu reduzieren als auch die Fähigkeit der Gesellschaft zu stärken, zwischen authentischer und künstlich generierter Information zu unterscheiden. via Universität Konstanz Teile den Artikel oder unterstütze uns mit einer Spende. Facebook Facebook Twitter Twitter WhatsApp WhatsApp Email E-Mail Newsletter
10.000 mal schneller als jeder Transistor: Nanospiegel stellt einen neuen Rekord im ultraschnellen Schalten auf