Forscher warnen vor einer nächsten Generation an Desinformation im Internet durch sogenannte „Künstliche Intelligenz“. Offensichtliche „Copy-and-Paste-Bots“ würden vermutlich ersetzt durch koordinierte Gemeinschaften von „KI-Schwärmen“, so ein internationales Forschungsteam, das seine Erkenntnisse nun in der Fachzeitschrift „Science“ veröffentlicht hat.
Gemeint seien KI-gesteuerte Flotten, die sich in Echtzeit anpassen, Gruppen infiltrieren und in großem Umfang einen Anschein von gemeinschaftlicher Meinung erwecken können. Ein Chor aus scheinbar unabhängigen Stimmen schaffe die Illusion eines breiten öffentlichen Konsenses, während er in Wirklichkeit Desinformation verbreitet.
Dabei würde es zu einer Verschmelzung von großen Sprachmodellen (LLMs) mit Multiagentensystemen zu „schädlichen KI-Schwärmen“ kommen, die soziale Dynamiken authentisch imitieren – und nach Ansicht der Forscher den demokratischen Diskurs bedrohen, indem sie falsche Tatsachen zementieren und Konsens suggerieren.
Das Forschungsteam zeigt in seiner Analyse auf, dass die zentrale Gefahr nicht nur in falschen Inhalten bestehe, sondern vor allem in einem „künstlichen Konsens“: Der falsche Eindruck, dass „ja jeder das sage“, könne Überzeugungen und Normen beeinflussen, selbst wenn einzelne Behauptungen umstritten sind. Dieser anhaltende Einfluss, so die Forscher, könne tiefgreifende kulturelle Veränderungen bewirken, die über Normenverschiebungen hinausgehen und die Sprache, Symbole und Identität einer Gemeinschaft auf subtile Weise verändern.
„Die Gefahr besteht nicht mehr nur in Fake News, sondern darin, dass die Grundlage des demokratischen Diskurses – unabhängige Stimmen – zusammenbricht, wenn ein einzelner Akteur Tausende von einzigartigen, KI-generierten Profilen kontrollieren kann“, sagte Jonas R.
Kunst von der BI Norwegian Business School, einer der Hauptautoren des Science-Artikels.
Darüber hinaus können KI-Schwärme auch die Trainingsdaten von regulärer künstlicher Intelligenz verunreinigen, indem sie das Internet mit gefälschten Behauptungen überfluten. Auf diese Weise könnten sie ihren Einfluss auf etablierte KI-Plattformen ausweiten.
Die Forscher warnen, dass diese Bedrohung nicht nur theoretisch ist: Analysen legten nahe, dass derartige Taktiken bereits angewendet werden.
Die Forscher definieren einen schädlichen KI-Schwarm als eine Gruppe von KI-gesteuerten Akteuren, die dauerhafte Identitäten bewahren und ein Gedächtnis haben, sich auf gemeinsame Ziele koordinieren und dabei Ton und Inhalt variieren. Sie passen sich in Echtzeit an Interaktionen und menschliche Reaktionen an, benötigen nur minimale Aufsicht durch Menschen und können plattformübergreifend eingesetzt werden.
Im Vergleich zu früheren Bot-Netzen könnten solche Schwärme schwieriger zu erkennen sein, da sie heterogene, kontextbezogene Inhalte generieren und sich dennoch in koordinierten Mustern bewegen.
„Über die Täuschungen oder die Sicherheit von einzelnen Chatbots hinaus müssen wir neue Gefahren erforschen, die sich aus der Interaktion von vielen KI-Akteuren ergeben“, sagte David Garcia, Professor an der Universität Konstanz, und ebenfalls an der Untersuchung beteiligt.
Statt einzelne Beiträge zu moderieren, plädieren die Forscher für Schutzmaßnahmen, die koordiniertes Verhalten und die Herkunft der Inhalte verfolgen: statistisch unwahrscheinliche Muster von Koordinierung aufdecken, Verifizierungsoptionen unter Wahrung des Datenschutzes anbieten und Hinweise auf KI-Einflussnahme über verteilte Beobachtungszentren weitergeben.
Gleichzeitig sollten Anreize verringert werden, indem die Monetarisierung von gefälschten Interaktionen eingeschränkt und die Rechenschaftspflicht erhöht werden, so die Empfehlung der Forscher.
Möchten Sie immer die aktuellen Nachrichten aus Ihrer Region bekommen? Dann besuchen Sie das lokale Nachrichtenportal Digitaldaily.de