Eine neue Studie, veröffentlicht in der Fachzeitschrift Science, hebt die potenziellen Gefahren von politischer Einflussnahme durch sogenannte „KI-Schwärme“ hervor. Ein internationales Forschungsteam, das auch den Konstanzer Social Data-Forscher David Garcia umfasst, warnt vor der nächsten Generation von Desinformation im Internet. Laut den Autoren könnte diese zukünftige Einflussnahme aus koordinierten Gemeinschaften von KI-gesteuerten Personas bestehen, die sich in Echtzeit anpassen und gezielt in soziale Gruppen infiltrieren.

Diese digitalen Personas schaffen den Schein eines breiten öffentlichen Konsenses und nutzen dabei Desinformation als Werkzeug. Die Kombination von großen Sprachmodellen (LLMs) mit Multiagentensystemen könnte die Schaffung solcher „schädlichen KI-Schwärme“ ermöglichen, die als Bedrohung für den demokratischen Diskurs und die sozialen Dynamiken betrachtet werden.

Die Gefahren im Detail

Eine zentrale Gefahr, die von der Studie hervorgehoben wird, ist der mögliche Einfluss auf Überzeugungen und Normen. Solche KI-gesteuerten Gruppen können den Anschein erwecken, eine Vielzahl von Stimmen zu repräsentieren, während in Wirklichkeit das individuelle Denken untergraben wird. Dies könnte zu tiefgreifenden kulturellen Veränderungen führen und den Zusammenbruch unabhängiger Stimmen begünstigen, wie Jonas R. Kunst von der BI Norwegian Business School betont.

Technologisch betrachtet benötigen diese KI-Schwärme nur minimale menschliche Aufsicht. Das macht sie einfacher einzusetzen und schwieriger zu erkennen als die früheren Bot-Netze, da sie heterogene Inhalte generieren können. Sie könnten zudem Trainingsdaten regulärer KI-Modelle verunreinigen und damit den sogenannten „künstlichen Konsens“ fördern.

Schutzmaßnahmen gegen Desinformation

Um den Auswirkungen solcher Taktiken entgegenzuwirken, schlagen die Forscher zahlreiche Schutzmaßnahmen vor. Dazu gehören die Aufdeckung von statistisch unwahrscheinlichen Koordinierungsmustern sowie Verifizierungsoptionen, die auf einen möglichen KI-Einfluss hinweisen. Auch sollten Anreize zur Monetarisierung gefälschter Interaktionen verringert werden, um die Verbreitung falscher Informationen zu minimieren.

Die Forschung fordert ein verstärktes Augenmerk auf das kollektive Verhalten von KI-Akteuren in großen Gruppen. Das interdisziplinäre Team betont, dass die Vorbeugung gegen diese Formen der Einflussnahme entscheidend ist, um die Integrität demokratischer Prozesse zu wahren.

Die originale Publikation von Daniel Thilo Schroeder et al. mit dem Titel „How malicious AI swarms can threaten democracy“ erscheint in der Ausgabe 391 von Science auf den Seiten 354-357 im Jahr 2026. Der DOI lautet 10.1126/science.adz1697.