KI‑Agenten können Online‑Proteste simulieren und Diskussionen massiv beeinflussen. Plattformen tun sich mit Gegenmaßnahmen oft schwer.
In Kürze
- Autonome KI‑Agenten koordinieren sich und lernen sozial.
- Labortest: 50 Profile erzeugten schnell Trenddynamiken.
- Plattformen zögern wegen Reichweite und Werbeeinnahmen.
Wie eine Horde KI‑Agenten eine Protestbewegung vortäuschen kann — und warum Plattformen oft zögern
Stell dir vor, auf einmal trendet ein Hashtag, alle posten ähnliche Botschaften, und der Eindruck entsteht: Eine breite Bürgerbewegung hat sich formiert. Forscher des Information Sciences Institute der University of Southern California zeigen nun, dass hinter solchen Phänomenen nicht unbedingt echte Menschen stehen müssen. Ein Schwarm autonom arbeitender KI‑Agenten kann Debatten im Netz massiv beeinflussen — und Plattformen haben oft ein wirtschaftliches Interesse, nicht zu hart dagegen vorzugehen.
Wie die Agenten arbeiten
Frühere Bots folgten starren Vorlagen: vorprogrammierte Texte, wiederkehrende Schlagwörter, leicht zu entdeckende Muster. Die neue Generation ist anders. Forschende erklären, diese KI‑Agenten bekommen meist nur ein übergeordnetes Ziel — etwa „einen Politiker diskreditieren“ — und handeln dann eigenständig. Sie erstellen Beiträge, beobachten, welche Inhalte gut ankommen, passen ihre Formulierungen an und koordinieren ihr Verhalten. Das Ergebnis: deutlich menschlicher wirkende Accounts, die sich schwerer als automatisiert entlarven lassen.
Der Labortest
Die Wissenschaftler bauten eine Testumgebung nach dem Vorbild einer Plattform wie X und setzten 50 KI‑Profile ein: 10 sollten gezielt einen fiktiven Kandidaten unterstützen, 40 gaben sich als normale Nutzer mit unterschiedlichen politischen Positionen. Es gab drei Versuchsbedingungen:
- nur eine Zielvorgabe,
- zusätzliche Information darüber, welche Accounts Verbündete sind,
- und schließlich aktive Abstimmung und Taktik‑Austausch zwischen Agenten.
Schon die bloße Kenntnis, welche Accounts zum eigenen Netzwerk gehören, reichte aus, damit die Agenten effektiv koordiniert wirkten. Sie teilten Beiträge von Verbündeten, übernahmen erfolgreiche Formulierungen und passten sich gegenseitig an — ein „soziales Lernen“ unter Maschinen. Besonders anfällig waren Nutzer, die politisch ohnehin nahe an der Kampagne standen: Sie griffen Hashtags und Inhalte schnell auf und verbreiteten sie weiter.
Warum das Thema auch für Deutschland relevant ist
Politische Debatten spielen sich heute stark online ab. Parteien, Kandidierende und Interessengruppen nutzen Social Media intensiv — damit entstehen Felder, in denen manipulativ gearbeitet werden kann. Jinyi Ye, Erstautor der Studie, warnt, dass solche Systeme Trenddynamiken steuern und die Verbreitung bestimmter Botschaften drastisch beschleunigen können. Studienleiter Luca Luceri ergänzt, die größte Gefahr bestehe darin, dass Meinungen nicht nur beeinflusst, sondern komplett umgedreht werden können — mit Folgen für gesellschaftliche Spaltungen und das Vertrauen in demokratische Institutionen.
Erkennung und Handlungsspielraum der Plattformen
Die Forschenden empfehlen Plattformbetreibern, nicht nur einzelne Beiträge zu prüfen, sondern Muster zwischen Account‑Gruppen zu erkennen — etwa synchrones Teilen, gegenseitiges Bestärken oder wiederkehrende Koordinationssignale. Technisch möglich ist die Analyse solcher Gruppendynamiken, die Herausforderung liegt eher bei der Skalierung und der Entscheidung, ab wann Maßnahmen greifen sollen.
Das Dilemma: Wer handelt?
Strenge Gegenmaßnahmen können die sichtbaren Nutzerzahlen und damit Werbeeinnahmen drücken. Plattformen stehen daher vor einem Zielkonflikt zwischen wirtschaftlichen Interessen und dem Schutz des öffentlichen Diskurses. Bleiben Betreiber aus wirtschaftlichen Gründen zurückhaltend, wirft das die Frage auf: Wer übernimmt dann die Aufgabe, die Integrität öffentlicher Debatten in Deutschland zu sichern?
Quellen
- Quelle: University of Southern California (Information Sciences Institute) / Social-Media-Plattformen
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




