Kurz vor den US‑Zwischenwahlen tauchen Hunderte KI‑Avatare auf Social Media auf und verbreiten pro‑Trump‑Botschaften.
In Kürze
- Mindestens 304 Konten auf TikTok
- Einzelne Beiträge erreichten Hunderttausende Aufrufe
- TikTok nennt es Spam, NYT sieht mögliche Koordination
Kurz vor den US‑Zwischenwahlen tauchen laut The New York Times Hunderte gefälschte Social‑Media‑Accounts auf, die pro‑Trump‑Botschaften verbreiten — und zwar mithilfe von KI‑generierten Avataren. Diese Avatare sind computererstellte Personas, die optisch und sprachlich wie echte Menschen wirken.
Wie weit verbreitet ist das?
Die NYT zählt seit Januar mindestens 304 solcher Konten allein auf TikTok. Das Purdue‑Forschungslabor GRAIL fand zusätzlich rund ein Dutzend ähnliche Profile auf TikTok, Instagram und Facebook; der Sicherheitsanalyst Eric Nelson von der Firma Alethea entdeckte neun weitere auf YouTube.
Einige der Konten erreichten beachtliche Reichweiten: einzelne Profile hatten mehr als 35.000 Follower, einzelne Beiträge kamen auf über eine halbe Million Aufrufe.
Konkrete Beispiele
- Der TikTok‑Account @perezfernandaus.
- Ein inzwischen gelöschter Instagram‑Account mit dem Handle „jessicaa.foster„.
- Inhalte eines blonden Avatars, der unbelegte Behauptungen über den Gouverneur von Kalifornien verbreitete; diese Inhalte wurden von Donald Trump geteilt.
Wer steckt dahinter?
Das ist unklar. Zuhair Lakhani, Mitgründer des KI‑Werbe‑Startups Doublespeed, schätzt gegenüber der NYT die Produktionskosten pro erzeugtem Beitrag auf 1–3 US‑Dollar und sagt, solche Posts könnten von einer einzelnen Person erstellt werden. Das wirft Fragen zu Aufwand und Skalierbarkeit der Operationen auf.
Plattformreaktionen und widersprüchliche Einschätzungen
TikTok stuft viele der betroffenen Accounts als Spam ein und kündigt Löschungen an. Die Plattform sieht keine Hinweise auf eine koordinierte Einflussoperation, sondern auf einzelne Spammer, die Interaktion suchen.
Die NYT beobachtet hingegen Muster, die darauf hindeuten könnten, dass mehrere Konten zusammenarbeiten:
- Cluster mit identischer Sprache
- Gleiche Profilbilder und Soundeffekte
- Wiederkehrende Figuren — etwa eine Blondine mit Zöpfen auf einem Bauernhof oder eine Schwarze Frau mit roter MAGA-Kappe und Pilotenbrille
- Gegenseitige Follow‑Beziehungen
Im gleichen Umfang vergleichbare linke Netzwerke hat die Untersuchung nicht gefunden.
Parallelen in Japan
Ein ähnliches Phänomen wurde bereits bei der Unterhauswahl in Japan dokumentiert: Dort setzten sich gefälschte KI‑Videos und manipulierte Nachrichten in sozialen Medien fest. Einer Umfrage von Professor Shinichi Yamaguchi zufolge hielten 51,5 % der Befragten solche Falschnachrichten für wahr.
Quellen
- Quelle: TikTok / Instagram / YouTube / The New York Times
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.



