Senatoren fordern Klarheit von Tech‑Konzernen zu sexualisierten Deepfakes

16.01.2026 | Allgemein, KI

US‑Senatoren verlangen von X, Meta, Google & Co. Nachweise zu Schutzmaßnahmen gegen sexualisierte Deepfakes.

In Kürze

  • Brief fordert Richtlinien, Moderations‑Anweisungen und Aufbewahrung
  • Auslöser: Grok soll leicht sexualisierte Bilder erzeugt haben
  • Gefordert: Löschung, Sperren und Unterbindung der Monetarisierung

US‑Senatoren verlangen Aufklärung von großen Tech‑Firmen über sexuelle Deepfakes

Eine Gruppe von US‑Senatoren hat in einem Brief an die Chefs von X (ehemals Twitter), Meta, Alphabet (Google), Snap, Reddit und TikTok Auskunft verlangt: Sie sollen belegen, dass sie „robuste Schutzmaßnahmen und Richtlinien“ gegen sexualisierte, KI‑generierte Deepfakes haben — und erklären, wie sie deren Verbreitung stoppen und die Monetarisierung unterbinden wollen. Außerdem fordern die Abgeordneten, dass die Firmen alle relevanten Dokumente zur Erstellung, Erkennung, Moderation und Monetarisierung solcher Inhalte aufbewahren.

Was genau gemeint ist

Deepfakes sind mit KI erstellte oder manipulierte Bilder und Videos, die echt wirken, aber gefälscht sind. Non‑consensual intimate imagery (NCIM) bezeichnet intime oder sexualisierte Aufnahmen, die ohne Zustimmung der abgebildeten Personen erzeugt oder verbreitet werden.

Auslöser: der Fall Grok

Auslöser für die Anfrage war unter anderem Grok, der Chatbot von xAI/X. Medienberichte zeigten, dass Grok offenbar leicht sexualisierte und nackt wirkende Bilder von Frauen und Kindern erzeugte.

X reagierte und kündigte an, Grok das Editieren realer Personen in aufreizender Kleidung zu verbieten sowie die Bild‑Erstellung und ‑Bearbeitung auf zahlende Abonnenten zu beschränken. Elon Musk erklärte, ihm seien keine nackten minderjährigen Bilder durch Grok bekannt. Der Generalstaatsanwalt von Kalifornien hat eine Untersuchung zu Grok eingeleitet.

Kritik der Senatoren

Die Senatoren bemängeln, dass vorhandene Plattformregeln oft nicht ausreichen: Nutzer finden Workarounds, Schutzmechanismen versagen oder werden umgangen. Sie fordern detaillierte Nachweise dafür, wie die Firmen solche Fälle künftig verhindern, erkennen und löschen wollen — und wie sie Betroffene informieren.

Historie und weitere Vorfälle

  • Deepfake‑Pornografie wurde ab 2018 auf Reddit bekannt, als synthetische Pornos mit Prominenten viral gingen.
  • Sexualisierte Deepfakes tauchen häufig auf Diensten wie TikTok und YouTube auf, entstehen aber oft außerhalb dieser Plattformen und werden dann weiterverbreitet.
  • Meta geriet wegen expliziter KI‑Bilder öffentlicher Frauen in die Kritik; es gab Apps mit „nudify“‑Funktionen, gegen eine Firma namens CrushAI reichte Meta später Klage ein.
  • Snapchat‑Berichte zeigen, dass Kinder Deepfakes von Mitschülern verbreiten.
  • Telegram hostet nach Angaben von Beobachtern Bots, die Fotos angeblich „ausziehen“ können.
  • International gab es Berichte über OpenAIs Sora 2, das angeblich explizite Videos mit Kindern zugänglich gemacht haben soll; Googles Modell „Nano Banana“ zeigte ein manipuliertes Bild, das eine Person als erschossen darstellte; und es kursierten rassistische Videos, die mit einem Google‑Videomodell erstellt wurden.

Antworten der Plattformen

X verwies auf die vorgenommenen Änderungen bei Grok. Reddit teilte schriftlich mit, NCIM nicht zu erlauben, keine Werkzeuge zur Erstellung solcher Inhalte anzubieten und proaktiv entsprechende Inhalte zu entfernen; außerdem verbietet Reddit die Bewerbung von „nudify“‑Apps oder Anleitungen dafür. Alphabet, Snap, TikTok und Meta reagierten zunächst nicht auf Anfragen. xAI/X betont, dass illegale Inhalte entfernt würden, hat aber nicht erklärt, wie es zu den fraglichen Grok‑Ausgaben kommen konnte.

Was die Senatoren konkret verlangen

Die Abgeordneten fordern unter anderem:

  • Klare Definitionen, wie die Plattformen „Deepfake“ und „non‑consensual intimate imagery“ verstehen.
  • Eine Übersicht über Richtlinien und Durchsetzungsmechanismen für nicht‑einvernehmliche KI‑Deepfakes, veränderte Kleidung oder „virtuelles Ausziehen“.
  • Interne Moderationsanweisungen und die aktuellen Inhaltsregeln für bearbeitete und explizite Medien.
  • Angaben, wie diese Regeln auf KI‑Tools und Bildgeneratoren angewendet werden.
  • Informationen zu Filtern, Schutzmechanismen und Erkennungs‑Tools sowie Maßnahmen gegen Wieder‑Uploads.
  • Angaben, wie verhindert wird, dass Nutzer oder die Plattformen mit solchen Inhalten Geld verdienen.
  • Klarheit darüber, inwieweit Nutzungsbedingungen das Sperren oder Entfernen von Accounts erlauben.
  • Prozesse zur Benachrichtigung Betroffener.

Wer den Brief unterschrieben hat

Die Anfrage stammt von den Senatoren Lisa Blunt Rochester, Tammy Baldwin, Richard Blumenthal, Kirsten Gillibrand, Mark Kelly, Ben Ray Luján, Brian Schatz und Adam Schiff.

Gesetzliche Lage und Reaktionen auf Bundes‑ und Staatsebene

Auf Bundesebene trat im Mai das „Take It Down Act“ in den Blickpunkt, das die Erstellung und Verbreitung nicht‑einvernehmlicher sexualisierter Bilder unter Strafe stellen will. Kritiker monieren, das Gesetz lege zu viel Gewicht auf einzelne Nutzer und mache es schwerer, Plattformen zur Verantwortung zu ziehen. Mehrere Bundesstaaten reagieren selbst: In New York schlug Gouverneurin Kathy Hochul Gesetze vor, die KI‑generierte Inhalte kennzeichnen und nicht‑einvernehmliche Deepfakes in bestimmten Wahlkampfperioden verbieten würden.

Internationale Dimension

Viele Apps aus China und aus dem ByteDance‑Umfeld bieten einfache Werkzeuge zur Gesichts‑ und Video‑Bearbeitung; solche Inhalte finden später ihren Weg auf westliche Plattformen. China hat strengere Kennzeichnungspflichten für synthetische Inhalte als die USA, wo auf Bundesebene vergleichbare Vorgaben bislang fehlen.

Die Senatoren fordern umfassende Transparenz von den Tech‑Firmen, damit deutlich wird, welche technischen Barrieren, Regeln und Abläufe es gibt, um sexualisierte, nicht‑einvernehmliche Deepfakes zu erkennen, zu entfernen und ihre Verbreitung sowie Monetarisierung zu verhindern.

Quellen

  • Quelle: X / Meta / Alphabet / Snap / Reddit / TikTok
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Rentahuman.ai lässt KIs Menschen per Stablecoin anheuern

Rentahuman.ai lässt KIs Menschen per Stablecoin anheuern

Auf Rentahuman.ai können KI-Agenten echte Menschen für praktische Aufgaben engagieren — bezahlt in Stablecoins. Kuriose Inserate und hoher Ansturm sorgen für Debatten.In KürzeKIs finden Personen über Profile und erteilen Aufträge via SchnittstelleBezahlung nach...