X verlangt künftig Kennzeichnung für KI‑generierte Videos zu bewaffneten Konflikten — gilt aber nur eingeschränkt und ist nicht in den offiziellen Richtlinien.
In Kürze
- Pflicht für Videos zu bewaffneten Konflikten, konkrete Definition fehlt
- Automatische Erkennung per KI‑Metadaten und Community Notes
- Monetarisierungssperren: 90 Tage, bei Wiederholung dauerhaft
X führt erstmals eine Kennzeichnungspflicht für KI-Videos ein — aber mit engen Grenzen
X hat angekündigt, dass Nutzerinnen und Nutzer künftig KI-generierte Videos zu „bewaffneten Konflikten“ kennzeichnen müssen — zumindest teilweise. Produktchef Nikita Bier erklärte gestern, dass Beiträge, die solche Inhalte ohne Kennzeichnung posten, vom Monetarisierungsprogramm ausgeschlossen werden: einmalig für 90 Tage; bei Wiederholung droht ein dauerhafter Ausschluss. Das Monetarisierungsprogramm ermöglicht es Creators, mit ihren Inhalten Geld zu verdienen.
So soll erkannt werden, ob ein Video von einer KI stammt
Laut Ankündigung will X Beiträge automatisch anhand KI-basierter Metadaten erkennen — also Hinweisen in Datei- oder Systeminformationen, die auf eine KI-Generierung hindeuten. Zusätzlich sollen Nutzerinnen und Nutzer über Community Notes, öffentliche Ergänzungen von Community-Mitgliedern, auf KI-Inhalte aufmerksam machen können.
Warum diese Regel jetzt kommt
X nennt als Hintergrund die aktuellen militärischen Spannungen zwischen den USA, Israel und dem Iran. Bier betonte, dass in Kriegszeiten verlässliche Informationen besonders wichtig seien und dass heutige KI-Tools leicht irreführende Inhalte erzeugen können.
Wichtige Einschränkungen
- Die neue Pflicht gilt derzeit nur für Inhalte, die mit „bewaffneten Konflikten“ zu tun haben — eine genaue Definition dafür liefert X nicht.
- Außerdem ist die Regel bislang nicht in den offiziellen Plattformrichtlinien dokumentiert.
Das bedeutet: Die Mehrheit der Nutzer bleibt von der Maßnahme unberührt und kann weiterhin ungekennzeichnete, potenziell irreführende KI-Videos posten, selbst zu diesem Konflikt.
Blick nach vorn
Es gibt Hinweise darauf, dass X an einer breiter angelegten Kennzeichnungspflicht arbeitet: Im Februar entdeckte ein App-Entwickler Spuren, die auf eine Nutzerkennzeichnungspflicht hindeuten. Bislang gibt es dafür aber keine offizielle Bestätigung.
Frühere Maßnahmen und Probleme
X versieht Inhalte, die mit dem eigenen KI-Chatbot Grok erstellt wurden, automatisch mit einem Wasserzeichen — ein sichtbarer Hinweis auf KI-Generierung. Dennoch sind problematische Inhalte nicht ausgeblieben: Grok stand etwa wegen sexualisierter Deepfakes in der Kritik. Solche Fälle haben ein EU-Verfahren gegen X ausgelöst.
Quellen
- Quelle: X
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




