Gute Fakes: Chatbots erkennen KI‑Videos kaum

26.01.2026 | Allgemein, KI

Chatbots erkennen viele täuschende KI‑Videos nicht.

In Kürze

  • Grok 95%, ChatGPT 92,5%, Gemini 78% Fehler
  • Wasserzeichen & Metadaten unsicher
  • Modelle warnen selten

Newsguard hat drei große Chatbots mit KI‑Videos konfrontiert — und die Ergebnisse sind alarmierend: Die Systeme erkennen täuschend echte, falschbehauptete Clips oft nicht zuverlässig.

Was wurde getestet?

Newsguard ließ 20 Videos laufen, die OpenAIs Videogenerator Sora erstellt hatte. Die Clips basierten auf Behauptungen, die in Newsguards Datenbank als falsch eingeordnet sind. Analysten stellten den Assistenten einfache Nutzerfragen wie „Is this real?“ oder „Is this AI‑generated?“, um typische Interaktionen zu simulieren.

Erkennungsraten: hohe Fehlerquoten

  • xAIs Grok erkannte 95 Prozent der getesteten Sora‑Videos nicht als KI‑erzeugt.
  • OpenAIs ChatGPT lag bei einer Fehlerquote von 92,5 Prozent.
  • Googles Gemini schnitt mit 78 Prozent am besten ab — aber auch das ist eine hohe Ausfallrate.

Kurz: Die getesteten Chatbots können die meisten der täuschend echten KI‑Videos nicht zuverlässig als solche identifizieren.

Sichtbare Wasserzeichen und unsichtbare Markierungen

Sora versieht Videos mit einem animierten sichtbaren Wasserzeichen („Sora“) und fügt außerdem unsichtbare Signale in die Metadaten ein (Content Credentials nach dem C2PA‑Standard). Newsguard stellt fest:

  • Sichtbare Wasserzeichen lassen sich online schnell und kostenlos entfernen — ohne besondere Kenntnisse.
  • C2PA‑Metadaten sind fragil: Einfaches Herunterladen per Rechtsklick kann sie entfernen.
  • Selbst wenn das sichtbare Wasserzeichen intakt war, erkannten die Modelle die KI‑Herkunft nicht immer: Grok scheiterte in 30 % dieser Fälle, ChatGPT in 7,5 %. Gemini erkannte alle gekennzeichneten Videos korrekt.

Wie die Chatbots mit Unsicherheit umgehen

Die Assistenten warnten selten vor ihren eigenen Grenzen. In den Tests traf das zu:

  • ChatGPT wies nur in 2,5 % der Fälle auf Erkennungsunsicherheit hin.
  • Gemini tat das in 10 % der Fälle.
  • Grok reagierte in 13 % der Tests mit einer Warnung.

Oft gaben die Modelle stattdessen selbstsichere, aber falsche Einschätzungen ab. In einem Fall behauptete ChatGPT trotz vorhandener C2PA‑Metadaten, es seien keine Content Credentials vorhanden.

Risiko durch falsche Bestätigungen

Newsguard zeigt Beispiele, in denen die Chatbots gefälschte Ereignisse als echt bestätigten und angebliche Nachrichtenquellen nannten. Ein Sora‑Clip, der einen ICE‑Beamten zeigen sollte, der ein Kind verhaftet, wurde von ChatGPT und Gemini als echt bewertet und als durch Nachrichten bestätigt beschrieben. Solche Fehleinschätzungen können es erleichtern, politisch aufgeladene Falschinformationen mit visuell überzeugenden Videos zu verbreiten.

Wer hat reagiert — und wie?

OpenAI bietet sowohl das Erzeugungswerkzeug Sora als auch ChatGPT an. Zunächst reagierte OpenAI nach Newsguards Bericht nicht; später bestätigte der Kommunikationschef, dass ChatGPT nicht in der Lage sei, sicher zu bestimmen, ob Inhalte KI‑generiert sind. Warum diese Einschränkung nicht standardmäßig kommuniziert wird, blieb unbeantwortet. xAI reagierte auf Anfragen nicht.

Google setzt bei eigenen Modellen auf ein anderes Konzept: SynthID, ein unsichtbares Kennzeichnungs‑Tool, das Markierungen widerstandsfähiger gegen Bearbeitung machen soll. In Newsguards Tests erkannte Gemini alle Google‑eigenen Bilder korrekt, auch nachdem sichtbare Wasserzeichen entfernt wurden. Google gibt aber an, dass diese Verifikation derzeit nur für eigene Inhalte funktioniert.

Quellen

  • Quelle: Newsguard / OpenAI / xAI / Google
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…