KI-Fakes verbreiten sich; OSINT-Belege rar.
In Kürze
- 110+ KI-Fakes
- Viele Clips pro-iranisch
- Satellitenzugang verzögert
In den ersten zwei Wochen des Kriegs sind mehr als 110 einzelne, von Künstlicher Intelligenz erzeugte Bilder und Videos aufgetaucht — und sie erreichten nach Analysen der New York Times und mehrerer Firmen Millionen Menschen. Viele dieser Clips und Bilder werden laut der Analysefirma Cyabra als pro-iranische Propaganda eingestuft; sie überzeichnen demnach Irans militärische Stärke oder suggerieren massive Zerstörung.
Die Fälschungen reichen von:
- angeblicher Explosionen in Tel Aviv
- fingierten Angriffen auf Straßen und auf protestierende Soldaten
- spektakulären Szenen brennender Kriegsschiffe — etwa Bildern zur USS Abraham Lincoln, die offizielle Stellen oft als falsch zurückgewiesen haben
Die KI-Erzeugnisse wirken häufig wie Hollywood-Action: schärfer, näher, dramatischer als typische, echte Kampfaufnahmen.
Solche Bilder entstehen inzwischen billig und für viele zugänglich, was ihre Verbreitung erleichtert. Medienforscher Marc Owen Jones sagt, die Absicht sei, den Eindruck zu erwecken, der Krieg treffe Amerikas Verbündete härter als in Wirklichkeit.
Gleichzeitig schwindet ein wichtiges Kontrollinstrument: Open-Source-Intelligence (OSINT) — also die Auswertung frei zugänglicher Quellen wie Satellitenbildern — verliert an Verlässlichkeit. Anbieter von Satellitenaufnahmen haben ihre Zugriffsmöglichkeiten eingeschränkt: Planet Labs hat die Veröffentlichung hochauflösender Aufnahmen in der Region von einer Verzögerung von vier Tagen auf zwei Wochen verlängert; Vantor (ehemals Maxar) blockiert Bilder von US- und alliierter Infrastruktur. Die Unternehmen betonen, sie handelten nicht auf Anweisung von Regierungen. Solche Verzögerungen schaffen zeitliche Lücken, die Desinformation füllen kann, weil aktuelle Satellitenbilder sonst oft als Beleg für Angriffe dienen.
Die Konsequenzen werden bereits sichtbar: Auch etablierte Medien gerieten in die Falle. Der Spiegel entfernte mehrere mutmaßlich KI-generierte Bilder. Bilder aus dem iranischen Agenturnetzwerk SalamPix über Abaca Press tauchten unter anderem in Zeit, Süddeutscher Zeitung, WDR und Stern auf. Ein iranischer Fotograf gab zu, Bilder ohne Kennzeichnung von einer Plattform der iranischen Revolutionsgarden eingespeist zu haben. Parallel tauchen falsche OSINT-Accounts auf, die KI-manipulierte Satellitenbilder als echte Aufklärung ausgeben. Die regierungsnahe Tehran Times veröffentlichte etwa ein angebliches Satellitenbild einer zerstörten Radarstation in Katar, das sich als mit KI manipuliertes Google-Earth-Bild herausstellte.
Politisch sorgte die Entwicklung für scharfe Reaktionen: US-Politiker warfen dem Iran vor, KI als Waffe der Desinformation einzusetzen; in diesem Zusammenhang wird auch ein Statement des US-Präsidenten Trump zitiert. Brendan Carr, Vorsitzender der US-FCC, drohte Medien wegen ihrer Berichterstattung mit dem Entzug von Lizenzen.
Was bleibt, ist ein Informationsnebel: Echte, aktuelle Aufnahmen sind rar oder verzögert, während täuschend echte KI-Fakes schnell große Reichweiten erzielen. Für unabhängige Ermittler und Journalisten wird es dadurch deutlich schwieriger, Fakten von Fiktion zu trennen.
Quellen
- Quelle: Iran
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




