OpenAIs Sora 2: Die Gefahr täuschend echter Fake-Videos

20.10.2025 | Allgemein, KI

OpenAIs neuer Videogenerator Sora 2 sorgt für Besorgnis, da er realistische Fake-Videos erstellt, die für Desinformation genutzt werden können.

In Kürze

  • Sora 2 erstellt in 80% der Fälle glaubwürdige Fake-Videos
  • Schutzmaßnahmen wie Wasserzeichen sind leicht zu umgehen
  • OpenAI steht in der Verantwortung, Missbrauch zu verhindern

„`html

OpenAIs neuer Videogenerator Sora 2 sorgt für Aufregung

OpenAIs neuer Videogenerator Sora 2 sorgt für Aufregung – und das aus gutem Grund. Die Technologie hat die Fähigkeit, täuschend echte Fake-Videos zu erstellen, die sich perfekt für Desinformationskampagnen eignen. Eine aktuelle Analyse hat ergeben, dass in 16 von 20 getesteten Fällen Videos produziert wurden, die auf Falschaussagen basieren und dabei äußerst glaubwürdig wirken. Und das Beste daran? Viele dieser Videos wurden im ersten Versuch erfolgreich erstellt.

Sicherheitsmechanismen und ihre Schwächen

Trotz der Sicherheitsmechanismen, die OpenAI implementiert hat, wie Wasserzeichen und Filter, zeigen sich Schwächen. Diese Schutzmaßnahmen sind nicht narrensicher. Wasserzeichen lassen sich mit einfachen Online-Tools entfernen, und durch kreative Formulierungen können die Filter oft umgangen werden. Das bedeutet, dass die Gefahr besteht, dass solche Videos viral gehen und von Nutzern fälschlicherweise für echt gehalten werden.

Attraktivität für Desinformationskampagnen

Die Attraktivität dieser Technologie für Desinformationskampagnen ist unbestreitbar. Die Möglichkeit, realistisch wirkende Videos zu erstellen, die falsche Informationen verbreiten, wirft ernsthafte Fragen zur Verantwortung von OpenAI auf. Als einer der Hauptakteure im Bereich der KI-Technologie trägt das Unternehmen eine große Verantwortung, um sicherzustellen, dass solche Tools nicht missbraucht werden.

Bewusstsein für Risiken

In einer Zeit, in der Informationen blitzschnell verbreitet werden, ist es wichtiger denn je, sich der Risiken bewusst zu sein, die mit solchen Technologien einhergehen.

„`

Quellen

  • Quelle: OpenAI
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Yann LeCun verlässt Meta für neues KI-Startup AMI

Yann LeCun verlässt Meta für neues KI-Startup AMI

Yann LeCun, KI-Pionier, startet ein neues Abenteuer mit AMI, einem Startup für World Models.In KürzeLeCun kritisiert bestehende SprachmodelleAMI soll ein neues Verständnis der physischen Welt entwickelnInternationale Talente und Standort in Paris geplant Yann LeCun...