OpenAIs neuer Videogenerator Sora 2 sorgt für Besorgnis, da er realistische Fake-Videos erstellt, die für Desinformation genutzt werden können.
In Kürze
- Sora 2 erstellt in 80% der Fälle glaubwürdige Fake-Videos
- Schutzmaßnahmen wie Wasserzeichen sind leicht zu umgehen
- OpenAI steht in der Verantwortung, Missbrauch zu verhindern
„`html
OpenAIs neuer Videogenerator Sora 2 sorgt für Aufregung
OpenAIs neuer Videogenerator Sora 2 sorgt für Aufregung – und das aus gutem Grund. Die Technologie hat die Fähigkeit, täuschend echte Fake-Videos zu erstellen, die sich perfekt für Desinformationskampagnen eignen. Eine aktuelle Analyse hat ergeben, dass in 16 von 20 getesteten Fällen Videos produziert wurden, die auf Falschaussagen basieren und dabei äußerst glaubwürdig wirken. Und das Beste daran? Viele dieser Videos wurden im ersten Versuch erfolgreich erstellt.
Sicherheitsmechanismen und ihre Schwächen
Trotz der Sicherheitsmechanismen, die OpenAI implementiert hat, wie Wasserzeichen und Filter, zeigen sich Schwächen. Diese Schutzmaßnahmen sind nicht narrensicher. Wasserzeichen lassen sich mit einfachen Online-Tools entfernen, und durch kreative Formulierungen können die Filter oft umgangen werden. Das bedeutet, dass die Gefahr besteht, dass solche Videos viral gehen und von Nutzern fälschlicherweise für echt gehalten werden.
Attraktivität für Desinformationskampagnen
Die Attraktivität dieser Technologie für Desinformationskampagnen ist unbestreitbar. Die Möglichkeit, realistisch wirkende Videos zu erstellen, die falsche Informationen verbreiten, wirft ernsthafte Fragen zur Verantwortung von OpenAI auf. Als einer der Hauptakteure im Bereich der KI-Technologie trägt das Unternehmen eine große Verantwortung, um sicherzustellen, dass solche Tools nicht missbraucht werden.
Bewusstsein für Risiken
In einer Zeit, in der Informationen blitzschnell verbreitet werden, ist es wichtiger denn je, sich der Risiken bewusst zu sein, die mit solchen Technologien einhergehen.
„`
Quellen
- Quelle: OpenAI
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




