Runway präsentiert Gen-4: Videoproduktion neu definiert

02.04.2025 | Allgemein, KI

Runway hat mit Gen-4 ein bahnbrechendes Videomodell vorgestellt, das die Art der Videoproduktion revolutioniert.

In Kürze

  • Gen-4 ermöglicht konstante Charakterdarstellungen in Szenen
  • Erstellung von Figuren und Objekten aus einem Referenzbild
  • Neue Möglichkeiten für Geschichtenerzähler und Videokünstler

Runway und das neue Gen-4 Videomodell

Runway, ein innovatives Startup im Bereich Künstliche Intelligenz, hat sein neuestes Videomodell namens Gen-4 vorgestellt. Dieses Modell verspricht, die Videoproduktion auf ein neues Level zu heben, indem es ermöglicht, Filme zu erstellen, in denen das Aussehen der Charaktere während einer Szene konstant bleibt. Das ist besonders spannend für Geschichtenerzähler, die Wert auf ein flüssiges und zusammenhängendes Narrativ legen.

Erstellung von Figuren und Objekten

Mit Gen-4 kannst du Figuren und Objekte einfach anhand eines einzigen Referenzbildes erstellen. Das bedeutet, dass du diese Charaktere aus verschiedenen Perspektiven und in unterschiedlichen Aufnahmen darstellen kannst, ohne dass es zu unerwünschten Veränderungen kommt. Diese neue Technik gibt dir mehr Kontrolle über die Videoproduktion und sorgt für eine durchgängige visuelle Identität deiner Charaktere. Ein Beispielvideo von Runway zeigt eine Frau, die unter verschiedenen Lichtbedingungen stets gleich aussieht – ein echter Fortschritt in der Videokunst.

Einführung und Auswirkungen von Gen-4

Die Einführung von Gen-4 kommt weniger als ein Jahr nach dem umstrittenen Gen-3-Modell, das für viel Aufsehen sorgte, da es angeblich mit einer Vielzahl urheberrechtlich geschützter Inhalte von YouTube und Filmen trainiert wurde. Jetzt steht Gen-4 für zahlende und Unternehmenskunden zur Verfügung und könnte die Art und Weise, wie Videos produziert werden, erheblich beeinflussen.

Kreative Möglichkeiten mit Gen-4

Mit dieser neuen Technologie wird die Videoproduktion nicht nur einfacher, sondern auch kreativer. Die Möglichkeiten, die sich dir bieten, sind nahezu unbegrenzt – und das alles mit einem einzigen Bild als Ausgangspunkt.

Quellen

  • Quelle: Runway
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Nvidia öffnet Warp: Python-Framework jetzt Open Source

Nvidia öffnet Warp: Python-Framework jetzt Open Source

Nvidia hat sein Python-Framework Warp unter die Open-Source-Lizenz Apache 2 gestellt und reagiert damit auf Community-Kritik.In KürzeWarp wandelt Python-Funktionen in Echtzeit in Code um.Das Framework unterstützt sowohl x86- als auch CUDA-GPUs.Integration in...