Kompakte Bild‑KI-Modelle für Consumer‑GPUs: Text‑zu‑Bild, Bildbearbeitung und Multi‑Reference in einem Paket.
In Kürze
- 4B-Modell läuft mit ~13 GB VRAM auf RTX 3090/4070
- 9B nutzt Flow‑Architektur; FP8/NVFP4-Quantisierung spart VRAM und erhöht Tempo
- 4B unter Apache‑2.0, 9B nur nicht-kommerziell; umfangreiche Sicherheitsfilter
Black Forest Labs veröffentlicht „Flux 2 klein“
Black Forest Labs hat mit „Flux 2 klein“ eine kompakte Familie von Bild‑KI‑Modellen veröffentlicht, die Text‑zu‑Bild‑Generierung, Bildbearbeitung und das Kombinieren mehrerer Referenzbilder (Multi‑Reference) in einem Paket zusammenführt — und zwar so klein, dass sie auf normalen Consumer‑Grafikkarten laufen soll.
Modelle
Die Modellpalette umfasst ein größeres 9‑Milliarden‑Parameter‑Modell als Flaggschiff und eine schlankere 4‑Milliarden‑Parameter‑Variante. Beide Modelle gibt es zusätzlich als „Base“-Versionen, die explizit für Forschungszwecke und Feinabstimmung gedacht sind.
VRAM und Hardware
Besonders interessant für Anwender:innen zu Hause: Das 4B‑Modell soll mit rund 13 GB VRAM auskommen und damit auf Grafikkarten wie der Nvidia RTX 3090 oder RTX 4070 laufen. VRAM ist der Videospeicher deiner GPU und für das Laden und Ausführen von KI‑Modellen entscheidend.
Geschwindigkeit und Architektur
Für Geschwindigkeit setzt das 9B‑Modell auf eine sogenannte Flow‑Architektur, die Bilder in nur wenigen Rechenschritten erzeugen soll. Black Forest Labs nennt Generierungszeiten unter 0,5 Sekunden — gemessen wurde dieser Wert allerdings auf Nvidias Profi‑Serverchip GB200, nicht auf Consumer‑GPUs.
Quantisierung und Performance
Zusammen mit Nvidia gibt es quantisierte Varianten:
- FP8 (8‑Bit): soll laut Hersteller bis zu 1,6× schneller laufen und bis zu 40 % VRAM sparen.
- NVFP4 (Nvidias proprietäres 4‑Bit‑Format): wird mit bis zu 2,7× mehr Geschwindigkeit und bis zu 55 % weniger Speicherbedarf beworben.
Diese Zahlen basieren auf Tests auf aktuellen RTX‑5080/5090‑Karten.
Qualität und Sicherheit
Zu den Qualitätsansprüchen: Black Forest Labs sagt, das 9B‑Modell biete ein gutes Qualitäts‑/Latenz‑Verhältnis und könne in Sachen Latenz und VRAM‑Effizienz Modelle wie Qwen oder Z‑Image übertreffen. Unabhängige Prüfungen dieser Aussagen sind bislang nicht veröffentlicht.
Beim Thema Sicherheit dokumentiert das Unternehmen zahlreiche Maßnahmen:
- Datensätze wurden vor dem Training auf NSFW‑Inhalte und bekanntes Kindesmissbrauchsmaterial geprüft (unter Einbeziehung der britischen Internet Watch Foundation).
- Danach folgten gezielte Fine‑Tuning‑Schritte gegen Missbrauch.
- Im öffentlich zugänglichen Repository finden sich Filter für NSFW in Ein‑ und Ausgaben.
- Unterstützung für Pixel‑Layer‑Watermarking und der C2PA‑Standard zur Herkunftsnachweisführung.
Einschränkungen
Black Forest Labs weist auf Einschränkungen hin: Das Modell sei nicht zuverlässig für faktische Informationen, Textausgaben könnten ungenau sein und die Prompt‑Folgsamkeit hänge stark vom Stil der Eingaben ab.
Verfügbarkeit und Integration
Zur Verfügbarkeit: Das 4B‑Modell steht unter Apache‑2.0‑Lizenz und darf auch kommerziell genutzt werden. Das 9B‑Modell ist nur für nicht‑kommerzielle Zwecke freigegeben; kommerzielle Nutzung benötigt eine separate Lizenz.
Eine Referenz‑Implementierung ist auf GitHub abrufbar; die Modelle sind außerdem in ComfyUI und in die Python‑Bibliothek Diffusers integriert.
Zum Unternehmen
Black Forest Labs wurde 2024 gegründet. Im Dezember 2025 schloss das Startup eine Serie‑B‑Runde über 300 Millionen Dollar ab und wurde mit 3,25 Milliarden Dollar bewertet; insgesamt hat das Unternehmen 450 Millionen Dollar eingesammelt. Es positioniert sich als Infrastruktur‑Anbieter für andere Firmen und arbeitet nach eigenen Angaben auch an einem Videogenerator. Früher waren Flux‑Modelle über xAI’s Chatbot Grok nutzbar; xAI entwickelt inzwischen ein eigenes Bildmodell.
Quellen
- Quelle: Black Forest Labs
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




