Ollama bietet jetzt experimentelle lokale Bild-KI auf dem Mac.
In Kürze
- Z-Image Turbo (6B): fotoreal.
- Flux 2 Klein: 4B & 9B
- 13 GB VRAM, Lizenzunterschiede
Ollama bietet jetzt auf dem Mac die Möglichkeit, Bilder lokal mit KI zu erzeugen — eine Funktion, die sich derzeit noch im experimentellen Stadium befindet. Versionen für Windows und Linux sollen später folgen.
Welche Modelle sind verfügbar?
- Z‑Image Turbo (Alibaba / Tongyi Lab): Ein Modell mit 6 Milliarden Parametern, das fotorealistische Bilder erzeugt. Es kann außerdem Text in Englisch und Chinesisch in die Bilder einbinden.
- Flux 2 Klein (Black Forest Labs): Das Unternehmen nennt dieses Modell sein bisher schnellstes Bildmodell. Es liegt in zwei Varianten vor — mit 4 Milliarden und mit 9 Milliarden Parametern.
Was du zur Nutzung wissen solltest
- Hardwareanforderungen: Die 4‑Milliarden‑Variante von Flux 2 Klein läuft auf handelsüblichen Grafikkarten mit mindestens 13 GB VRAM, also etwa einer Nvidia RTX 3090 oder 4070. Das gibt eine praktische Orientierung, welche GPUs ausreichend leistungsfähig sind.
- Lizenzen: Die kleinere Flux‑Variante ist kommerziell nutzbar. Die größere 9‑Milliarden‑Variante steht nur unter einer nicht‑kommerziellen Lizenz zur Verfügung.
Bedienung und Workflow
- Generierte Bilder werden automatisch im aktuellen Verzeichnis gespeichert, sodass du sie direkt findest und weiterverarbeiten kannst.
- Du kannst Bildgröße, Anzahl der Schritte (die Komplexität der Verarbeitung) und Seed‑Werte einstellen — letzteres ermöglicht reproduzierbare Ergebnisse, wenn du dieselben Vorgaben wiederholst.
- Ollama plant, weitere Modelle und Funktionen zur Bildbearbeitung nachzureichen.
Kurz und knapp: Mac‑Nutzer können jetzt lokal Bilder mit KI erzeugen; die Funktion ist experimentell, bietet aber bereits mehrere Modelloptionen und Einstellmöglichkeiten. Windows‑ und Linux‑Versionen sind angekündigt.
Quellen
- Quelle: Ollama
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




