Databricks stellt Genie Code vor: ein KI-Agent, der Pipelines baut, ML‑Workflows steuert und Produktionssysteme überwacht — direkt in Workspaces nutzbar.
In Kürze
- Greift via Unity Catalog auf Metadaten, Datenherkunft und Governance zu
- Abwickelt den kompletten Daten- und ML‑Lebenszyklus inklusive produktionsreifer Spark‑Pipelines
- Quotient AI-Übernahme sorgt für kontinuierliche Qualitätsmessung und Regressionserkennung
Databricks hat mit Genie Code einen KI-Agenten vorgestellt, der Daten- und Analyse-Teams weit mehr abnehmen soll als klassische Code-Vorschläge: Der Agent übernimmt eigenständig komplexe Aufgaben wie Aufbau und Betrieb von Datenpipelines, Fehlerbehebung in Produktionssystemen, Erstellen von Dashboards und Überwachen laufender Abläufe. Databricks-CEO Ali Ghodsi beschreibt das als Schritt zur „agentenbasierten Datenarbeit“.
Was Genie Code kann — die wichtigsten Punkte
- Tiefe Kontextintegration: Über den Unity Catalog greift Genie Code auf Metadaten, Datenherkunft, Nutzungsmuster und Governance-Regeln zu. Das gibt dem Agenten Kontext, den einfache Coding-Assistenten oft nicht haben. (Unity Catalog ist der zentrale Katalog für Datenbestände und Zugriffsregeln in Databricks.)
- Multi-Model-Ansatz: Aufgaben verteilt Genie Code automatisch über mehrere Modelle und Werkzeuge — Databricks-eigene Modelle, Open-Source-Modelle oder kundenspezifische Modelle, die auf Databricks laufen.
- Voller Daten- und ML-Lebenszyklus: Der Agent kann Workflows vom Feature-Engineering über Training und Vergleich verschiedener Modelltypen bis zum Deployment auf Databricks Model Serving abwickeln. Experimente werden in MLflow protokolliert, sodass Nachverfolgbarkeit erhalten bleibt.
- Data Engineering in Produktionsqualität: Genie Code erzeugt laut Databricks produktionsreife Spark-Pipelines, berücksichtigt Unterschiede zwischen Staging- und Produktionsumgebungen und führt automatische Datenqualitätsprüfungen durch.
- Dashboards und Workflow-Planung: Der Agent kann Dashboards anlegen, die auf wiederverwendbaren semantischen Definitionen beruhen, und mehrstufige Aufgaben selbstständig planen und ausführen.
- Proaktive Überwachung: Genie Code soll Pipelines (Lakeflow) und KI-Modelle im Hintergrund überwachen, Fehler triagieren und Anomalien untersuchen, bevor Menschen eingreifen. Dauerhaft laufende „Background Agents“ sind noch nicht freigeschaltet, sollen aber später folgen.
- Anpassung durch Persistenz: Ein persistenter Speicher merkt sich interne Anweisungen und Präferenzen aus früheren Interaktionen, sodass sich der Agent mit der Zeit an ein Team anpassen kann.
Übernahme von Quotient AI
Parallel zur Ankündigung hat Databricks Quotient AI übernommen. Dieses Unternehmen ist auf Bewertungs- und verstärkendes Lernen für KI-Agenten spezialisiert und wirkte bereits an der Qualitätsverbesserung von GitHub Copilot mit. Die Integration soll kontinuierliche Leistungsüberwachung in Genie Code bringen: Quotient misst Antwortqualität, erkennt Regressionen und hilft, Fehlerquellen zu lokalisieren und in Verbesserungsprozesse zurückzuführen.
Verfügbarkeit und Erweiterungsmöglichkeiten
Genie Code ist sofort allgemein verfügbar und direkt in Databricks-Workspaces integriert — in Notebooks, im SQL-Editor und im Lakeflow-Pipelines-Editor. Databricks betont, dass keine aufwendige Konfiguration nötig sei.
Erweiterbar ist das System über mehrere Mechanismen:
- Model Context Protocol (MCP): Erlaubt Verbindungen zu externen Tools wie Jira, Confluence oder GitHub, damit der Agent mit ihnen interagieren kann.
- Agent Skills: Definierbare domänenspezifische Fähigkeiten, etwa spezieller Umgang mit personenbezogenen Daten oder unternehmensspezifische Validierungsregeln.
- Persistenter Speicher: Sammelt vergangene Interaktionen und passt das Verhalten an die jeweiligen Teams an.
Kontext in der Branche
Genie Code reiht sich in einen breiten Branchentrend ein: Viele Anbieter setzen inzwischen auf agentenbasierte Systeme, die komplexe Aufgaben autonom übernehmen sollen. Wie weit solche Agenten in der Praxis kommen — insbesondere bei nicht-funktionalen Anforderungen wie Sicherheit, Zuverlässigkeit oder Compliance — bleibt offen und wird in der Branche weiter beobachtet.
Quellen
- Quelle: Databricks
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




