Bundesrat warnt: EU-Entwurf ‚Digital-Omnibus‘ könnte Rechtssicherheit, Datenschutz und KI-Forschung schwächen.
In Kürze
- Subjektive Einordnung personenbezogener Daten schafft Rechtsunsicherheit
- Strenge Einwilligungen für Fahrzeugbilder gefährden KI-Training und Verkehrssicherheit
- Bürokratie und zu schwache Herstellerpflichten bedrohen Einsatzfähigkeit von Behörden
Der Bundesrat begrüßt das Ziel der EU, das digitale Recht zu vereinfachen und Innovation zu fördern – kritisiert aber den Entwurf des geplanten „Digital-Omnibus“ scharf. Die Länder sehen die Gefahr, dass die vorgeschlagenen Änderungen genau das Gegenteil bewirken: mehr Rechtsunsicherheit, neue Hemmnisse für Entwickler:innen und schwächere Datenschutz- und Sicherheitsstandards.
Was bei personenbezogenen Daten geplant ist
Der Entwurf verlagert die Frage, ob Daten personenbezogen sind, stärker in die Perspektive der verarbeitenden Stelle. Der Bundesrat warnt, das mache die Einordnung subjektiv und damit unklar. Bisher galten eher objektive Maßstäbe; künftig könnte die Beurteilung davon abhängen, wie ein Unternehmen die Daten einschätzt. Besonders problematisch: die Betonung von Pseudonymisierung. In arbeitsteiligen Prozessen könnte dadurch unklar bleiben, wer die strengen Regeln der DSGVO anzuwenden hat. Folge nach Ansicht der Länder: langwierige Rechtsstreitigkeiten und ein Rückzug aus datengetriebenen Geschäftsmodellen statt echter Entlastung.
Bild- und Videodaten aus Fahrzeugen: Entwicklungsbedarf trifft auf Einwilligungsprobleme
Für sichere Assistenz- und autonome Systeme benötigt die Autoindustrie große Mengen realer Bilddaten. Der Entwurf sieht jedoch weitreichende Einwilligungspflichten vor – etwa die Zustimmung jedes einzelnen Passanten. Der Bundesrat warnt, das sei in der Praxis kaum erfüllbar und würde de facto zu einem Entwicklungsstopp in Europa führen.
Zudem bestehe eine Gefahr für die Verkehrssicherheit, weil KI-Systeme ohne ausreichendes Trainingsmaterial insbesondere vulnerable Gruppen wie Kinder oder Menschen mit Beeinträchtigungen schlechter erkennen könnten. Die Länder fordern eine klare gesetzliche Regelung zur Nutzung solcher Bilddaten, die nicht an eine enge KI-Definition gebunden ist, sondern auch klassische Assistenzsysteme umfasst.
KI in Sicherheitsbehörden: Bürokratie vs. Einsatzfähigkeit
Sowohl der Entwurf als auch der AI Act sollen den Einsatz von Künstlicher Intelligenz in der Strafverfolgung regeln. Der Bundesrat befürchtet jedoch, dass umfangreiche Dokumentations- und Nachweispflichten für sogenannte „Hochrisikosysteme“ Hardware-Investitionen und Verwaltungsaufwand unverhältnismäßig verteuern könnten. Das könne den praktischen Einsatz von KI in der Polizeiarbeit hemmen. Die Länder fordern daher erweiterte Ausnahmeregeln für Strafverfolgungsbehörden; diese unterlägen ohnehin parlamentarischer und gerichtlicher Kontrolle. Ziel ist laut Bundesrat eine Balance zwischen rechtsstaatlicher Kontrolle und einsatzfähiger Sicherheitsarbeit.
Verbraucher- und Herstellerpflichten: Datenschutz darf nicht zur Last der Nutzer:innen werden
Vereinfachungen im Recht dürfen nicht zulasten des Verbraucherschutzes gehen. Der Bundesrat kritisiert, dass der Entwurf die Pflichten von Herstellern und Anbietern nicht ausreichend stärkt. Produzenten digitaler Dienste müssten sicherstellen, dass ihre Produkte „Privacy by Design“ bieten – also von Haus aus datenschutzkonform arbeiten – und nicht komplexe Datenschutzentscheidungen allein an Endnutzer:innen oder kleine Unternehmen delegieren.
Die Länder fordern Nachbesserungen
Kernaussage der Stellungnahme: Die Länder verlangen Nachbesserungen, damit die angestrebten Erleichterungen nicht in Rechtsunsicherheit, Innovationshemmschuhen oder schlechteren Datenschutz- und Sicherheitsstandards münden.
Quellen
- Quelle: Bundesrat
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




