Gesetz zum EU‑AI‑Act: Bundesnetzagentur soll zentrale KI‑Aufsicht werden.
In Kürze
- Bundesnetzagentur koordiniert Aufsicht
- Risikobasierte Pflichten für Anbieter und Nutzer
- Verbote: Sozial‑Scoring, Emotionserkennung, Gesichtserkennung
Die Bundesregierung hat den Entwurf für ein nationales Umsetzungsgesetz zum EU‑AI‑Act auf den Weg gebracht. Das Kabinett verabschiedete das „KI‑Marktüberwachungs‑ und Innovationsförderungsgesetz“ (KI‑MIG). Bevor daraus Recht wird, müssen Bundestag und Bundesrat noch zustimmen — Verzögerungen gab es durch das Ende der bisherigen Koalition und die anschließenden Neuwahlen.
Zentrale Aufsicht: Bundesnetzagentur übernimmt Rolle
Kernpunkt des Entwurfs: Die Bundesnetzagentur soll zur zentralen Koordinations‑, Marktüberwachungs‑ und Notifizierungsstelle für KI werden. Die Behörde, die bisher etwa Telekommunikation, Post, Energie und schon Onlineplattformen unter dem Digital Services Act überwacht, soll damit bestehende Strukturen und Expertise bündeln — ausdrücklich ohne eine völlig neue Großbehörde zu schaffen.
Zusammenarbeit mit anderen Behörden
Der Entwurf sieht vor, Kapazitäten anderer Behörden zu nutzen, um Doppelstrukturen zu vermeiden. Dazu zählen das Bundeskartellamt, die Finanzaufsichtsbehörde BaFin, das Bundesamt für Sicherheit in der Informationstechnik (BSI) sowie die Datenschutzbehörden von Bund und Ländern. Ziel ist eine abgestimmte Aufsicht, bei der die Bundesnetzagentur die zentrale Koordination übernimmt, Fachfragen aber in Zusammenarbeit mit Spezialbehörden behandelt werden.
Was Unternehmen und Anwender erwarten müssen
KI‑Anbieter und -Nutzer sollen den Risikograd ihrer Systeme bewerten. Je höher das eingestufte Risiko, desto schärfer die Anforderungen an Transparenz, Dokumentation und technische beziehungsweise organisatorische Sicherheitsmaßnahmen. Praktisch heißt das: Wenn du KI‑Modelle anbietest oder in deiner Firma einsetzt, musst du prüfen, ob dein System unter eine risikoreiche Kategorie fällt und entsprechende Nachweise und Schutzmaßnahmen vorhalten.
Verbotene und stark eingeschränkte Anwendungen
Der Entwurf setzt klare Grenzen bei besonders sensiblen Anwendungen. Beispiele:
- Sozial‑Scoring, also Bewertungen von Personen nach sozialem Verhalten, ist verboten.
- Emotionserkennung am Arbeitsplatz und in Schulen ist untersagt.
- Gesichtserkennung im öffentlichen Raum ist grundsätzlich verboten, mit enger Ausnahme: Sicherheitsbehörden dürfen sie in bestimmten Fällen zur Verfolgung bestimmter Straftaten einsetzen.
Kritikpunkte und offene Fragen
Es gibt Widerspruch von mehreren Seiten. Datenschutzbehörden auf Bundes‑ und Länderebene hatten gefordert, die Aufsicht selbst zu übernehmen — das hätte den Ländern mehr Einfluss gebracht. Branchenverbände wie der ZVEI sehen Probleme in möglichen Überschneidungen mit bestehenden Regelwerken wie der Maschinenverordnung oder der Medizinprodukteverordnung. Das könnte Rechtsunsicherheit und hohe Compliance‑Kosten nach sich ziehen; einige Verbände fordern daher, industrielle Anwendungsfälle stärker zu berücksichtigen oder aus der KI‑Verordnung auszunehmen.
Was jetzt noch zu klären ist
Der Entwurf legt die Richtung fest: zentrale Aufsicht bei der Bundesnetzagentur, risikobasierte Vorgaben und klare Verbote für heikle Anwendungen. Entscheidend ist aber, dass Bundestag und Bundesrat noch zustimmen müssen — und die Debatten über Zuständigkeiten, mögliche Doppelregulierung und branchenspezifische Ausnahmen werden weitergehen.
Quellen
- Quelle: Bundesregierung
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




