Die Regierung passt das Produkthaftungsrecht an: Software und KI können künftig Gegenstand von Haftungsansprüchen sein.
In Kürze
- Software und KI werden explizit in die Produkthaftung einbezogen.
- Haftungsrisiken verschieben sich entlang der Lieferketten; Updates und Patches werden wichtiger.
- Unternehmen brauchen Schulungen, Prüfpflichten und bessere Nachvollziehbarkeit (XAI).
Das Bundeskabinett hat einen Gesetzentwurf zur Modernisierung des Produkthaftungsrechts beschlossen — und damit eine wichtige Lücke geschlossen: Software und KI werden künftig explizit in die Produkthaftung einbezogen. Die Änderung setzt eine neue EU-Richtlinie um und richtet die Haftungsregeln an digitalen Produkten aus.
Warum das relevant ist?
Software kann reale Schäden verursachen. Ein oft genanntes Szenario: Ein Industrieroboter wird über eine drahtlose Schwachstelle übernommen, Menschen oder Sachwerte werden verletzt. Bisher fiel Software vielfach nicht unter die klassische Produkthaftung, weil sie kein „greifbares Produkt“ war. Nach dem geplanten Gesetz spielt es keine Rolle mehr, wie Software bereitgestellt oder genutzt wird — sie kann künftig Anlass für Haftungsansprüche sein.
Wer haftet?
Geschädigte sollen leichter entscheiden können, wen sie verklagen: den Autobauer, den Komponentenlieferanten oder den Softwarehersteller. Das verlagert Risiken und potenzielle Kosten entlang ganzer Lieferketten. In der Praxis dürften Softwareanbieter deshalb faktisch dazu verpflichtet sein, nachträglich Updates zur Verfügung zu stellen, um Haftungsrisiken zu senken — etwa Sicherheits-Patches, wenn eine Schwachstelle zu einem Schaden führt.
Auswirkungen auf Unternehmen und Lieferketten sind damit weitreichend: erhöhte Absicherungs- und Prüfpflichten, mögliche Vertragsanpassungen zwischen Herstellern und Zulieferern sowie zusätzliche Kosten für Haftpflichtversicherungen und Compliance.
KI in Unternehmen: von Text bis Personalsteuerung
Künstliche Intelligenz wird längst nicht mehr nur zur Texterstellung genutzt; sie steuert Arbeitsabläufe, trifft Entscheidungen zur Personalauswahl oder verteilt Aufgaben in Echtzeit. Die EU-KI-Verordnung verlangt, dass Nutzer entsprechend geschult werden, damit sie Risiken einschätzen und mit KI-Systemen umgehen können. Laut dem Briefing haben viele Firmen diese Vorgabe allerdings noch nicht umgesetzt — ein Punkt, der bei künftigen Haftungsfragen relevant werden könnte.
Erklärbarkeit (XAI) bleibt ein Problem
Viele KI-Modelle funktionieren als Blackboxen: Entscheidungen sind schwer nachvollziehbar. Das trifft Verbraucher:innen, die etwa eine Kreditablehnung ohne nachvollziehbare Begründung erhalten, und auch Unternehmen, die mögliche Fehlerquellen aufdecken müssen. Methoden der erklärbaren KI (XAI) sollen Einblick in Entscheidungsprozesse geben und helfen, Verzerrungen oder Fehler zu identifizieren. Diese Werkzeuge stoßen allerdings an Grenzen: Je komplexer ein Modell, desto schwieriger ist seine Verständlichkeit. Bei sehr großen Sprachmodellen (LLMs) ist XAI besonders herausfordernd. Hinzu kommt, dass Firmen häufig Details zur Modellarchitektur oder zu Trainingsdaten mit Verweis auf Betriebsgeheimnisse zurückhalten.
Folgen für Beschäftigte
Moderne Softwarelösungen erlauben intensive Überwachung, Bewertung und Steuerung von Arbeit — bekannt aus Callcentern, aber auch in vielen anderen Bereichen. Aufgaben werden automatisch verteilt, Bearbeitungszeiten sekundengenau gemessen, Pausen und Dienste anhand statistischer Vorhersagen geplant. Prozesse werden laufend über Metriken wie Bearbeitungsdauer, Wartezeiten oder Service-Level optimiert und standardisiert. Das führt zu starker Fremdsteuerung, geringeren Entscheidungsspielräumen für Mitarbeitende und kann die Motivation senken.
Konkrete Änderungen, die auf dich zukommen könnten
- Softwareanbieter werden ihre Update- und Sicherheitsprozesse überdenken müssen, weil Versäumnisse rechtliche Folgen haben können.
- Unternehmen im Liefernetzwerk werden Verträge und Versicherungen anpassen, um Haftungsrisiken zu verteilen.
- Wer KI-Systeme einsetzt muss Nutzer:innen schulen und Dokumentationen bereitstellen — die EU-Vorgaben sehen das vor, viele Firmen sind aber noch nicht so weit.
- Forderungen nach besserer Nachvollziehbarkeit von KI-Entscheidungen werden lauter, während technische und rechtliche Hürden für XAI bestehen bleiben.
Der Gesetzentwurf ist ein Schritt, um Haftungsregeln an die digitale Realität anzupassen — mit Auswirkungen auf Verbraucherrechte, die Pflicht zur Transparenz, den technischen Aufwand bei Anbietern und den Alltag vieler Beschäftigter, deren Arbeit zunehmend algorithmisch gesteuert wird.
Quellen
- Quelle: Bundeskabinett
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




