Chatbots treiben Datenschutzbeschwerden in Berlin – 8.436 Eingaben bis November

06.01.2026 | Allgemein, KI

Berlin: 2025 starker Anstieg bei Datenschutzbeschwerden; KI‑Chatbots verstärken Eingaben.

In Kürze

  • 8.436 Eingaben bis Nov., +50% gegenüber 2024
  • 2.644 formelle Beschwerden, 5.772 Anfragen von Betroffenen
  • Chatbots erleichtern Einreichungen, liefern aber oft falsche Rechtsinfos

Wenn du 2025 eine Datenschutzbeschwerde in Berlin stellen wolltest, warst du Teil eines spürbaren Anstiegs: Von Januar bis November registrierte die Berliner Datenschutzbehörde 8.436 Eingaben — Dezember ist dabei noch nicht mitgezählt. Darunter waren 2.644 förmliche Beschwerden und 5.772 Anfragen von Betroffenen, etwa zur Auskunft über eigene Daten oder zur Löschung. Laut der Berliner Datenschutzbeauftragten Meike Kamp entspricht das einem Zuwachs von rund 50 Prozent gegenüber 2024.

Worum es meist geht

Die häufigsten Beschwerdethemen betreffen:

  • Banken und Finanzdienstleister
  • Inkassofirmen
  • erzwungene Nutzung von mobilen Apps
  • Videoüberwachung
  • die Folgen von Identitätsdiebstahl

Diese klassischen Felder der Datenverarbeitung sorgen weiterhin für viel Arbeit bei der Behörde.

Chatbots als doppelter Motor

Ein überraschender Treiber der Eingabewelle sind KI-Chatbots: Viele der eingereichten Texte wirken so, als wären sie mithilfe solcher Programme formuliert worden. Das hat einen einfachen Effekt — die Datenrechtsprobleme werden sichtbarer, weil Menschen ihre Anliegen leichter formulieren und einreichen können.

Gleichzeitig sorgen die Bots aber auch für Kopfschütteln bei der Behörde.

Wenn KI falsche Fakten liefert

Meike Kamp beobachtet, dass die Einschätzungen von Chatbots zu rechtlichen Fragen oft lückenhaft oder schlicht falsch sind. In einigen Fällen wurden sogar erfundene Gerichtsurteile oder fiktive juristische Quellen vorgelegt. Kurz gesagt: Chatbots können beim Formulieren helfen — und nebenbei falsche Erwartungen wecken. Kamp rät deshalb, die Ergebnisse von KI-Anwendungen kritisch zu prüfen, bevor man sie für formelle Schritte nutzt.

KI als neue Machtfrage

Über die Schwächen von Chatbots hinaus wird KI auch als strukturelles Machtproblem diskutiert. Der Philosoph Rainer Mühlhoff spricht von einer neuen „Vorhersagemacht“ — der Fähigkeit von KI‑Systemen, persönliche Informationen oder Verhalten vorherzusagen. Das berührt Fragen, die über klassische Datenschutzthemen hinausgehen, weil es um Prognosen über Menschen geht, nicht nur um gespeicherte Daten.

Konkreter Streitpunkt: KI-Training mit Nutzerdaten

Ein aktuelles Beispiel kommt von Meta: Die Juniorprofessorin Paulina Jo Pesch kritisiert, dass das Unternehmen persönliche Daten zum Training von KI-Modellen verwendet. Sie bemängelt, dass der Widerspruch gegen diese Nutzung absichtlich kompliziert und intransparent gestaltet sei.

Besonders betroffen sind Kinder und Jugendliche; Altersangaben in sozialen Netzwerken werden oft nicht zuverlässig geprüft, sodass ihre Daten in Trainingssätze einfließen können.

Kurz gesagt: KI-Tools tragen dazu bei, Datenschutzprobleme sichtbarer zu machen — sie bringen aber auch neue Risiken durch Fehlinformationen und verstärken bestehende Kontrollprobleme großer Plattformen.

Quellen

  • Quelle: Berliner Datenschutzbeauftragte
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…