Klage gegen Meta: Prüfer sollen intime Aufnahmen aus Ray‑Ban‑Brillen gesehen haben

06.03.2026 | Allgemein, KI

Berichte behaupten, dass Subunternehmer private Aufnahmen aus Ray‑Ban Meta AI‑Brillen geprüft haben. Meta steht wegen Datenschutz und irreführender Werbung unter Druck.

In Kürze

  • Subunternehmer in Kenia sollen intime Videos geprüft haben
  • US-Klage wegen Datenschutz und irreführender Werbung gegen Meta & Luxottica
  • Britische Datenschutzbehörde ICO prüft, Millionen Brillen verkauft

Meta sieht sich in den USA mit einer Klage konfrontiert, nachdem schwedische Zeitungen berichtet hatten, dass Mitarbeitende eines kenianischen Subunternehmers Aufnahmen aus Ray‑Ban Meta AI‑Brillen gesichtet haben sollen – darunter sehr private Szenen wie Nacktheit, Sex und Toilettennutzung.

Was die Recherche ergab

Laut den Berichten sollen Beschäftigte des Subunternehmers Video‑ und Bildaufnahmen aus Kundengeräten geprüft haben. Meta bewirbt die Brille mit Formulierungen wie „designed for privacy, controlled by you“ und „built for your privacy“. Kläger:innen werfen dem Unternehmen vor, nicht offengelegt zu haben, dass Aufnahmen möglicherweise von externen Prüfern eingesehen werden. Meta gibt an, Gesichter würden unkenntlich gemacht (geblurred); Quellen zufolge funktioniert das aber nicht immer zuverlässig.

Reaktion von Behörden

Die britische Datenschutzbehörde Information Commissioner’s Office (ICO) prüft die Vorwürfe derzeit. Weitere Behördenbeobachtungen sind möglich, weil die Hinweise datenschutzrechtliche Fragen aufwerfen, vor allem bei der Verarbeitung sehr sensibler Inhalte.

Die Klage in den USA

Die Klage wurde von Gina Bartone aus New Jersey und Mateo Canu aus Kalifornien eingereicht; vertreten werden sie von der auf Öffentlichkeitsinteressen spezialisierten Clarkson Law Firm. Gegenstand der Klage sind Vorwürfe der Verletzung von Datenschutzrecht und irreführender Werbung. Als Beklagte genannt sind Meta sowie der Brillenhersteller Luxottica of America. Die Kläger:innen konzentrieren sich insbesondere auf Werbeversprechen, die ihrer Ansicht nach nicht klar genug offenbaren, dass Inhalte zur Prüfung an Menschen – teils im Ausland – weitergeleitet werden könnten.

Technische und geschäftliche Details

In den Dokumenten zur Klage heißt es, dass 2025 mehr als sieben Millionen Menschen die Ray‑Ban Meta AI‑Brille gekauft hätten. Aufnahmen sollen in eine sogenannte „Datenpipeline“ fließen, also eine Verarbeitungs‑ und Weiterleitungsstrecke, über die Inhalte zur Prüfung gelangen. Der Vorwurf lautet, Nutzer:innen könnten diese Prüfung nicht vollständig umgehen.

Meta‑Stellungnahmen

Meta teilte gegenüber der BBC mit, dass Inhalte, die Nutzer:innen mit Meta AI teilen, manchmal von Auftragnehmern zur Verbesserung der Funktion geprüft würden; dies sei in den Datenschutz‑ und Nutzungsbedingungen geregelt. In den UK‑AI‑Nutzungsbedingungen fand die BBC eine entsprechende Formulierung; in einer US‑Version steht explizit, dass Meta Interaktionen mit AIs „automatically or manually (von Menschen)“ prüfen könne. Meta betont außerdem, dass Medien auf dem Gerät verbleiben, solange Nutzer:innen sie nicht teilen, und nennt Filtermechanismen zur Wahrung der Privatsphäre.

Öffentlicher Kontext

Die Berichte haben eine breitere Debatte über sogenannte „luxury surveillance“ angestoßen – also leistungsfähige, teure Geräte mit dauerhaften Aufnahme‑ oder Überwachungsfunktionen. Als Reaktion darauf sind bereits Anwendungen und Tools entstanden, die etwa erkennen sollen, wenn Smart‑Brillen in der Nähe sind.

Wie es weitergeht

Die ICO‑Prüfung läuft, und die US‑Klage hat ihren Weg in die Gerichte genommen. Ob und wie die Vorwürfe rechtlich Bestand haben, wird nun in den nächsten Schritten geklärt.

Quellen

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…