OpenAI will Kinder online besser vor KI‑gestützter sexueller Ausbeutung schützen.
In Kürze
- Meldungen zu KI‑Erzeugnissen mit Kindern steigen deutlich
- Blueprint: Gesetze, Meldewege und präventive KI‑Mechanismen
- Parallel laufen Klagen gegen OpenAI wegen Chatbot‑Schäden
OpenAI hat einen Kinderschutz-Fahrplan vorgestellt, um Kinder im Netz besser vor durch KI erleichterter sexueller Ausbeutung zu schützen. Der sogenannte Child Safety Blueprint zielt darauf ab, Missbrauchsfälle schneller zu erkennen, Meldungen zu erleichtern und Ermittlungen effizienter zu machen.
Warum jetzt? Immer mehr KI-generierte Inhalte betreffen Kinder
Hintergrund sind steigende Meldezahlen: Die Internet Watch Foundation (IWF) registrierte in der ersten Hälfte 2025 mehr als 8.000 Meldungen über KI-generierte kinderpornografische Inhalte – ein Anstieg von 14 Prozent im Vergleich zum Vorjahr. Täterinnen und Täter nutzen KI etwa, um gefälschte explizite Bilder von Minderjährigen zu erzeugen, damit Erpressung zu betreiben, oder um sehr glaubwürdige Nachrichten für Grooming zu erstellen. Es gab zudem Besorgnis nach Fällen, in denen junge Menschen nach angeblichen Kontakten mit Chatbots Suizid begingen.
Drei Schwerpunkte des Fahrplans
OpenAI hat den Blueprint gemeinsam mit dem National Center for Missing and Exploited Children (NCMEC) und der Attorney General Alliance erarbeitet. Die Initiative konzentriert sich auf drei Maßnahmen:
- Gesetzliche Anpassungen, damit KI‑generierte Missbrauchsmaterialien ausdrücklich erfasst werden;
- Verbesserte Meldewege an die Strafverfolgung, sodass Hinweise einfacher und schneller bei Ermittlern landen;
- Präventive Schutzmechanismen direkt in KI‑Systeme zu integrieren, damit Gefahren früher erkannt werden.
Jeff Jackson (Generalstaatsanwalt von North Carolina) und Derek Brown (Utah) kommentierten die Vorstellung des Fahrplans; beide betonen die Bedeutung klarer Regeln und handhabbarer Informationen für Ermittler. OpenAI nennt als Ziel, Gefahren schneller zu identifizieren und Ermittlungsbehörden verwertbare Daten bereitzustellen.
Anknüpfung an frühere Maßnahmen
Der Blueprint baut auf früheren Schritten von OpenAI auf. Das Unternehmen hat seine Regeln für Nutzerinnen und Nutzer unter 18 aktualisiert:
- keine Erzeugung unangemessener Inhalte,
- kein Anstiften zur Selbstschädigung,
- kein Rat, wie Jugendliche Gefährdungen gegenüber Bezugspersonen verbergen können.
Außerdem veröffentlichte OpenAI kürzlich einen eigenen Sicherheitsplan für Teenager in Indien.
Parallel: juristische Auseinandersetzungen
Neben den technischen und rechtlichen Vorschlägen läuft auch Streit vor Gericht. Im November reichten das Social Media Victims Law Center und das Tech Justice Law Project in Kalifornien sieben Klagen gegen OpenAI ein. Die Kläger behaupten, OpenAI habe das Modell GPT‑4o zu früh veröffentlicht und dass dessen angeblich psychologisch manipulative Wirkung zu mehreren Todesfällen (vier Suizide) und zu drei Fällen schwerer wahnartiger Störungen nach längeren Chatbot‑Kontakten beigetragen habe. Diese Vorwürfe sind Gegenstand der laufenden Verfahren.
Der Fahrplan stellt einen weiteren Versuch dar, die Schnittstelle von KI und Kinderschutz zu regeln und Ermittlern praktikable Werkzeuge an die Hand zu geben.
Quellen
- Quelle: OpenAI
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




