OpenAI markierte beunruhigende ChatGPT‑Chats vor kanadischem Amoklauf

24.02.2026 | Allgemein, KI

Monate vor dem Amoklauf in Tumbler Ridge stellte eine 18‑Jährige laut WSJ beunruhigende Fragen an ChatGPT — OpenAI markierte die Chats, meldete sie aber zunächst nicht.

In Kürze

  • Automatische Systeme erkannten wiederholt beunruhigende Konversationen
  • Mitarbeiter regten Behördeninfo an; Management löschte Account statt zu melden
  • OpenAI: keine unmittelbare glaubhafte Gefahr, unterstützt nun die Ermittlungen

Monate bevor die 18‑Jährige in Tumbler Ridge zum Amoklauf ansetzte, stellte sie laut einem Bericht des Wall Street Journal wiederholt beunruhigende Fragen an ChatGPT — das textbasierte KI‑System von OpenAI. Die entsprechenden Konversationen wurden demnach von automatischen Systemen bei OpenAI entdeckt und markiert; diese Systeme durchsuchen Chats, um potenziell gefährliche Inhalte zu identifizieren.

Mitarbeiter bei OpenAI brachten daraufhin die Frage auf, ob die Behörden informiert werden sollten. Das Management entschied jedoch anders: Der Account wurde gelöscht, eine Anzeige bei der Polizei erfolgte zunächst nicht. Eine Sprecherin von OpenAI sagte dem Wall Street Journal, aus den Chatverläufen lasse sich keine „glaubhafte und unmittelbare Gefahr für die körperliche Unversehrtheit anderer“ ablesen.

Der Angriff selbst ereignete sich am 10. Februar in Tumbler Ridge in der kanadischen Provinz British Columbia. Die 18‑Jährige tötete dabei acht Menschen, die meisten Opfer waren Schulkinder im Alter von 11 bis 13 Jahren; anschließend nahm sie sich selbst. Mehr als 20 Menschen wurden verletzt. Die Kleinstadt mit rund 2.400 Einwohnern liegt weit nördlich von Vancouver; die Tat zählt zu den blutigsten in der kanadischen Geschichte.

Nach dem Massaker suchte OpenAI laut eigenen Angaben zunächst öffentlich bekannt gewordenen Kontakt zur kanadischen Polizei und unterstützt jetzt die Ermittlungen. Das Unternehmen betont, seine KI‑Modelle seien so trainiert, dass sie Nutzer davon abhalten sollen, in der realen Welt Schaden anzurichten. Gleichzeitig werde bei Hinweisen immer abgewogen zwischen dem Risiko von Gewalt und dem Schutz der Privatsphäre; eine unnötige Einschaltung der Polizei könne für Betroffene belastend sein, so OpenAI.

Die Informationen zu den vorab entdeckten Chats basieren auf dem Bericht des Wall Street Journal. Ein ursprünglich enthaltener Hinweis auf einen Geschlechtswechsel der Täterin wurde später aus dem Bericht entfernt, weil bislang keine Anhaltspunkte vorliegen, dass das etwas mit dem Verbrechen zu tun hatte.

Quellen

  • Quelle: OpenAI
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Studie: Polierte KI-Antworten dämpfen kritische Prüfung

Studie: Polierte KI-Antworten dämpfen kritische Prüfung

Anthropic analysiert fast 10.000 Claude-Chats und zeigt, wie fertige KI-Ausgaben die Prüfung durch Nutzer schwächen.In KürzeFertige „Artefakte“ reduzieren Faktenchecks und Hinterfragen.Iteratives Arbeiten erhöht nachweislich KI-Kompetenz-Verhalten.Nur ~30% geben klare...

KI-Chatbots bauen hübsche, aber leicht knackbare Passwörter

KI-Chatbots bauen hübsche, aber leicht knackbare Passwörter

KI-Chatbots spucken hübsche Passwörter aus – viele sind vorhersehbar und unsicher.In KürzeModelle liefern Muster, keinen echten ZufallEntropie oft nur ~27 Bit statt ~98 BitNutze geprüfte Passwort‑Manager KI-Chatbots bauen hübsche Passwörter — aber sie sind oft...