Monate vor dem Amoklauf in Tumbler Ridge stellte eine 18‑Jährige laut WSJ beunruhigende Fragen an ChatGPT — OpenAI markierte die Chats, meldete sie aber zunächst nicht.
In Kürze
- Automatische Systeme erkannten wiederholt beunruhigende Konversationen
- Mitarbeiter regten Behördeninfo an; Management löschte Account statt zu melden
- OpenAI: keine unmittelbare glaubhafte Gefahr, unterstützt nun die Ermittlungen
Monate bevor die 18‑Jährige in Tumbler Ridge zum Amoklauf ansetzte, stellte sie laut einem Bericht des Wall Street Journal wiederholt beunruhigende Fragen an ChatGPT — das textbasierte KI‑System von OpenAI. Die entsprechenden Konversationen wurden demnach von automatischen Systemen bei OpenAI entdeckt und markiert; diese Systeme durchsuchen Chats, um potenziell gefährliche Inhalte zu identifizieren.
Mitarbeiter bei OpenAI brachten daraufhin die Frage auf, ob die Behörden informiert werden sollten. Das Management entschied jedoch anders: Der Account wurde gelöscht, eine Anzeige bei der Polizei erfolgte zunächst nicht. Eine Sprecherin von OpenAI sagte dem Wall Street Journal, aus den Chatverläufen lasse sich keine „glaubhafte und unmittelbare Gefahr für die körperliche Unversehrtheit anderer“ ablesen.
Der Angriff selbst ereignete sich am 10. Februar in Tumbler Ridge in der kanadischen Provinz British Columbia. Die 18‑Jährige tötete dabei acht Menschen, die meisten Opfer waren Schulkinder im Alter von 11 bis 13 Jahren; anschließend nahm sie sich selbst. Mehr als 20 Menschen wurden verletzt. Die Kleinstadt mit rund 2.400 Einwohnern liegt weit nördlich von Vancouver; die Tat zählt zu den blutigsten in der kanadischen Geschichte.
Nach dem Massaker suchte OpenAI laut eigenen Angaben zunächst öffentlich bekannt gewordenen Kontakt zur kanadischen Polizei und unterstützt jetzt die Ermittlungen. Das Unternehmen betont, seine KI‑Modelle seien so trainiert, dass sie Nutzer davon abhalten sollen, in der realen Welt Schaden anzurichten. Gleichzeitig werde bei Hinweisen immer abgewogen zwischen dem Risiko von Gewalt und dem Schutz der Privatsphäre; eine unnötige Einschaltung der Polizei könne für Betroffene belastend sein, so OpenAI.
Die Informationen zu den vorab entdeckten Chats basieren auf dem Bericht des Wall Street Journal. Ein ursprünglich enthaltener Hinweis auf einen Geschlechtswechsel der Täterin wurde später aus dem Bericht entfernt, weil bislang keine Anhaltspunkte vorliegen, dass das etwas mit dem Verbrechen zu tun hatte.
Quellen
- Quelle: OpenAI
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




