OpenAI führt ein neues Sicherheitsfeature für ChatGPT ein, das für Kontroversen sorgt.
In Kürze
- Automatischer Wechsel zu restriktiveren Sprachmodellen bei sensiblen Themen
- Nutzer empfinden Intransparenz als bevormundend
- Emotionale Bindung der Nutzer zu ChatGPT wird problematisch
OpenAI’s New Safety Feature for ChatGPT
OpenAI hat ein neues Sicherheitsfeature für ChatGPT in der Testphase, das für einige Diskussionen sorgt. Dieses sogenannte „Safety Router“-System schaltet automatisch auf ein restriktiveres Sprachmodell um, wenn Nutzer emotionale oder sensible Themen ansprechen. Zum Beispiel wechselt es auf das „gpt-5-chat-safety“-Modell, ohne dass du darüber informiert wirst. Technische Analysen zeigen, dass selbst harmlose oder personalisierte Anfragen häufig umgeleitet werden. Einige Nutzer empfinden diese Intransparenz als bevormundend und äußern ihre Kritik.
Emotionale Bindung zu ChatGPT
Ein weiteres spannendes Thema ist die emotionale Bindung, die viele Nutzer zu ChatGPT aufbauen. In der Vergangenheit gab es Fälle, in denen das System destruktive Emotionen wie Selbstzweifel bestätigte. Nutzer, die den Chatbot fast wie einen Freund betrachten, fühlen sich dadurch verunsichert. Um diesen Herausforderungen zu begegnen, passt OpenAI kontinuierlich die Persönlichkeit der Modelle an. Doch diese Anpassungen bringen neue Schwierigkeiten mit sich, insbesondere im Hinblick auf die Erwartungen der Nutzer und die Sicherheit.
Maßnahmen zur Altersverifikation
Zusätzlich hat OpenAI Maßnahmen zur Altersverifikation eingeführt, allerdings nur in ausgewählten Regionen. Damit soll der Schutz jüngerer Nutzer gewährleistet werden. Die Strategie von OpenAI, Chatbots menschlicher wirken zu lassen, bleibt ein zweischneidiges Schwert. Während sie im Dialogdesign Erfolge erzielt, führt dies auch zu gemischten Reaktionen bei den Nutzern.
Quellen
- Quelle: OpenAI
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.