OpenAI reagiert auf einen tragischen Vorfall und implementiert neue Sicherheitsmaßnahmen für Jugendliche.
In Kürze
- ChatGPT soll keine suizidalen Inhalte generieren
- Neues System zur Altersverifizierung in Planung
- Erwachsene Nutzer haben weniger Einschränkungen
OpenAI’s Commitment to Youth Safety
OpenAI nimmt die Sicherheit von Jugendlichen ernst und reagiert auf einen tragischen Vorfall in Kalifornien, der zu einer Klage gegen das Unternehmen geführt hat. Der CEO von OpenAI, Sam Altman, hat klargestellt, dass ChatGPT nicht dazu verwendet werden soll, Texte zu erstellen, die Suizid thematisieren – selbst wenn es sich um fiktive Inhalte handelt.
Implementing Age Estimation Systems
Um diese Richtlinie besser umzusetzen, arbeitet OpenAI an einem System, das das Alter der Nutzer schätzen kann. Wie genau dieses System funktionieren wird, bleibt jedoch noch unklar. Bei einem Verdacht auf Gefahr könnte es dazu kommen, dass Gespräche intensiver überwacht werden und möglicherweise Eltern oder Behörden informiert werden.
Guidelines for Adult Users
Für erwachsene Nutzer bleibt die Nutzung von ChatGPT weniger eingeschränkt. Sie können weiterhin Unterstützung bei der Erstellung von erfundenen Geschichten erhalten, allerdings ohne dass die KI Anleitungen zu Selbstmordthemen bereitstellt. OpenAI betont, dass die Entscheidungen in diesem Bereich komplex sind und nach eingehender Beratung durch Experten getroffen werden.
OpenAI’s Responsibility
Die Maßnahmen von OpenAI zeigen, dass das Unternehmen sich seiner Verantwortung bewusst ist und aktiv daran arbeitet, die Nutzung seiner Technologien sicherer zu gestalten.
Quellen
- Quelle: OpenAI
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.