Anthropic hat die Nutzungsrichtlinien für seinen KI-Chatbot Claude überarbeitet und setzt klare Grenzen für gefährliche Anwendungen.
In Kürze
- Verbot der Nutzung von Claude für Waffentechnologie
- Einführung von Schutzmechanismen gegen Manipulation
- Lockerung der Vorschriften für politische Inhalte
Nutzungsrichtlinien des AI-Chatbots Claude verschärft
Anthropic, ein aufstrebendes KI-Startup, hat seine Nutzungsrichtlinien für den AI-Chatbot Claude verschärft. Ein zentrales Element der neuen Regeln ist das klare Verbot, Claude für die Entwicklung gefährlicher Waffen zu verwenden. Dazu zählen biologische, chemische, radiologische und nukleare Waffen. Mit dieser Maßnahme zeigt das Unternehmen, dass es die Risiken im Bereich Künstliche Intelligenz ernst nimmt und Verantwortung übernimmt.
Einführung von „AI Safety Level 3“ Schutzmechanismen
Zusätzlich hat Anthropic sogenannte „AI Safety Level 3“ Schutzmechanismen eingeführt. Diese sollen es deutlich erschweren, Claude zu manipulieren – ein Vorgang, der als „Jailbreaking“ bekannt ist. Ziel ist es, die Nutzung des Chatbots zur Entwicklung gefährlicher Materialien zu unterbinden. Auch gegen Missbrauch in Form von Malware-Erstellung und Cyberangriffen wird nun rigoroser vorgegangen. Diese neuen Regelungen sind Teil eines umfassenden Abschnitts in den Richtlinien, der sich speziell mit dem Schutz vor der Kompromittierung von Computer- und Netzwerksystemen beschäftigt.
Anpassungen bei politischen Inhalten
Ein weiterer Punkt in den aktualisierten Richtlinien betrifft politische Inhalte. Hier hat Anthropic die Vorschriften gelockert und verbietet politische Inhalte nun nur noch, wenn sie darauf abzielen, demokratische Prozesse zu stören oder zu täuschen.
Verantwortung und Sicherheit im Umgang mit KI
Diese Anpassungen spiegeln die zunehmenden Bedenken hinsichtlich der Sicherheit in der Nutzung von KI wider und verdeutlichen die Verantwortung, die Unternehmen tragen, um Risiken im Umgang mit fortschrittlichen Technologien zu minimieren.
Quellen
- Quelle: Anthropic
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




