Anthropic startet Claude Code Security – KI findet komplexe Code‑Lücken

22.02.2026 | Allgemein, KI

Anthropic stellt Claude Code Security vor: KI erkennt tiefe Schwachstellen und schlägt Patches vor, Menschen prüfen und bestätigen.

In Kürze

  • Kontextbasierte Analyse statt regelbasierter Scanner
  • Limitierte Research‑Preview für Enterprise & OSS‑Maintainer
  • Markt reagiert mit Kursverlusten bei Cybersecurity‑Titeln

Anthropic hat eine neue Sicherheitsfunktion in die Web‑Version von Claude Code eingebaut: Claude Code Security durchsucht Codebasen nach Schwachstellen und schlägt konkrete Patches vor — die Entwicklerinnen und Entwickler müssen diese Vorschläge manuell prüfen und freigeben.

Der Dienst startet als limitierte Research‑Preview für Enterprise‑ und Team‑Kunden; Maintainer von Open‑Source‑Projekten können einen kostenlosen, beschleunigten Zugang beantragen. Die Ergebnisse landen in einem Dashboard, angewendet wird aber nur, was Menschen bestätigen — automatische Änderungen gibt es nicht.

Was dieses Tool anders macht

Viele existierende Scanner arbeiten regelbasiert: Sie erkennen bekannte Muster wie offen sichtbare Passwörter oder veraltete Verschlüsselung. Komplexe Fehler in Geschäftslogik oder bei Zugriffskontrollen entgehen solchen Tools oft.

Claude Code Security arbeitet kontextbasiert: Die KI analysiert Code ähnlich wie ein menschlicher Prüfer, verfolgt das Zusammenspiel von Komponenten und den Datenfluss durch die Anwendung. Gefundene Probleme durchlaufen mehrere Verifikationsschritte; die KI bewertet außerdem ihre eigenen Befunde, reduziert Fehlalarme und vergibt Schweregrade sowie Konfidenzwerte für jeden Fund.

Forschung, Tests und Praxiserfolge

Anthropic schreibt, das System sei das Ergebnis von mehr als einem Jahr Forschung. Das interne „Frontier Red Team“ habe Claude systematisch getestet — unter anderem in Capture‑the‑Flag‑Wettkämpfen (CTF) und in Kooperation mit dem Pacific Northwest National Laboratory zum Schutz kritischer Infrastruktur.

Mit dem Modell Claude Opus 4.6 habe das Team mehr als 500 Schwachstellen in produktiv genutzten Open‑Source‑Codebasen entdeckt — Fehler, die trotz vorheriger Experten‑Reviews unentdeckt geblieben seien. Die Offenlegung der Funde an die jeweiligen Maintainer laufe noch. Anthropic selbst setze Claude intern ein und bewerte das Tool als „extrem effektiv“.

Dual‑Use‑Risiken

Anthropic räumt ein, dass dieselben Fähigkeiten auch Angreifern nützen könnten. Deshalb betont das Unternehmen, dass Claude Code Security dazu gedacht sei, Verteidiger gegen neue, KI‑gestützte Angriffsarten zu stärken.

Marktreaktion und Debatte

Die Ankündigung sorgte am 20. Februar 2026 für deutliche Kursverluste bei mehreren Cybersecurity‑Werten. Beispiele der Tagesverluste:

  • CrowdStrike: −8 %
  • Cloudflare: −8,1 %
  • Zscaler: −5,5 %
  • SailPoint: −9,4 %
  • Okta: −9,2 %
  • Global X Cybersecurity ETF: −4,9 % (Schlussstand: tiefster Wert seit November 2023)

Analysten sehen kurzfristig Gegenwind, langfristig aber Chancen: Einige Investoren befürchten, dass „Vibe Coding“ — also stark KI‑gestützte Softwareentwicklung — die Nachfrage nach bestehenden Sicherheitsprodukten schwächen und Wachstum, Margen sowie Preise unter Druck setzen könnte. Trader Dennis Dick sprach von einem Mini‑Flash‑Crash, ausgelöst durch Schlagzeilen. Jefferies‑Analyst Joseph Gallo erwartet hingegen, dass die Cybersecurity‑Branche langfristig als Netto‑Gewinner aus der KI‑Welle hervorgehen wird; KI‑Anbieter dürften zudem neue Sicherheitsprodukte bringen und um Budgets konkurrieren.

Kontext im Produktportfolio von Anthropic

Anthropic hat Claude in letzter Zeit mehrfach erweitert, etwa mit großen Modellen wie Claude Sonnet 4.6, das ein sehr großes Kontextfenster bietet. Mit Claude Code Security ergänzt das Unternehmen nun ein Tool, das kontextorientierte Code‑Sicherheit verspricht — kombiniert mit internen Tests, Praxisergebnissen und der laufenden Diskussion über Chancen und Risiken durch den verstärkten KI‑Einsatz in der IT‑Sicherheit. Hinzu kommt der jüngste Abgang eines leitenden IT‑Sicherheitsforschers bei Anthropic, der zusätzliche Debatten ausgelöst hat.

Quellen

  • Quelle: Anthropic
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…