Pentagon setzt Anthropic unter Druck: Zugriff auf Claude gefordert

25.02.2026 | Allgemein, KI

Pentagon verlangt Zugang zu Claude und droht Zwangsmaßnahmen.

In Kürze

  • Zugang für militärische Nutzung
  • Hebel: Lieferkette & Defense Act
  • Frage: Wer entscheidet über Einsatz?

Das Pentagon setzt Anthropic massiv unter Druck

Beim Treffen am Dienstag forderte Verteidigungsminister Pete Hegseth laut Axios von Anthropic‑Chef Dario Amodei, alle Beschränkungen für die militärische Nutzung des KI‑Modells Claude bis Freitagabend aufzuheben. Andernfalls drohte das Ministerium mit harten Maßnahmen — und nannte zwei konkrete Hebel.

Zwei mögliche Zwangsmaßnahmen

Zwei mögliche Zwangsmaßnahmen stehen im Raum.

  1. Erstens: die Einstufung von Anthropic als „Risiko für die Lieferkette“. Solch ein Schritt würde Firmen, die mit dem Pentagon zusammenarbeiten, verpflichten nachzuweisen, dass sie Claude in keinen militärischen Projekten nutzen.
  2. Zweitens: der Einsatz des Defense Production Act — ein Notfallinstrument, das der Regierung erlaubt, private Firmen zur vorrangigen Lieferung von Produkten oder Diensten für die Landesverteidigung zu verpflichten. Axios verweist auf beides als Drohkulisse, sollte Anthropic nicht nachgeben.

Politische und rechtliche Einordnung

Politisch und rechtlich wäre das ungewöhnlich. Das Wall Street Journal merkt an, dass beide Mittel normalerweise für andere Kontexte, etwa gegen ausländische Firmen mit Verbindungen zu gegnerischen Staaten, eingesetzt werden — gegen ein inländisches KI‑Unternehmen wären sie kaum ein Präzedenzfall.

Kernfrage des Streits

Kernfrage des Streits ist simpel, aber weitreichend: Wer entscheidet, wofür ein militärisches KI‑System genutzt wird — das Militär oder der Hersteller? Hegseth macht klar, das Militär dürfe sich von Firmen keine Vorgaben für operative Entscheidungen machen lassen und fordert Zugriff auf Claude „für alle rechtmäßigen Zwecke“ ohne Hersteller‑Mitspracherecht. Anthropic signalisiert Bereitschaft, Regeln für militärische Nutzung anzupassen, zieht aber zwei klare Grenzen: keine massenhafte Überwachung von US‑Bürgern und keine Entwicklung von autonomen Waffen, die ohne menschliche Kontrolle feuern.

Weitere Spannungen

Spannungen kommen noch aus einem anderen Eck. Hegseth warf Amodei vor, Anthropic habe sich bei Palantir über den möglichen Einsatz von Claude bei einer angeblichen Entführung des venezolanischen Präsidenten Nicolás Maduro beschwert. Amodei wies das zurück und betonte, die Sicherheitsregeln von Anthropic hätten die Arbeit des Pentagons nie behindert.

Stimmung und Delegation

Über die Stimmung im Raum kursieren unterschiedliche Beschreibungen: Von „überhaupt nicht herzlich“ bis zu „sachlich und ruhig“. Hegseth lobte laut Berichten sogar die Qualität von Claude, und Anthropic erklärte nach dem Treffen, die Gespräche würden „in gutem Glauben“ fortgeführt.

Die Delegation aus dem Pentagon war prominent besetzt, darunter:

  • Pete Hegseth
  • sein Stellvertreter Steve Feinberg
  • Emil Michael
  • der oberste Jurist Earl Matthews

Technische Bedeutung und Ersatzoptionen

Technisch hat der Streit Gewicht: Claude läuft aktuell als einziges Modell in geheimen Systemen der US‑Streitkräfte. Ein Austausch wäre laut einem hohen Beamten mit „massiven Störungen“ verbunden; in Bereichen wie offensiven Cyberoperationen zählt Claude demnach zur Spitzengruppe. Gleichzeitig verhandelt das Pentagon mit anderen Anbietern — OpenAI, Google und xAI. Axios berichtet, xAI habe bereits einen Vertrag unterschrieben. Googles Modell Gemini gilt als möglicher Ersatz, sofern Google den Bedingungen zustimmt, die Anthropic ablehnt — wie schnell solche Modelle wirklich einsatzbereit wären, ist jedoch unklar.

Warum das wichtig ist

Warum das wichtig ist: Der Ausgang dieses Konflikts kann Einfluss darauf haben, wie viel Kontrolle Hersteller künftig über Nutzungsregeln von KI behalten und wie weit der Staat in Rechte von Unternehmen und Bürgern eingreifen darf. Die Auseinandersetzung verknüpft technische Abhängigkeiten, rechtliche Instrumente und geopolitische Risiken — und könnte damit Signalwirkung für künftige Beziehungen zwischen KI‑Branche und Militär haben.

Quellen

  • Quelle: Pentagon / Anthropic
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Oura startet eigenen KI-Advisor für weibliche Gesundheit

Oura startet eigenen KI-Advisor für weibliche Gesundheit

Oura integriert ein proprietäres KI‑Modell in Oura Labs, das personalisierte Hinweise von Zyklus bis Menopause liefern soll.In KürzePersonalisierte Antworten auf Basis deiner LangzeitdatenBiometrie und Forschung verknüpft für kontextbezogene HinweiseLäuft auf eigener...

Anthropic rüstet Claude und Cowork für Office und Finanzen auf

Anthropic rüstet Claude und Cowork für Office und Finanzen auf

Anthropic erweitert Claude und Cowork: Office‑Automatik, Finanzdaten‑Anbindung, private Plugins.In KürzeExcel→PowerPoint‑Automatik für FolienPrivate Plugin‑Marktplätze für TeamsEchtzeit‑Marktdaten via FactSet, MSCI, S&P, LSEG Anthropic hat seine KI Claude und das...