Pentagon verlangt Zugang zu Claude und droht Zwangsmaßnahmen.
In Kürze
- Zugang für militärische Nutzung
- Hebel: Lieferkette & Defense Act
- Frage: Wer entscheidet über Einsatz?
Das Pentagon setzt Anthropic massiv unter Druck
Beim Treffen am Dienstag forderte Verteidigungsminister Pete Hegseth laut Axios von Anthropic‑Chef Dario Amodei, alle Beschränkungen für die militärische Nutzung des KI‑Modells Claude bis Freitagabend aufzuheben. Andernfalls drohte das Ministerium mit harten Maßnahmen — und nannte zwei konkrete Hebel.
Zwei mögliche Zwangsmaßnahmen
Zwei mögliche Zwangsmaßnahmen stehen im Raum.
- Erstens: die Einstufung von Anthropic als „Risiko für die Lieferkette“. Solch ein Schritt würde Firmen, die mit dem Pentagon zusammenarbeiten, verpflichten nachzuweisen, dass sie Claude in keinen militärischen Projekten nutzen.
- Zweitens: der Einsatz des Defense Production Act — ein Notfallinstrument, das der Regierung erlaubt, private Firmen zur vorrangigen Lieferung von Produkten oder Diensten für die Landesverteidigung zu verpflichten. Axios verweist auf beides als Drohkulisse, sollte Anthropic nicht nachgeben.
Politische und rechtliche Einordnung
Politisch und rechtlich wäre das ungewöhnlich. Das Wall Street Journal merkt an, dass beide Mittel normalerweise für andere Kontexte, etwa gegen ausländische Firmen mit Verbindungen zu gegnerischen Staaten, eingesetzt werden — gegen ein inländisches KI‑Unternehmen wären sie kaum ein Präzedenzfall.
Kernfrage des Streits
Kernfrage des Streits ist simpel, aber weitreichend: Wer entscheidet, wofür ein militärisches KI‑System genutzt wird — das Militär oder der Hersteller? Hegseth macht klar, das Militär dürfe sich von Firmen keine Vorgaben für operative Entscheidungen machen lassen und fordert Zugriff auf Claude „für alle rechtmäßigen Zwecke“ ohne Hersteller‑Mitspracherecht. Anthropic signalisiert Bereitschaft, Regeln für militärische Nutzung anzupassen, zieht aber zwei klare Grenzen: keine massenhafte Überwachung von US‑Bürgern und keine Entwicklung von autonomen Waffen, die ohne menschliche Kontrolle feuern.
Weitere Spannungen
Spannungen kommen noch aus einem anderen Eck. Hegseth warf Amodei vor, Anthropic habe sich bei Palantir über den möglichen Einsatz von Claude bei einer angeblichen Entführung des venezolanischen Präsidenten Nicolás Maduro beschwert. Amodei wies das zurück und betonte, die Sicherheitsregeln von Anthropic hätten die Arbeit des Pentagons nie behindert.
Stimmung und Delegation
Über die Stimmung im Raum kursieren unterschiedliche Beschreibungen: Von „überhaupt nicht herzlich“ bis zu „sachlich und ruhig“. Hegseth lobte laut Berichten sogar die Qualität von Claude, und Anthropic erklärte nach dem Treffen, die Gespräche würden „in gutem Glauben“ fortgeführt.
Die Delegation aus dem Pentagon war prominent besetzt, darunter:
- Pete Hegseth
- sein Stellvertreter Steve Feinberg
- Emil Michael
- der oberste Jurist Earl Matthews
Technische Bedeutung und Ersatzoptionen
Technisch hat der Streit Gewicht: Claude läuft aktuell als einziges Modell in geheimen Systemen der US‑Streitkräfte. Ein Austausch wäre laut einem hohen Beamten mit „massiven Störungen“ verbunden; in Bereichen wie offensiven Cyberoperationen zählt Claude demnach zur Spitzengruppe. Gleichzeitig verhandelt das Pentagon mit anderen Anbietern — OpenAI, Google und xAI. Axios berichtet, xAI habe bereits einen Vertrag unterschrieben. Googles Modell Gemini gilt als möglicher Ersatz, sofern Google den Bedingungen zustimmt, die Anthropic ablehnt — wie schnell solche Modelle wirklich einsatzbereit wären, ist jedoch unklar.
Warum das wichtig ist
Warum das wichtig ist: Der Ausgang dieses Konflikts kann Einfluss darauf haben, wie viel Kontrolle Hersteller künftig über Nutzungsregeln von KI behalten und wie weit der Staat in Rechte von Unternehmen und Bürgern eingreifen darf. Die Auseinandersetzung verknüpft technische Abhängigkeiten, rechtliche Instrumente und geopolitische Risiken — und könnte damit Signalwirkung für künftige Beziehungen zwischen KI‑Branche und Militär haben.
Quellen
- Quelle: Pentagon / Anthropic
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




