OpenAI liefert KI ins Pentagon‑Netz – unter Sicherheitsauflagen.
In Kürze
- Vereinbarung mit Verteidigungsministerium
- Kein Einsatz für Massenüberwachung oder autonome Waffen
- Pentagon stuft Anthropic als Sicherheitsrisiko ein
OpenAI hat eine Vereinbarung mit dem US-Verteidigungsministerium getroffen, seine KI-Modelle im klassifizierten Netzwerk des Pentagon einzusetzen. Das teilte CEO Sam Altman in einem Post auf X mit. Konkrete Vertragsdetails nannte er nicht. Die Ankündigung fiel kurz nach der Einstufung des Konkurrenten Anthropic als Sicherheitsrisiko durch das Verteidigungsministerium.
Altman hebt zwei Sicherheitsprinzipien hervor
Laut Altman hat OpenAI zwei Kernprinzipien durchgesetzt:
- kein Einsatz der Technologie für inländische Massenüberwachung
- Sicherstellung menschlicher Verantwortung bei Gewaltanwendung — konkret also kein unbegrenzter Einsatz in autonomen Waffensystemen
Er schreibt, das Verteidigungsministerium stimme diesen Prinzipien zu, werde sie in Gesetze und Richtlinien aufnehmen und habe sie in die Vereinbarung aufgenommen. OpenAI kündigt zudem technische Schutzmaßnahmen an, die dafür sorgen sollen, dass die Modelle wie vorgesehen arbeiten. Altman fordert außerdem, dass ähnliche Bedingungen allen KI-Firmen angeboten werden.
Warum es Streit mit Anthropic gab
Anthropic hatte genau dieselben Einschränkungen gefordert: kein Einsatz für inländische Massenüberwachung und kein Einsatz in vollständig autonomen Waffen. CEO Dario Amodei warnte davor, dass KI-Systeme große Mengen persönlicher Daten zu detaillierten Profilen zusammenführen könnten und dass die Technologie noch nicht zuverlässig genug für komplett autonome Waffensysteme sei.
„Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, schrieb Amodei.
Die Spannungen eskalierten, nachdem bekannt wurde, dass Anthropic-Software in einer US-Militäroperation gegen Nicolás Maduro eingesetzt worden sein soll — wie genau, blieb unklar.
Die Reaktion des Pentagon
Pentagon-Vertreter Pete Hegseth stufte Anthropic als „Supply-Chain Risk to National Security“ ein. Praktisch bedeutet das, dass Auftragnehmer, Zulieferer oder Partner des Militärs sofort keine Geschäfte mehr mit Anthropic machen dürfen; Anthropic soll nur noch bis zu sechs Monate Dienstleistungen liefern, um einen geordneten Übergang zu ermöglichen.
Die Maßnahme steht auch im Zusammenhang mit einer Anweisung von Präsident Trump, Bundesbehörden die Nutzung von Anthropic-Technologie zu untersagen. Außerdem fordert das Verteidigungsministerium generell, nur mit KI-Firmen zusammenzuarbeiten, die jedem legalen Einsatz ihrer Software zustimmen.
Offene Fragen bleiben
Vertreter von OpenAI und des Pentagon betonen die Notwendigkeit eines verlässlichen Partners für kritische Einsätze; Altman spricht von Deeskalation und gemeinsamen Sicherheitszielen. Unklar ist jedoch, wie genau die Zusagen zu Massenüberwachung und autonomen Waffen ausgestaltet und überprüfbar sein werden — also wie streng die Beschränkungen sind, welche Kontrollmechanismen es gibt und wie technische Schutzmaßnahmen in der Praxis umgesetzt und geprüft werden.
Quellen
- Quelle: Pentagon / OpenAI / Anthropic
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




