OpenAI liefert KI ins Pentagon‑Netz – mit klaren Sicherheitsauflagen

01.03.2026 | Allgemein, KI

OpenAI liefert KI ins Pentagon‑Netz – unter Sicherheitsauflagen.

In Kürze

  • Vereinbarung mit Verteidigungsministerium
  • Kein Einsatz für Massenüberwachung oder autonome Waffen
  • Pentagon stuft Anthropic als Sicherheitsrisiko ein

OpenAI hat eine Vereinbarung mit dem US-Verteidigungsministerium getroffen, seine KI-Modelle im klassifizierten Netzwerk des Pentagon einzusetzen. Das teilte CEO Sam Altman in einem Post auf X mit. Konkrete Vertragsdetails nannte er nicht. Die Ankündigung fiel kurz nach der Einstufung des Konkurrenten Anthropic als Sicherheitsrisiko durch das Verteidigungsministerium.

Altman hebt zwei Sicherheitsprinzipien hervor

Laut Altman hat OpenAI zwei Kernprinzipien durchgesetzt:

  • kein Einsatz der Technologie für inländische Massenüberwachung
  • Sicherstellung menschlicher Verantwortung bei Gewaltanwendung — konkret also kein unbegrenzter Einsatz in autonomen Waffensystemen

Er schreibt, das Verteidigungsministerium stimme diesen Prinzipien zu, werde sie in Gesetze und Richtlinien aufnehmen und habe sie in die Vereinbarung aufgenommen. OpenAI kündigt zudem technische Schutzmaßnahmen an, die dafür sorgen sollen, dass die Modelle wie vorgesehen arbeiten. Altman fordert außerdem, dass ähnliche Bedingungen allen KI-Firmen angeboten werden.

Warum es Streit mit Anthropic gab

Anthropic hatte genau dieselben Einschränkungen gefordert: kein Einsatz für inländische Massenüberwachung und kein Einsatz in vollständig autonomen Waffen. CEO Dario Amodei warnte davor, dass KI-Systeme große Mengen persönlicher Daten zu detaillierten Profilen zusammenführen könnten und dass die Technologie noch nicht zuverlässig genug für komplett autonome Waffensysteme sei.

„Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, schrieb Amodei.

Die Spannungen eskalierten, nachdem bekannt wurde, dass Anthropic-Software in einer US-Militäroperation gegen Nicolás Maduro eingesetzt worden sein soll — wie genau, blieb unklar.

Die Reaktion des Pentagon

Pentagon-Vertreter Pete Hegseth stufte Anthropic als „Supply-Chain Risk to National Security“ ein. Praktisch bedeutet das, dass Auftragnehmer, Zulieferer oder Partner des Militärs sofort keine Geschäfte mehr mit Anthropic machen dürfen; Anthropic soll nur noch bis zu sechs Monate Dienstleistungen liefern, um einen geordneten Übergang zu ermöglichen.

Die Maßnahme steht auch im Zusammenhang mit einer Anweisung von Präsident Trump, Bundesbehörden die Nutzung von Anthropic-Technologie zu untersagen. Außerdem fordert das Verteidigungsministerium generell, nur mit KI-Firmen zusammenzuarbeiten, die jedem legalen Einsatz ihrer Software zustimmen.

Offene Fragen bleiben

Vertreter von OpenAI und des Pentagon betonen die Notwendigkeit eines verlässlichen Partners für kritische Einsätze; Altman spricht von Deeskalation und gemeinsamen Sicherheitszielen. Unklar ist jedoch, wie genau die Zusagen zu Massenüberwachung und autonomen Waffen ausgestaltet und überprüfbar sein werden — also wie streng die Beschränkungen sind, welche Kontrollmechanismen es gibt und wie technische Schutzmaßnahmen in der Praxis umgesetzt und geprüft werden.

Quellen

  • Quelle: Pentagon / OpenAI / Anthropic
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Kameras mit KI: Datenpannen und Aufruhr in der Foto‑Community

Kameras mit KI: Datenpannen und Aufruhr in der Foto‑Community

Hersteller bauen generative KI in Kameras – doch Datenpannen und Widerstand aus der Foto‑Community machen Risiken sichtbar.In KürzeHersteller integrieren KI direkt ins GehäuseApp‑Panne: 1,5 Mio Fotos, 385.000 Videos offenEmpfehlung: lokale Speicherung, sichere Clouds,...