Sieben KI-Anbieter erhalten Zugang zu IL6/IL7-Militärnetzen.
In Kürze
- SpaceX, OpenAI, Google u.a.
- GenAI.mil: 1,3M Nutzer
- Anthropic ausgeschlossen; Mythos-Ausnahme
Pentagon lässt KI-Tools in seine sensibelsten Netze — mit sieben Anbietern
Das US‑Verteidigungsministerium hat einen Schritt getan, der aus Tests einen operationalen Einsatz macht: Sieben KI‑Anbieter dürfen ihre Systeme in hochklassifizierten Militärnetzwerken (IL6 und IL7) nutzen. Dabei geht es nicht mehr nur um Versuche im Labor, sondern um reale Anwendungen in stark geschützten Umgebungen.
Welche Firmen dabei sind
Unter den zugelassenen Anbietern sind:
- SpaceX
- OpenAI
- Nvidia
- Microsoft
- Amazon Web Services
- das Start‑up Reflection
Diese Unternehmen haben Vereinbarungen mit dem Pentagon getroffen, die ihren Tools den Zugang zu den besonders sensiblen Bereichen ermöglichen.
Warum das relevant ist
Die Vereinbarungen sind Teil der KI‑Strategie des Pentagons: Künstliche Intelligenz soll in Führung, Nachrichtengewinnung und Verwaltung eingesetzt werden, um die Entscheidungsfähigkeit des Militärs zu erhöhen. Konkret verweist das Verteidigungsministerium auf seine Plattform GenAI.mil: Innerhalb der ersten fünf Monate hätten mehr als 1,3 Millionen Beschäftigte die Plattform genutzt, mehrere zehn Millionen Eingaben („Prompts“) abgesetzt und Hunderttausende automatisierte Agenten eingesetzt.
Bedingungen und Grenzen
Viele Anbieter haben vertraglich festgelegt, dass ihre Werkzeuge nicht für Massenüberwachung oder für autonome Waffensysteme genutzt werden dürfen. Das Pentagon betont seinerseits, es werde keine rechtswidrigen Einsätze durchführen und erwarte eine verantwortungsvolle Nutzung der Technologien.
Die Rolle von Silicon Valley
Berichten zufolge sind Teile der Branche bereit, sich an die Bedingungen des Verteidigungsministeriums zu halten. Das heißt: Kooperation statt kompletter Distanz — zumindest bei den Unternehmen, die jetzt auf der Liste stehen.
Anthropic bleibt offiziell ausgeschlossen — mit Ausnahme
Das Unternehmen Anthropic fehlt in der Liste. Im März war Anthropic von US‑Behörden als Lieferkettenrisiko eingestuft worden, nachdem es vertragliche Einschränkungen für die Nutzung seiner Claude‑Modelle durchsetzen wollte (etwa Ausschluss von Massenüberwachung und Einsatz in autonomen Waffen). Anthropic klagt gegen diese Einstufung; ein Berufungsgericht hat einen Antrag auf vorläufige Aussetzung der Einstufung abgelehnt. Die rechtliche Auseinandersetzung läuft weiter.
Trotzdem gibt es einen Ausnahmefall: Mythos
Parallel wurden Gespräche mit Anthropic wieder aufgenommen, weil das Modell Mythos als sicherheitsrelevant gilt. Mythos kann laut Pentagon insbesondere Cyber‑Schwachstellen finden und helfen, sie zu schließen. Der Technikchef des Verteidigungsministeriums sagte, Anthropic bleibe formal ein Risiko, doch Mythos stelle einen „separaten nationalen Sicherheitsmoment“ dar und werde regierungsweit geprüft. Pläne von Anthropic, Mythos für rund 70 weitere Firmen zugänglich zu machen, stießen allerdings im Weißen Haus auf Widerstand — die politische und rechtliche Lage bleibt damit weiterhin in Bewegung.
Quellen
- Quelle: US Department of Defense / SpaceX / OpenAI / Google / Nvidia / Microsoft / Amazon Web Services / Reflection / Anthropic
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




