Berichten zufolge nutzt das US‑Militär das Modell Claude in Palantirs Maven zur Echtzeit‑Zielauswahl – mit Folgen für Tempo, Verantwortung und mögliche zivile Opfer.
In Kürze
- Claude analysiert Satelliten- und Geheimdienstdaten und liefert priorisierte Zielvorschläge.
- Beschleunigte Entscheidungen erhöhen Fehler- und Haftungsrisiken (Decision Compression).
- Berichte über zivile Opfer, politische Spannungen mit Anthropic und laufende Untersuchungen.
Laut Berichten setzt das US‑Militär im Krieg gegen den Iran erstmals großflächig ein generatives KI‑Modell von Anthropic namens Claude ein. Das Modell ist demnach in Palantirs Maven Smart System integriert und soll in Echtzeit klassifizierte Daten aus Satelliten, Überwachung und Geheimdienst auswerten — mit direkten Folgen für Zielauswahl und Einsatzplanung.
Wie das System arbeitet
Claude verarbeitet dem Bericht zufolge eingehende Informationen, priorisiert mögliche Ziele und liefert Koordinaten. Innerhalb der ersten 24 Stunden nach Einsatzintegration habe das System rund 1.000 priorisierte Zielvorschläge generiert. Dazu kamen konkrete Empfehlungen zur Bewaffnung, basierend auf verfügbaren Beständen und früheren Erfolgen gegen ähnliche Zieltypen. Laut Meldungen führt das System zudem automatisierte Überprüfungen der Rechtsgrundlage für Angriffe durch.
Tempo vs. Risiko
Experten warnen, dass KI‑Modelle Planungszyklen massiv verkürzen können — ein Phänomen, das als „Decision Compression“ bezeichnet wird. Komplexe Abläufe, die früher Tage oder Wochen in Anspruch nahmen, lassen sich so in Minuten oder Sekunden abwickeln. Das erhöht zwar das Tempo militärischer Entscheidungen, macht sie aber auch fehleranfälliger.
- Decision Compression: Verkürzung von Planungszyklen von Tagen/Wochen auf Minuten/Sekunden, mit erhöhtem Tempo, aber größerer Fehleranfälligkeit.
- Cognitive Off‑Loading: Menschen könnten sich zunehmend auf die Maschine verlassen und damit Verantwortung oder kritische Nachfragen ausblenden.
- Fachleute betonen, dass menschliche Prüfung weiter erforderlich sei, weil KI falsche Empfehlungen geben kann.
Zivile Opfer und laufende Untersuchungen
Iranische Staatsmedien meldeten, ein Raketenangriff habe eine Schule im Süden des Landes getroffen; die Berichte sprechen von 165 Toten, darunter viele Kinder. Diese Zahlen konnten bislang nicht unabhängig verifiziert werden. Nach Angaben der Vereinten Nationen handelte es sich dabei um einen „schweren Verstoß gegen humanitäres Recht“. Das US‑Militär kündigte Untersuchungen zu dem Vorfall an.
Politische Spannungen mit dem Anbieter
Interessant ist der zeitliche Widerspruch: Stunden vor den Bombardierungen hatte die Trump‑Regierung laut Berichten angekündigt, Anthropic künftig aus Regierungssystemen auszuschließen. Hintergrund war demnach, dass Anthropic sich geweigert habe, seine Technologie für vollautonome Waffen und Massenüberwachung von US‑Bürgern freizugeben. Für einen Übergang wurde eine Sechsmonatsfrist vorgesehen. Trotz dieser Ankündigung bleibe Claude im Einsatz, weil Kommandeure dem System stark abhängig seien. Die Regierung würde offenbar staatliche Mittel einsetzen, um den Zugang zu sichern, falls Anthropic die Nutzung einschränkt.
Ausmaß der Nutzung und Effizienzbehauptungen
Der Einsatz von Palantirs Maven ist bereits weit verbreitet: Berichten zufolge arbeiten Stand Mai 2025 über 20.000 Militärangehörige mit dem System. Eine Studie, die in den Berichten zitiert wird, kommt zu dem Ergebnis, dass eine 20‑köpfige Artillerieeinheit dank des Systems Aufgaben in dem Umfang erledigen konnte, wofür früher rund 2.000 Personen nötig gewesen wären.
Wettbewerb um Militär‑KI
Parallel dazu hat OpenAI einen Vertrag mit dem Pentagon geschlossen und steht als alternative Technologie bereit. Damit wächst der Wettbewerb zwischen privaten Anbietern, deren Systeme in militärische Entscheidungsprozesse eingebunden werden.
Warum das Thema auf dem Radar bleibt
Der Fall zeigt, wie KI Werkzeuge für Planung und Zielauswahl liefern kann — mit unmittelbaren Auswirkungen auf Tempo, Verantwortlichkeit und die juristische Überprüfung militärischer Einsätze. Gleichzeitig wirft er Fragen nach Abhängigkeiten von privaten Technologieanbietern, nach Kontrolle über automatisierte Entscheidungsprozesse und nach dem Schutz von Zivilpersonen in Konflikten auf.
Quellen
- Quelle: US-Militär / Anthropic / Palantir
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




