In A Coruña diskutierten Expert:innen, Diplomaten und Militärs Empfehlungen für KI im Militär — Ergebnis: Richtlinien, aber keine verbindlichen Regeln.
In Kürze
- Verpflichtende Risikoprüfungen vor Einsatz militärischer KI
- Klare Verantwortlichkeit statt allein „Human in the Loop“
- Abschlussdokument von 35 Staaten unterzeichnet; USA und China fehlen
In A Coruña trafen sich Anfang Februar Expert:innen, Diplomaten und Militärs zur dritten „Responsible AI in the Military Domain“‑Konferenz (REAIM). Ergebnis: intensive Debatten, ein Abschlussdokument mit Empfehlungen — aber keine verbindlichen internationalen Regeln. Das Papier „Pathways to Action“ unterschrieben 35 von rund 80 vertretenen Staaten, darunter Deutschland; Großmächte wie die USA und China blieben außen vor.
Was das Abschlussdokument fordert
- Gründlichere Risikoprüfungen: Regierungen sollen KI‑Systeme im militärischen Kontext vor dem Einsatz einer verbindlichen Risikobewertung unterziehen.
- Nachvollziehbare Verantwortlichkeit: Entscheidungsprozesse beim Einsatz automatisierter Waffensysteme sollen so dokumentiert werden, dass später klar ersichtlich ist, wer über die gesamte Befehlskette und Lebensdauer eines Systems Verantwortung trägt.
- „Human in the Loop“ reicht nicht mehr: Der oft zitierte Grundsatz, ein Mensch müsse Waffensysteme auslösen, gilt vielen Teilnehmenden als veraltet — in aktuellen Systemen ist das längst nicht immer der Fall. Deshalb plädieren Expert:innen für konkrete Verantwortlichkeitsregeln, die über diesen Grundsatz hinausgehen.
- Völkerrechtskonforme Politik und systematische Erfassung: Nationale Politik soll sich an völkerrechtlichen Vorgaben orientieren. Vorgeschlagen wurde außerdem die Anlage von Datenbanken, in denen bekannte Risiken und Nebenwirkungen gesammelt werden, um Vorfälle systematisch zu dokumentieren.
- Datenintegrität als Sicherheitsrisiko: Manipulierte Trainingsdaten („Vergiftung“ von Datensätzen) wurden als konkretes Risiko benannt — falsche oder manipulierte Trainingsdaten können zu Fehlentscheidungen in militärischen Systemen führen.
Wer war dabei und welche Initiativen laufen
Rund 1.200 Teilnehmer:innen aus über 80 Delegationen nahmen teil. UN‑Vertreter:innen begannen mit der Ausarbeitung eines Katalogs freiwilliger Maßnahmen für Zulieferer in der KI‑Industrie. Die Global Commission REAIM, eine Initiative der Niederlande, hatte bereits Leitlinien erarbeitet; Teile dieser Arbeit flossen in das Abschlussdokument ein.
Konkrete Systeme, die schon in Streitkräften genutzt werden
Die Kommission nennt mehrere Beispiele für bereits eingesetzte KI‑Systeme:
- die NATO‑Entscheidungshilfe FELIX
- Forschungsprogramme zur Beschleunigung der Entwicklung von Kampfflugzeugen
- operative Systeme wie Palantirs Maven Smart (in NATO‑Kontexten)
- Chinas ChatBIT (ein auf großen Sprachmodellen basierendes Chat‑System)
- autonome Streubomben vom Typ Harpy aus Israel
Politische Forderungen und nächste Schritte
Teilnehmende forderten eine klare rote Linie beim Einsatz von KI in Entscheidungen über Nuklearwaffen. Es wurden Rufe nach einem international verbindlichen Regelwerk für automatisierte, tödliche Waffensysteme laut.
Die Wissenschaftlerin Denise Garcia äußerte die Hoffnung auf eine gemeinsame EU‑Position, die als Grundlage für mögliche UN‑Vertragsgespräche dienen könnte. Die Kampagne „Stop Killer Robots“ hält neue internationale Gesetze zu autonomen Waffensystemen für umsetzbar und sieht in der UN‑Arbeitsgruppe zu tödlichen autonomen Waffen einen Ausgangspunkt — jetzt müsse der nächste Schritt folgen.
Quellen
- Quelle: Responsible AI in the Military Domain (REAIM)
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




