Georgetown-Studie: PLA testet KI in zahlreichen Militärprojekten.
In Kürze
- Von Drohnen bis Deepfakes
- Schnelle ziv.-mil. Iterationen
- Gefahren: Überautomatisierung, Täuschung, Datenlücken
Forscher der Georgetown University haben Tausende öffentliche Beschaffungsanträge der chinesischen Volksbefreiungsarmee (PLA) ausgewertet — und das Bild, das daraus entsteht, ist vielseitig: Peking testet KI in einer großen Bandbreite militärischer Anwendungen, von Drohnenschwärmen über autonome Unterwasserfahrzeuge bis zu Deepfakes und Entscheidungsunterstützungssystemen.
Was die Dokumente konkret zeigen
Die Anträge decken zahlreiche Projekte ab:
- Luft- und See-Drohnen
- Schwärme
- Roboterhunde
- humanoide Roboter
- autonome Unterwasserfahrzeuge
- Sensornetze
- und sogar Ideen für kleine Roboter, die sich an Satelliten anheften sollen
Auf der operativen Ebene geht es um:
- Schiffsverfolgung
- Zielerfassung an Land, auf See und im Weltraum
- Cyberabwehr
KI soll helfen, Signale zu erkennen, Ziele zu identifizieren und die Sensorik unterschiedlicher Plattformen zu vernetzen.
Ein besonders auffälliger Bereich sind Deepfakes und Informationsoperationen. Mehrere Anträge verlangen explizit Werkzeuge zur Erzeugung gefälschter Bilder, Videos und Audiodateien, mit dem Ziel, öffentliche Meinung zu beeinflussen oder die Wahrnehmung und Entscheidungen gegnerischer Akteure zu manipulieren. (Deepfakes sind KI-generierte Fälschungen, die echt aussehen oder klingen können.)
Außerdem suchen die PLA-Anträge nach Systemen zur Entscheidungsunterstützung: Modelle, die Bewegungen von Gegnern vorhersagen, virtuelle Schlachtfeld-Simulationen und Verhaltensmodelle, die fehlende Kampferfahrung vieler Offiziere ausgleichen sollen.
Wie China vorgeht
Die Forscher fassen Chinas Modernisierung in drei Phasen zusammen:
- Mechanisierung
- digitale Vernetzung von Plattformen und Sensoren
- intelligente Kriegsführung mit KI-gestützter Automatisierung und Entscheidungsfindung
Pekings Fokus liegt aktuell auf der dritten Phase — und zwar mit hoher Geschwindigkeit.
Statt auf einen großen Durchbruch zu warten, setzt China auf viele schnelle, kostengünstige Iterationen. Maßnahmen und Hebel sind unter anderem:
- Kurze Entwicklungszyklen
- Subventionen und Steueranreize
- Anpassung ziviler Technologien für militärische Zwecke durch Unternehmen
Diese zivile-militärische Verzahnung nutzt Chinas Stärken in Fertigung, Robotik und Batterietechnik: viele kleine Experimente, die zusammen einen Lernprozess beschleunigen.
Risiken und praktische Grenzen
Die Studie benennt mehrere Gefahren und Beschränkungen. Eine ist die Überautomatisierung: Wenn KI menschliches Urteilsvermögen ersetzen oder stark beeinflussen soll, steigt das Risiko falscher Interpretationen — besonders bei noch unerfahrenen Offizieren. Solche Fehlentscheidungen können zu Eskalationen führen.
Ein weiteres Thema ist die Täuschung der Informationsumgebung. Militärische Akteure könnten soziale Medien fluten oder Sensordaten manipulieren, um die KI-Systeme des Gegners zu täuschen. Solche Maßnahmen erhöhen die Komplexität von Konflikten und bergen das Risiko unbeabsichtigter Verschärfungen.
Praktische Hürden bleiben ebenfalls: Erfahrungen aus dem Ukraine-Krieg zeigen, dass Entwicklung autonomer Systeme nicht automatisch erfolgreichen Einsatz bedeutet. Dem PLA fehlen teils:
- spezialisierte, oft klassifizierte Datensätze
- reale Kampferfahrung, die nötig ist, damit KI-Systeme zuverlässig funktionieren — etwa bei der Auswertung militärischer Signaturen
Was das für die USA bedeutet
Die USA behalten laut Studie noch Vorteile:
- größere Rechenkapazitäten
- mehr technisches Personal
- umfangreichere operative Erfahrung
Allerdings behindern langsame Beschaffungsprozesse und politische Auseinandersetzungen mit führenden KI-Firmen die praktische Zusammenarbeit. Ein aktuelles Beispiel: Das KI-Unternehmen Anthropic wurde kürzlich als Lieferkettenrisiko eingestuft, was Kooperationen erschwert.
Die Georgetown-Forscher empfehlen dem Pentagon engere Partnerschaften mit führenden KI-Laboren — über reine Lizenzkäufe hinaus. Konkret schlagen sie vor:
- Feldingenieure und Datenwissenschaftler direkt einzubinden, um Modelle praktisch zu testen und zu verbessern
- Regeln für den Umgang mit KI-gestützter Täuschung zu entwickeln
- diplomatische Kanäle für Normen zum verantwortungsvollen Einsatz militärischer KI zu nutzen
Die Studie dokumentiert, wie breit und experimentell China KI im Militär erprobt. Viele einzelne Projekte mögen scheitern, doch durch schnelle Wiederholungen lernt das System insgesamt — und das ist Teil der Strategie, die Fähigkeiten rasch auszubauen und den Abstand zu anderen Militärmächten zu verringern. Die Forscher betonen, dass am Ausgang dieses technologischen Wettlaufs vor allem derjenige Faktor mitentscheidet, welche Seite schneller verlässliche, skalierbare Systeme entwickelt und zugleich Regeln für deren Einsatz etabliert.
Quellen
- Quelle: People’s Liberation Army (PLA) / Georgetown University (CSET)
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




