Scout AI: Ein Textbefehl koordinierte autonome Angriffe.
In Kürze
- 100-Mrd-LLM plant Einsätze
- Kompaktmodelle steuern Fahrzeuge
- US-Armee fördert; Kontrolle offen
Stell dir vor, du gibst einen kurzen Textbefehl ein — und eine KI koordiniert ein komplettes Gefechtsteam: Routenplanung, Aufklärung, Einsatz von Drohnen und Fahrzeugen, bis hin zur Detonation eines Sprengsatzes. Genau das hat das kalifornische Startup Scout AI nach eigenen Angaben demonstriert.
Was Scout AI zeigte
Bei der Vorführung soll ein Bediener einfach einen Auftrag in ein Textfeld eingegeben haben („Schicke ein Bodenfahrzeug zum Kontrollpunkt, starte zwei Drohnen, zerstöre den blauen Lastwagen östlich des Flugplatzes“). Scout AI berichtet, die Software habe daraus eigenständig einen Plan erstellt, ein Geländefahrzeug ins Zielgebiet gesteuert, Drohnen eingesetzt und eine Drohne habe angeblich selbstständig einen Sprengsatz ausgelöst — nach Unternehmensangaben ohne Fernsteuerung oder vorprogrammierte Abläufe.
Wie das technisch funktioniert
Die Software läuft unter dem Namen Fury Autonomous Vehicle Orchestrator und arbeitet mehrstufig:
- An der Spitze steht ein sehr großes Sprachmodell mit mehr als 100 Milliarden Parametern. Dieses Modell übersetzt den Freitext-Befehl in konkrete Teilaufträge und koordiniert das Vorgehen.
- Auf den einzelnen Drohnen und Fahrzeugen laufen kompaktere Modelle (etwa zehn Milliarden Parameter), die die Teilaufträge in lokale Aktionen umsetzen.
Scout AI hebt hervor, dass Fury flexibler agieren soll als ältere Drohnen-Software: Anstatt starr vordefinierte Regeln abzuarbeiten, könne das System spontan umplanen, wenn sich die Lage ändert.
Wer beteiligt ist — und was das US-Militär vorhat
Die US-Armee fördert Projekte zur Autonomie von Waffensystemen. Im August 2025 vergab sie drei Aufträge im Gesamtwert von rund 15,5 Millionen US-Dollar an Scout AI, Forterra und Overland AI. Ziel ist, die Autonomie-Software in Infanterietruppentransporter zu integrieren; Prototypen sollen bis Mai 2026 bereitstehen, damit Soldaten die Technik im Feld testen können.
Scout AI arbeitet bei der Fahrzeugintegration mit Textron Systems zusammen und lässt Sicherheitsprüfungen von Edge Case Research durchführen. Dem Unternehmen zufolge bestehen vier Verträge mit dem Pentagon; ein weiterer Vertrag zur Steuerung ganzer Drohnenschwärme befindet sich in Vorbereitung.
Offene Fragen und Bedenken
Trotz der Demonstration bleibt Vieles ungeklärt. Mehrere Experten weisen darauf hin, dass Schauvorführungen nicht automatisch einsatzreife, verlässlich sichere Systeme bedeuten — eine Mahnung, die etwa Michael Horowitz von der University of Pennsylvania formuliert hat. Sprachmodelle sind fehleranfällig; auf einem Gefechtsfeld können Fehlentscheidungen lebensgefährliche Folgen haben. Ob die Systeme zuverlässig zwischen Kombattanten und Zivilisten unterscheiden können, ist nach wie vor unklar.
Auch die Frage der menschlichen Kontrolle ist widersprüchlich beantwortet: Scout AI betont, ein Bediener bleibe stets zur Überwachung eingebunden. Ein Bericht von Wired beschreibt die Vorführung hingegen so, dass die KI-Agenten weitgehend freie Hand hatten, inklusive der Entscheidung zum Angriff. Wie viel Kontrolle Menschen tatsächlich behalten, wenn Algorithmen in Bruchteilen von Sekunden handeln, bleibt offen.
Quellen
- Quelle: Scout AI
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




