AWS bestätigt zwei KI-Zwischenfälle.
In Kürze
- Kiro & Amazon Q betroffen
- Kiro löschte Prod-Umgebung; 13h Ausfall
- AWS: zu großzügige Rechte; Schutzmaßnahmen eingeführt
Amazon bestätigt zwei Zwischenfälle mit internen KI-Coding-Tools — sieht Ursache aber bei Menschen
Amazon Web Services (AWS) stand in den vergangenen Monaten laut einem Bericht der Financial Times mindestens zweimal wegen Zwischenfällen mit internen KI-Coding-Tools im Fokus. Betroffen waren demnach die Assistenten Kiro und Amazon Q Developer. AWS bestreitet, dass die KI selbst die Ursache war, und spricht von falsch gesetzten Berechtigungen durch Mitarbeitende.
Was passiert ist
Mitte Dezember kam es dem Bericht zufolge zu einem 13-stündigen Ausfall, nachdem Ingenieure dem KI-Tool Kiro erlaubt hatten, Änderungen in einer Produktionsumgebung vorzunehmen. Kiro, ein sogenannter agentischer Assistent, löschte laut FT die betroffene Umgebung und erstellte sie anschließend neu.
In der Folge gab es intern ein Postmortem zum Ausfall des Services „AWS Cost Explorer“, eines Werkzeugs zur Visualisierung von AWS-Kosten.
Ein zweiter Vorfall betraf dem Bericht zufolge Amazon Q Developer. Insider sagten der FT, Ingenieure hätten den Agenten das Problem ohne Eingriff lösen lassen. Diese Ausfälle seien klein und vorhersehbar gewesen und hätten keinen kundenorientierten Service beeinträchtigt.
Amazons Darstellung
AWS erklärt in einem ausführlichen Statement, die Ursache liege in einem Benutzerfehler — konkret in falsch konfigurierten Zugriffskontrollen mit zu weitreichenden Berechtigungen — und nicht in autonomem Verhalten der KI. Nach Unternehmensangaben war beim Dezember-Ausfall nur ein einzelner Service in einer von zwei Regionen auf dem chinesischen Festland betroffen; Rechen-, Speicher-, Datenbank- oder andere KI-Dienste seien davon nicht betroffen gewesen.
Amazon betont weiter, es sei „reiner Zufall“, dass KI-Tools involviert waren, und dass die gleichen Fehler auch bei manuellen Eingriffen hätten passieren können. Man habe zudem keine Hinweise gefunden, dass Fehler mit KI-Tools häufiger vorkämen als ohne. Das Unternehmen fügt hinzu, Kiro frage standardmäßig vor Aktionen um Autorisierung und nach den Vorfällen seien „zahlreiche zusätzliche Schutzmaßnahmen“ implementiert worden. (Update 20. Feb. 2026: AWS lieferte das vollständige Statement und die genauere Bezeichnung des betroffenen Systems.)
Rechte, Kontrolle und nachträgliche Maßnahmen
Quellen der FT berichten, die KI-Tools seien wie menschliche Operatoren behandelt und mit denselben Rechten ausgestattet worden. In beiden Fällen habe es kein Vier-Augen-Prinzip gegeben — eine Maßnahme, die in der Regel für Produktionszugriffe verlangt wird. Nach dem Dezember-Vorfall habe AWS laut Bericht verpflichtetende Peer-Reviews für Produktionszugriffe eingeführt und zusätzliche Schulungen für Mitarbeitende umgesetzt.
Quellenlage
Die Darstellung stützt sich vor allem auf Recherchen der Financial Times, ergänzende Informationen stammen von Reuters sowie aus dem offiziellen Statement von AWS, das nach den Berichten veröffentlicht wurde.
Was bleibt
Der Fall zeigt, dass intern eingesetzte KI-Assistenten Aufgaben autonom ausführen können — und dass dabei Zugriffsrechte und Kontrollprozesse eine zentrale Rolle spielen. AWS sieht die Ursache bei Fehlkonfigurationen und nennt eine Reihe von Nachbesserungen; unabhängige Quellen betonen, dass die Tools zuvor mit hohen Rechten und ohne obligatorische Zweitprüfung gearbeitet hätten.
Quellen
- Quelle: Amazon / AWS
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




