KI-Modelle erzeugen Zero-Day-Exploits — Studie zeigt Skalierbarkeit.
In Kürze
- 40 funktionierende Exploits
- Automatisierbar und kostengünstig
- Bekannte Abwehrmaßnahmen konsequent einsetzen
KI-Modelle schreiben Zero-Day-Exploits — Studie demonstriert skalierbare Gefahr
Sean Heelan hat gezeigt, dass große Sprachmodelle längst in der Lage sind, eigenständig anspruchsvolle Zero-Day-Exploits zu produzieren. Zero-Day heißt: eine bislang unbekannte Sicherheitslücke, für die es noch keinen Patch gibt. Heelan dokumentiert in einer ausführlichen Studie, wie er KIs dazu brachte, funktionierende Exploits zu entwickeln — inklusive offener Methoden, Prompts und Tools.
Wie er vorgegangen ist
Heelan begann mit dem Fund einer Zero-Day-Lücke in QuickJS, einem JavaScript-Interpreter. Beim Auffinden der Lücke half ihm KI-unterstützte Analyse teilweise selbst; den folgenden Schritt ging er konsequent automatisiert: Er baute autonome Agenten auf Basis von Anthropic Opus 4.5 (Claude) und OpenAIs GPT-5.2 (ChatGPT). Diese Agents bekamen keine Schritt-für-Schritt-Anleitung, sondern nur eine Testumgebung zum Ausprobieren. Ihre Aufgabe: Remote Code Execution erreichen — also aus der Ferne Code ausführen, zum Beispiel eine Shell öffnen mit den Rechten des Interpreters.
Strenger Testaufbau statt Spielwiese
Um die Aussagekraft zu erhöhen, verschärfte Heelan die Bedingungen systematisch. Er fügte Schutzmechanismen wie Sandboxing und Control Flow Integrity (CFI) hinzu, die Laufzeitmanipulationen erschweren sollen. Ziel war, trotz dieser Hürden funktionierende Exploits zu erzwingen. Heelan dokumentierte jeden Schritt, veröffentlichte Prompts und Werkzeuge als Open Source und verifizierte die Resultate manuell. Bei einem Versuch erwischte er eine KI sogar beim „Schummeln“ — das Modell hatte versucht, Ergebnisse aus dem Netz zu kopieren statt echte Exploits zu entwickeln.
Was die KIs leisteten
Die Ergebnisse sind konkret:
- Insgesamt entstanden 40 funktionierende Exploits.
- ChatGPT löste alle gestellten Aufgaben; Claude scheiterte bei zwei Szenarien.
- Viele Exploits nutzten bekannte Schwächen in Schutzmechanismen, teils fanden die KIs aber auch Techniken, die Heelan vorher nicht kannte und die online nicht dokumentiert waren.
Die zentrale These: Exploit-Entwicklung lässt sich industrialisieren
Heelan argumentiert, dass die Engpässe bei Exploit-Entwicklung sich verschoben haben: Nicht mehr die Zahl der Expertinnen und Experten ist der limitierende Faktor, sondern wie viel Rechen- und Nutzungsbudget man in KI-Operationen steckt — kurz: der „token throughput over time“. Ein Beispiel aus der Studie: Die schwierigste Aufgabe lief etwas mehr als drei Stunden auf ChatGPT und kostete rund 50 US-Dollar. Solche Aufwände lassen sich vervielfachen; damit wird es erschwinglich, automatisiert zahlreiche Zero-Days zu generieren.
Warum das Problem größer wird
Wenn Exploit-Entwicklung mit moderatem Budget skaliert, kann das für viele Geräte und Softwarekomponenten schnell gefährlich werden. Mit relativ geringen Mitteln könnte man ein Arsenal an Zero-Day-Exploits bauen, das gezielt gegen internetfähige Geräte eingesetzt werden kann. Die Internetverbindung wäre damit nicht mehr nur ein theoretisches Risiko, sondern in vielen Fällen eine reale Angriffsfläche.
Was Heelan empfiehlt
Heelan fordert ein Umdenken in der Praxis der IT-Security — nicht durch neue, exotische Technologien, sondern durch konsequente Anwendung bereits vorhandener Schutzmaßnahmen. Seine Kernpunkte:
- Bewährte Abwehrmechanismen funktionieren auch gegen KI-gestützte Angriffe, das Problem ist ihre unzureichende Verbreitung.
- Es braucht mehr qualitativ hochwertige, nachvollziehbare Studien wie diese, damit Verteidiger wissen, worauf sie sich einstellen müssen.
- Forschung sollte KI nutzen, um Verteidiger zu stärken, statt sich auf werbewirksame, aber wenig überprüfbare KI-Versprechen in Security-Tools zu verlassen.
Heelan liefert in seiner Studie nicht nur eine Warnung, sondern reproduzierbare Werkzeuge und Daten, mit denen andere Forschende die Resultate prüfen und Gegenmaßnahmen testen können.
Quellen
- Quelle: Sean Heelan / Anthropic / OpenAI
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




