Lyptus‑Studie übersetzt KI-Angriffsleistung in Zeitwerte und zeigt, wie schnell Modelle bei Exploits zulegen.
In Kürze
- Offensive Leistung verdoppelt sich im Schnitt alle 9,8 Monate; seit 2024 ~5,7 Monate
- Höheres Token‑Budget steigert Erfolgsraten deutlich; METR misst das in Stunden
- Open‑Source‑Modelle liegen im Mittel etwa 5,7 Monate hinter kommerziellen Systemen
KI-Modelle werden bei Angriffsszenarien deutlich schneller besser — das ist die Kernbotschaft einer neuen Studie von Lyptus Research. Die AI‑Safety‑Firma hat mit ihrer METR‑Zeithorizont‑Methode und einem Team aus zehn Sicherheitsexpert:innen untersucht, wie gut große Modelle bei Exploit‑ und Angriffsaufgaben abschneiden — und kommt zu teils überraschenden Zahlen.
Wer hat untersucht und wie?
Lyptus Research ist als AI‑Safety‑Organisation auf Sicherheitsfragen spezialisiert. Für die Studie wurden 291 verschiedene Angriffs‑ und Exploit‑Aufgaben getestet. Zur Bewertung nutzten die Forscher die sogenannte METR‑Zeithorizont‑Methode, die KI‑Leistung in eine Zeitmetrik überträgt — also in etwa: Wie lange würde ein menschlicher Experte für dieselbe Aufgabe brauchen?
Was wurde gemessen?
Grob gesagt ging es um die offensive Cyberfähigkeit von KI‑Modellen, also darum, wie gut sie bei Aufgaben abschneiden, die Angriffe, Exploits oder Sicherheitsumgehungen erfordern. Als weitere Variable betrachteten die Forschenden das Token‑Budget — also wie viel Text bzw. Kontext das Modell verarbeiten darf. Ein größeres Token‑Budget kann die Leistungsfähigkeit deutlich erhöhen.
Die wichtigsten Ergebnisse in Zahlen
- Tempo des Fortschritts: Seit 2019 hat sich die offensive Leistungsfähigkeit der getesteten Modelle im Schnitt etwa alle 9,8 Monate verdoppelt. Ab 2024 beschleunigte sich dieser Zuwachs sogar auf rund alle 5,7 Monate.
- Konkrete Modellperformance: Mit einem Token‑Budget von 2 Millionen erreichen Modelle wie Opus 4.6 und GPT‑5.3 Codex bei den getesteten Aufgaben eine etwa 50‑Prozent‑Erfolgsrate. Laut Studie bräuchten menschliche Expert:innen für dieselben Aufgaben ungefähr drei Stunden.
- Wirkung des Token‑Budgets: Erhöhst du das Token‑Budget, steigt die gemessene Leistungsfähigkeit stark an. Bei GPT‑5.3 Codex verändert sich die METR‑Zeithorizont‑Zahl bei 10 Millionen Token von 3,1 auf 10,5 Stunden — die Methode übersetzt also eine Leistungssteigerung in greifbare Zeitwerte.
- Open Source vs. kommerzielle Modelle: Open‑Source‑Modelle lagen in der Analyse im Mittel etwa 5,7 Monate hinter geschlossenen/kommerziellen Modellen.
Was bedeutet das praktisch?
Die METR‑Zeithorizont‑Methode soll helfen, technische Leistungskennzahlen in eine verständliche Größeneinheit (Zeit) zu übertragen. Das Token‑Budget fungiert dabei als eine Art Ressourcenmaß: Je mehr Kontext oder Eingabe du dem Modell gibst, desto besser kann es bei komplexen, sequenziellen Aufgaben abschneiden. Die Autor:innen der Studie schreiben außerdem, dass das tatsächliche Angriffsrisiko durch KI wahrscheinlich noch unterschätzt wird.
Daten und Bericht
Alle verwendeten Daten sind laut Lyptus Research öffentlich zugänglich — auf GitHub und Hugging Face — und ein ausführlicher Bericht wurde von der Organisation veröffentlicht.
Quellen
- Quelle: Lyptus Research
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




