Studie: KI beschleunigt Programmier-Lernen nicht automatisch.
In Kürze
- KI-Gruppe: −17% im Wissenstest
- Kein Zeitvorteil
- Nutzungsstil entscheidet
Du willst mit KI schneller Programmieren lernen? Eine Studie von Anthropic legt nahe: Nicht automatisch.
Kurz und knapp
52 Python-Entwicklerinnen und -Entwickler (vorwiegend jung, mindestens ein Jahr Praxiserfahrung, alle schon mit KI-Assistenten vertraut, aber ohne Vorkenntnisse der getesteten Trio‑Bibliothek) wurden zufällig in zwei Gruppen geteilt. Eine Gruppe durfte einen KI-Assistenten auf Basis von GPT‑4o nutzen, die andere arbeitete nur mit Dokumentation und Websuche. Beide sollten zwei Aufgaben mit der neuen Trio‑Bibliothek so schnell wie möglich lösen und anschließend einen Wissenstest absolvieren.
Was kam raus?
- Im Mittel schnitten die KI-Nutzenden im Wissenstest 17 Prozent schlechter ab als die Kontrollgruppe.
- Zeitlich gab es keinen klaren Vorteil: Insgesamt war die KI-Nutzung nicht signifikant schneller.
- Eine Auswertung von Bildschirmaufnahmen (51 Teilnehmende) zeigte sechs typische Nutzungsweisen der KI — mit sehr unterschiedlichen Lernergebnissen.
Sechs Nutzungsstile, große Unterschiede
Die Forschenden fanden drei Verhaltensmuster, die zu besonders schlechten Testergebnissen führten (Quiz-Scores zwischen 24 und 39 %):
- vollständige Delegation an die KI (am schnellsten, aber nur ~39 % im Test)
- erst eigenständiges Arbeiten, dann zunehmend auf KI-Lösungen vertrauen
- wiederholtes Debuggen mithilfe der KI, ohne die Fehlerursachen selbst zu verstehen (am schlechtesten)
Drei andere Muster bewahrten das Verständnis (Scores 65–86 %):
- Code von der KI generieren lassen und danach gezielt Verständnisfragen stellen (besonders effektiv)
- gleichzeitige Erklärungen während der Code-Generierung
- KI nur für konzeptuelle Fragen nutzen statt für komplette Lösungen
Warum schnitten KI-Nutzende schlechter ab?
Die Kontrollgruppe machte zwar mehr Fehler, musste diese aber selbst analysieren und beheben — ein Prozess, der offenbar echtes Verständnis fördert (beispielsweise bei spezifischen Trio-Fehlern wie RuntimeWarnings bei unerwarteten Coroutines). Manche KI-Nutzenden verbrachten zudem viel Zeit allein mit der Formulierung von Anfragen — in Einzelfällen bis zu 11 Minuten nur, um die richtige Eingabe für den Assistenten zu finden. Nur rund 20 % der KI-Gruppe setzten die KI ausschließlich zur Code-Erzeugung ein; diese waren zwar schneller, hatten aber die schlechtesten Lernergebnisse.
Was die Autor:innen daraus ableiten
Die Forschenden warnen, dass eine zu starke Integration von KI langfristig Fertigkeiten wie Code-Review und Debugging schwächen könnte — besonders relevant bei sicherheitskritischen Systemen. Sie betonen außerdem, dass Produktivität durch KI nicht automatisch mit tiefer Kompetenz gleichzusetzen ist: Kognitive Anstrengung und aktives Verstehen bleiben wichtig. KI-gestützte Hilfe, die gezielt Erklärungen liefert oder konzeptionelle Fragen beantwortet, scheint den Lernerfolg eher zu erhalten.
Einschränkungen der Studie
Die Untersuchung beschränkt sich auf eine einstündige Aufgabe mit einer Chat-basierten Schnittstelle. Agentenbasierte Systeme, die noch mehr Arbeit abnehmen, könnten den beobachteten Effekt verstärken — das wurde hier nicht getestet. Die Forschenden erwähnen außerdem, dass ähnliche Effekte in anderen Bereichen plausibel sind (etwa beim Schreiben oder Konzipieren), aber nicht überprüft wurden.
Bemerkung zur Veröffentlichung
Auffällig: Anthropic hat die Ergebnisse offen publiziert, obwohl sie potenziell gegen das eigene Geschäftsmodell (Verkauf von KI-Assistenten wie Claude) sprechen könnten.
Quellen
- Quelle: Anthropic
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




