Kontrollierte Experimente aus UK und den USA zeigen: Kurzzeit‑Assistenz durch KI kann nach Entfernen der Hilfe die eigene Leistung mindern.
In Kürze
- 10–15 Minuten KI‑Unterstützung senken die Leistung im nachfolgenden Test
- Am stärksten betroffen: Nutzer, die direkt Antworten abholen
- Empfehlung: KI‑Designs, die Fragen stellen und selbstständiges Arbeiten fördern
Schon 10–15 Minuten mit einer KI reichen, um deine Leistung später merklich zu schwächen — das ist das Ergebnis kontrollierter Experimente aus den USA und Großbritannien. Sobald die KI weg war, schnitten Nutzer, die vorher Hilfen bekommen hatten, schlechter ab als Teilnehmende, die von Anfang an ohne Assistenz gearbeitet hatten.
Wie die Versuche aussahen
In einem ersten Experiment lösten Probanden 15 Bruchrechenaufgaben. Eine Gruppe hatte in einer Seitenleiste Zugriff auf GPT‑5, das zu jeder Aufgabe sofort Lösungen lieferte; die Kontrollgruppe arbeitete ohne Hilfsmittel. Nach zwölf Aufgaben wurde die KI ohne Ankündigung entfernt. Anschließend bearbeiteten alle drei identische Testaufgaben allein. Die ehemaligen KI‑Nutzer machten mehr Fehler und übersprangen fast doppelt so viele Aufgaben wie die Kontrollgruppe. Weil es keine Strafpunkte und keine leistungsabhängige Bezahlung gab, interpretieren die Forschenden das Überspringen als Indikator für geringere Ausdauer und Motivation.
Robuste Replikation — mit Abstrichen
Ein zweiter Durchgang beseitigte methodische Unsicherheiten des ersten Versuchs (zum Beispiel einen Vortest und identische Seitenleisten für beide Gruppen). Auch hier zeigte sich: Die KI‑Gruppe lieferte im unassistierten Test schlechtere Ergebnisse. Die erhöhte Abbruchrate war zwar in dieselbe Richtung, aber in der Gesamtanalyse nicht stark genug, um als gesichert zu gelten — vermutlich wegen Unterschieden darin, wie die Teilnehmenden die KI nutzten.
Wer ist am stärksten betroffen?
Die Nutzungsweisen variierten deutlich: Etwa 61 % der KI‑Nutzer ließen sich direkte Antworten geben; rund ein Viertel bat um Hinweise oder Erklärungen; der Rest ignorierte die Seitenleiste weitgehend. Im Vortest unterschieden sich diese Gruppen nicht, doch im Test ohne KI verschlechterten sich vor allem die direkten «Antwort‑Holer». Wer die KI weitgehend ignorierte, erzielte sogar leicht bessere Resultate als die Kontrollgruppe. Die Forschenden sehen darin einen Hinweis, dass die negativen Effekte vor allem bei jenen auftreten, die Aufgaben delegieren statt sie zu bearbeiten.
Gleiches Muster beim Leseverständnis
Das Experiment wurde mit SAT‑Leseverständnisaufgaben wiederholt — und bestätigte das Muster: Die KI‑Gruppe löste weniger Aufgaben korrekt und übersprang häufiger. Antworten, die in unter fünf Sekunden abgegeben wurden, werteten die Forschenden ebenfalls als „übersprungen“, weil so ein Text kaum gelesen werden kann. Der Effekt beschränkt sich demnach nicht auf Mathematik, sondern betrifft auch kritisches Textverstehen.
Warum das passiert: zwei Mechanismen
Die Autor:innen schlagen zwei Erklärungen vor:
- Gewöhnung an sofortige Hilfe: Die KI verschiebt die Erwartung, wie lange eine Aufgabe dauern darf. Eigenes Arbeiten fühlt sich dadurch härter an, sodass eher abgebrochen wird. Das kann sich selbst verstärken: Wer öfter auslagert, wird weniger bereit sein, Anstrengung aufzubringen.
- Fehlender produktiver Kampf: Beim eigenen Ringen mit Problemen bauen Menschen Wissen und realistische Selbsteinschätzungen auf. Wenn die KI diese Auseinandersetzung ersetzt, fehlen diese Gelegenheiten zum Aufbau von Kompetenzen.
Folgen, Warnungen und Designvorschläge
Die Forschenden warnen, dass Systeme, die auf sofortige Hilfsbereitschaft optimiert sind, langfristig Grundfertigkeiten wie Bruchrechnen oder Leseverständnis untergraben könnten. Solche Basisfähigkeiten sind Bausteine für komplexere Aufgaben wie Algebra oder kritisches Denken. Besonders gefährdet sind demnach Schüler:innen mit weniger akademischen Ressourcen: Kleine Effekte nach kurzer Nutzung könnten sich über Monate oder Jahre aufsummieren und schwer rückgängig machen lassen.
Als Gegenmaßnahmen werden sokratische KI‑Modelle (die Fragen stellen statt fertige Lösungen zu liefern) oder Nutzungsbegrenzungen als eher oberflächliche Lösungen gesehen. Die Autor:innen plädieren für ein Umdenken im Systemdesign: weg von kurzfristiger Nutzerzufriedenheit, hin zu Funktionen, die Autonomie fördern und es erlauben, Aufgaben selbstständig zu üben — auch wenn das heißt, nicht immer sofort zu assistieren.
Einordnung mit früheren Befunden
Die neuen Experimente liefern stärkere, kausale Hinweise als frühere Umfragen oder kleinere Studien. Ähnliche Signale gab es bereits: Eine Studie der Swiss Business School fand eine starke negative Korrelation zwischen KI‑Nutzung und kritischem Denken, besonders bei 17–25‑Jährigen; ein höherer Bildungsgrad schützte leicht. Microsoft Research und Carnegie Mellon beschrieben die „Ironie der Automatisierung“ — wenn KI Routineaufgaben übernimmt, gehen Übungsmöglichkeiten verloren. Untersuchungen von Anthropic zeigten bei junioren Entwickler:innen, dass Zugang zu KI das Lernen neuer Bibliotheken hemmen kann; wer Erklärungen nutzte, litt weniger als reine Delegierer. Erfahrene KI‑Nutzer schneiden tendenziell etwas besser ab, weil sie iterativ und erklärungsorientiert mit Modellen arbeiten. Zugleich zeigen andere Studien, dass KI kurzfristig Einzelne und Teams leistungsfähiger machen kann — Unternehmen tun sich aber oft schwer, solche Gewinne in dauerhafte Effizienz‑ oder Umsatzsteigerungen zu überführen.
Quellen
- Quelle: Forschende mehrerer US-amerikanischer und britischer Universitäten
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.



