Kohl‑Verlag soll KI‑Texte und -Bilder in Schulheften unmarkiert verwendet haben.
In Kürze
- Pseudonym mit Stockfoto
- Typische KI‑Fehler in Bildern und Aufgaben
- Verlag korrigiert digital, antwortet lückenhaft
Künstliche Intelligenz in Schulheften — ohne Hinweis, ohne Qualitätssicherung
Der Kohl-Verlag aus Kerpen steht laut Recherchen des Spiegel unter Beschuss: In Arbeitsheften für inklusiven Unterricht sollen Texte und Illustrationen von Künstlicher Intelligenz (KI) stammen — ohne dass das in den Heften gekennzeichnet wurde. Die Recherche zeigt dabei mehrere Auffälligkeiten, die Fragen zur Herkunft und Qualität der Materialien aufwerfen.
Pseudonym mit Stockfoto statt echter Autorin
Die Hefte waren unter dem Autorennamen „Anni Kolvenbach“ veröffentlicht. Dieses Profil erwies sich als Pseudonym: Das dazu verwendete Foto ist ein käufliches Stockbild, und die auf Verlagsseiten genannten Illustratoren ließen sich außerhalb dieser Veröffentlichungen nicht nachweisen. Der Verlag gab an, hinter „Anni Kolvenbach“ würden mehrere freiberufliche Mitarbeitende stehen. Einer dieser Mitwirkenden meldete sich zunächst anonym beim Spiegel, sagte, er sei Lehrer und habe im Namen des Pseudonyms Interviewfragen beantwortet; später machte er seine Identität publik.
Typische KI-Fehler in Bildern und Aufgaben
In vielen Illustrationen fanden die Recherchierenden typische KI-Fehler:
- Kinder ohne Körper oder mit einem Kopf, der in einem Regal steckt
- ein Elefant ohne Rüssel
- deformierte Tiere
- Lehrkräfte mit mehr als fünf Fingern
Auch bei Rechenaufgaben passten oft die abgebildeten Symbole nicht zur Aufgabenstellung — etwa fünf Gegenstände zu einer Aufgabe mit der Zahl vier. Pädagoginnen und Pädagogen kritisierten außerdem, dass Texte zur Geschichte in höheren Jahrgangsstufen fachlich unzureichend eingeordnet seien.
Verlag nimmt Korrekturen vor, antwortet aber nur teilweise
Nach Bekanntwerden der Mängel hat der Verlag laut Spiegel bereits Korrekturen in den Digitalversionen der Hefte vorgenommen. Auf Nachfragen zu interner Qualitätskontrolle und dem konkreten Einsatz von KI hat der Verlag jedoch nicht umfassend reagiert; auch heise online bat um eine Stellungnahme, erhielt aber offenbar keine vollständigen Antworten.
Reaktionen aus Bildung, Buchhandel und EU-Kontext
Der Deutsche Lehrerverband warnte generell davor, dass KI‑generierte Inhalte Unterricht und Hausaufgaben gefährden können, weil Lehrkräfte oft schwer erkennen, was von KI stammt. Als Beispiel nannten Verbandsvertreter falsch gezeichnete Länder auf Karten — etwa die Sowjetunion in Südfrankreich oder Polen, das doppelt eingezeichnet war. Der Börsenverein des Deutschen Buchhandels verwies auf Risiken in Bezug auf Urheberrecht und Qualitätssicherung.
- Deutscher Lehrerverband: warnte vor Gefährdungen für Unterricht und Hausaufgaben und nannte Beispiele falsch gezeichneter Länder
- Börsenverein des Deutschen Buchhandels: verwies auf Risiken in Bezug auf Urheberrecht und Qualitätssicherung
- ENISA (EU‑Cybersicherheitsagentur): als weiteres Beispiel für Vertrauensprobleme — die Behörde musste zugeben, dass zwei Berichte erfundene, von einer KI „halluzinierte“ Quellen enthielten
Autor bestreitet KI‑Einsatz bei Texten
Der Mann, der sich als einer der Autoren zu erkennen gab, erklärte, er habe den Auftrag gehabt, alle Hefte zu überarbeiten. Den Einsatz von KI bei den Texten bestreitet er laut Bericht.
Offene Fragen bleiben
Der Fall zeigt nach den Recherchen mehrere offene Punkte:
- Wer genau welche Inhalte erstellt hat
- in welchem Umfang KI zur Bild- oder Textproduktion eingesetzt wurde
- wie der Verlag Qualitätssicherung handhabt
Der Verlag hat digitale Korrekturen angekündigt bzw. umgesetzt, zu weiteren Details und Prüfmechanismen beantwortete er Fragen bislang nur teilweise.
Quellen
- Quelle: Kohl-Verlag
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




