NYT beendet Zusammenarbeit nach KI‑kopierter Buchrezension

06.04.2026 | Allgemein, KI

Die New York Times trennt sich von einem freien Autor, nachdem eine KI‑gestützte Rezension Passagen aus dem Guardian übernahm.

In Kürze

  • NYT sagt Zusammenarbeit mit Alex Preston auf wegen kopierter Textpassagen
  • Ein KI‑Tool übernahm offenbar Inhalte aus dem Guardian, das Preston nicht erkannte
  • Ähnlicher Fall bei Ars Technica: KI erzeugte erfundene Zitate

Die New York Times hat die Zusammenarbeit mit dem freien Journalisten Alex Preston beendet, nachdem eine von ihm verfasste Buchrezension mit Hilfe eines KI-Tools entstanden war — und offenbar Textpassagen aus einer älteren Besprechung im Guardian übernahm.

Was passiert ist

Preston hatte eine Rezension des Romans „Watching Over Her“ von Jean‑Baptiste Andrea eingereicht. Laut The Guardian stammten Teile des Textes offenbar wörtlich aus einer früheren Besprechung des Buchs von Christobel Kent im Guardian. Ein aufmerksamer Leser wies auf die Übereinstimmungen hin; Preston selbst hatte die Parallelen offenbar vor Abgabe nicht bemerkt. Er sagte dem Guardian, er sei „zutiefst beschämt“ und habe „einen schweren Fehler gemacht“.

Wie es dazu kam

Den Berichten zufolge nutzte Preston ein Programm zur Textgenerierung, das offenbar Inhalte aus dem Guardian-Artikel übernommen hat. Anhand des Ablaufs schließt die Berichterstattung darauf, dass das KI-Tool direkt Passagen kopierte und Preston dies nicht erkannt hatte.

Ein zweiter Fall bei Ars Technica

Ähnliche Probleme traten kurz darauf bei Ars Technica auf: Dort veröffentlichte ein Redakteur einen Beitrag, der angeblich Zitate aus einem Entwicklerblog enthielt. Die Zitate waren komplett erfunden. Der betroffene Entwickler hatte ChatGPT den Zugriff auf seine Seite untersagt; trotzdem hatte der Redakteur sich auf die sogenannte Internet‑Crawling-Funktion von ChatGPT verlassen. Laut The Guardian wurden die Zitate von der KI anhand von Eingaben (Prompts) und einer URL frei erzeugt, ohne dass die Quelle existierende Aussagen lieferte.

Gemeinsame Merkmale

Beide Fälle betreffen journalistische Texte, bei denen KI‑gestützte Werkzeuge eine zentrale Rolle spielten und danach fehlerhafte oder nicht belegte Inhalte in Veröffentlichungen auftauchten. In beiden Meldungen spielen Hinweise von Dritten (ein Leser; der betroffene Entwickler) sowie die Selbstangaben der Beteiligten eine Rolle bei der Aufklärung.

Quellen

  • Quelle: The New York Times
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Studie: KI-Modelle werden bei Angriffen rasant besser

Studie: KI-Modelle werden bei Angriffen rasant besser

Lyptus‑Studie übersetzt KI-Angriffsleistung in Zeitwerte und zeigt, wie schnell Modelle bei Exploits zulegen.In KürzeOffensive Leistung verdoppelt sich im Schnitt alle 9,8 Monate; seit 2024 ~5,7 MonateHöheres Token‑Budget steigert Erfolgsraten deutlich; METR misst das...