Zwei Enisa‑Berichte enthalten viele fehlerhafte oder erfundene Quellen. Forschende sehen Hinweise auf KI‑Halluzinationen und kritisieren mangelnde Prüfprozesse.
In Kürze
- Zahlreiche fehlerhafte oder erfundene Quellen in zwei Berichten
- Fehlermuster deuten auf KI‑Halluzinationen hin
- Kritik an fehlender manueller Überprüfung und Verantwortung
EU-Cybersicherheitsagentur Enisa steht wegen erfundener Quellen in der Kritik
In zwei Berichten, die Enisa im Oktober und November veröffentlicht hat, sind offenbar zahlreiche Quellen erfunden oder fehlerhaft angegeben worden. Forschende der Westfälischen Hochschule stießen auf inkonsistente Textstellen und viele nicht funktionierende Links. Der Spiegel berichtete zudem, in einem der Dokumente seien etwa 26 von 492 Fußnoten fehlerhaft gewesen.
Was genau schieflief?
Ungewöhnliche Fehlermuster ähneln denen, die man von KI-Sprachmodellen kennt: So tauchte in einem Verweis die Bezeichnung „Midnight Blizzard“ auf, während die Hackergruppe in anderen Zusammenhängen als APT29 bezeichnet wird — eine Inkonsistenz, die Experten als Hinweis auf sogenannte Halluzinationen einer KI werten. Halluzinieren heißt hier, dass das Modell plausible, aber falsche oder nicht überprüfbare Quellen erzeugt.
Enisa räumt Fehler ein
Die Agentur selbst spricht von „Mängeln“, führt die Probleme auf „menschliche Fehler“ zurück und erklärt, die eingesetzte KI habe nur „kleinere redaktionelle Überarbeitungen“ vorgenommen. Zur Einordnung: Enisa verfügt über ein jährliches Budget von rund 27 Millionen Euro.
Kritik von Forschenden und Aktivisten
Christian Dietrich von der Westfälischen Hochschule kritisierte das Vorgehen scharf: „Man hätte nur einmal draufklicken müssen“, sagte er und betonte, dass eine öffentliche Stelle, die verlässliche Berichte bereitstellen soll, Quellen prüfen müsse. Linus Neumann vom Chaos Computer Club nannte das Vorgehen „blamabel“ und warnte davor, dass solche Nachlässigkeiten dem Ruf der Behörde schaden könnten.
Was das zu bedeuten hat
Forschende und Sicherheitsexpert:innen weisen darauf hin, dass KI-Tools zwar bei der Textarbeit unterstützen können, aber manchmal überzeugend klingende, falsche Quellen erzeugen. Bei offiziellen Berichten werde deshalb die manuelle Überprüfung und Nachverifikation der Quellen als notwendig angesehen — eine Aufgabe, die weder automatische Werkzeuge noch reine Redaktionsschritte komplett ersetzen dürfen.
Quellen
- Quelle: Enisa
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




