Fehlerhafte KI-Informationen: Richter ziehen Entscheidungen zurück

24.10.2025 | Allgemein, KI

Ein Vorfall in den USA zeigt die Risiken von KI in der Justiz auf.

In Kürze

  • Zwei Richter mussten Entscheidungen wegen fehlerhafter KI-Infos zurückziehen.
  • US-Senator äußert Bedenken zur Integrität der Justiz.
  • Neue Beweisregelungen könnten KI-generierte Beweise akzeptieren.

Aktueller Vorfall in den USA: Einfluss von Künstlicher Intelligenz auf die Justiz

In den USA sorgt ein aktueller Vorfall für Aufsehen: Zwei Bundesrichter mussten kürzlich Entscheidungen zurückziehen, die durch fehlerhafte Informationen aus Künstlicher Intelligenz (KI) beeinflusst wurden. Diese sogenannten „Halluzinationen“ der KI führen dazu, dass Systeme fiktive Studien, Zitate oder sogar Präzedenzfälle erfinden – und das hat nun direkte Auswirkungen auf die Justiz.

Richter Wingate und Richter Neals im Mittelpunkt

Richter Wingate und Richter Neals stehen im Mittelpunkt dieser Kontroversen. Wingate gab zu, dass ein Mitarbeiter die KI-Plattform Perplexity genutzt hatte, während Neals einem Praktikanten die Verantwortung zuschrieb, der unautorisiert mit ChatGPT arbeitete. Beide Richter betonten, dass normalerweise eine gründliche Überprüfung der Entscheidungen stattfindet, doch in diesen speziellen Fällen wurde diese Sorgfaltspflicht vernachlässigt. Sie haben sich nun verpflichtet, in Zukunft genauer hinzusehen.

Integrität der US-Justiz in Frage gestellt

Die Bedenken über die Integrität der US-Justiz sind nicht unbegründet. US-Senator Charles Grassley äußerte seine Sorgen und stellte den Richtern Fragen zu den Vorfällen. Die zuständige Bundesgerichtsverwaltung hat mittlerweile allgemeine Richtlinien zum Einsatz von KI veröffentlicht. Diese sind jedoch eher vage und warnen lediglich zur Vorsicht, ohne strikte Verbote auszusprechen.

Neue Beweisregelungen und ihre Implikationen

Ein weiterer Aspekt, der die Diskussion anheizt, ist der Entwurf neuer Beweisregelungen. Diese sehen vor, dass KI-generierte Beweise grundsätzlich akzeptiert werden können, sofern sie als hilfreich und verlässlich gelten. Das wirft Fragen auf: Wie verlässlich sind diese Systeme wirklich, und wie kann man sicherstellen, dass die Justiz nicht auf fehlerhafte Informationen angewiesen ist?

Zukunft der KI in der Justiz

Die Debatte um den Einsatz von KI in der Justiz wird sicherlich weitergehen, und es bleibt abzuwarten, wie sich die Richtlinien entwickeln werden.

Quellen

  • Quelle: US-Bundesgerichte
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…