BBC-Studie: KI-Assistenten liefern häufig falsche Informationen

16.02.2025 | KI

Eine aktuelle BBC-Studie zeigt, dass KI-Assistenten wie ChatGPT und Google Gemini oft ungenaue Informationen liefern.

In Kürze

  • 51 Prozent der Antworten waren erheblich ungenau.
  • Fehlende Quellen und falsche Fakten sind weit verbreitet.
  • Die BBC fordert strengere Richtlinien für den Einsatz von KI-Systemen.

Die BBC-Studie zu KI-Assistenten

Die BBC hat in einer aktuellen Studie festgestellt, dass KI-Assistenten wie ChatGPT, Microsoft Copilot und Google Gemini häufig ungenaue Informationen liefern. In einem Test, an dem 45 Journalisten teilnahmen, wurden 100 aktuelle Fragen an diese Systeme gerichtet. Das Ergebnis war eine Vielzahl von ungenauen Antworten, fehlenden Quellen und sachlichen Fehlern.

Ergebnisse der Studie

Über die Hälfte der Antworten – genau 51 Prozent – wiesen erhebliche Ungenauigkeiten auf. Dies reichte von falschen Fakten bis hin zu komplett fehlenden Quellen. Ein besonders auffälliges Beispiel lieferte Google Gemini, das fälschlicherweise angab, der britische Gesundheitsdienst rate vom Vaping ab, während tatsächlich das Gegenteil der Fall ist. Auch ChatGPT und Perplexity hatten Schwierigkeiten: Hier wurden erfundene Todesdaten und falsche Informationen über Personen präsentiert.

Probleme mit Quellen

Ein weiteres Problem der KI-Systeme ist der Umgang mit Quellen. Oft wurden veraltete Artikel zitiert oder Meinungen als Tatsachen dargestellt. Microsoft Copilot beispielsweise berief sich auf eine alte Berichterstattung und stellte diese als aktuelle Quelle dar. Dies führt nicht nur zu Verwirrung, sondern kann auch gefährliche Fehlinformationen zur Folge haben.

Forderungen der BBC

Die BBC fordert nun strengere Richtlinien für den Einsatz von KI-Systemen, um sicherzustellen, dass falsche Informationen nicht verbreitet werden, insbesondere wenn sie sich auf die BBC als Quelle stützen. Zudem wird vorgeschlagen, unabhängige Prüfer für zukünftige Studien einzusetzen und die Fehler von Menschen und Maschinen zu vergleichen.

Ausblick

Die Untersuchung der BBC ist nur der Anfang. Sie betonen, dass das volle Ausmaß der Probleme noch nicht bekannt ist. Selbst die Unternehmen hinter diesen KI-Systemen scheinen sich nicht im Klaren darüber zu sein, wie viele Fehler ihre Produkte tatsächlich aufweisen. Dies wirft Fragen auf und verdeutlicht, dass beim Thema KI noch viel Arbeit vor uns liegt.

Quellen

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…