Studie zeigt: KI bewertet Ostdeutsche systematisch schlechter

12.10.2025 | Allgemein, KI

Eine neue Studie der Hochschule München deckt Vorurteile in KI-Sprachmodellen auf, die Ostdeutsche benachteiligen.

In Kürze

  • Ostdeutsche werden in KI-Analysen schlechter bewertet
  • Sachsen-Anhalt schneidet besonders negativ ab
  • Vorurteile können reale Folgen im Alltag haben

Studie über Vorurteile in KI-Sprachmodellen

Eine aktuelle Studie der Hochschule München bringt Licht ins Dunkel der Vorurteile, die große KI-Sprachmodelle wie ChatGPT und das deutsche Pendant LeoLM gegenüber Ostdeutschen hegen. Die Forscherinnen Anna Kruspe und Mila Stillman haben sich intensiv mit der Frage beschäftigt, wie diese KI-Systeme, die auf riesigen Datenmengen aus dem Internet basieren, die Eigenschaften von Menschen aus verschiedenen deutschen Bundesländern bewerten. Das Ergebnis ist alarmierend: Ostdeutsche Bundesländer und deren Bewohner werden systematisch schlechter bewertet als ihre westdeutschen Pendants.

Besondere Bewertung von Sachsen-Anhalt

Besonders ins Auge fällt die Bewertung von Sachsen-Anhalt, das in diesen Analysen regelmäßig am schlechtesten abschneidet. Die KI-Modelle schreiben ostdeutschen Bewohnern nicht nur niedrigere Punktzahlen für positive Eigenschaften wie Fleiß zu, sondern zeigen auch widersprüchlich niedrige Werte bei negativen Eigenschaften. Dies deutet auf einen tief verwurzelten Bias hin, der sich durch die Daten und Algorithmen zieht. Ein besonders kurioses Beispiel aus der Studie ist die Einschätzung der durchschnittlichen Körpertemperatur: Die Modelle ordnen Ostdeutschen eine niedrigere Temperatur zu, was schlichtweg absurd ist.

Warnung vor realen Folgen

Die Forscherinnen warnen vor den realen Folgen solcher Vorurteile im Alltag. Diese können sich beispielsweise in Bewerbungsverfahren oder Kreditprüfungen niederschlagen und damit die Chancen von Ostdeutschen erheblich beeinträchtigen. Versuche, diese Verzerrungen durch sogenannte „Debiasing Prompts“ zu korrigieren, waren nur von begrenztem Erfolg. Die Studie verdeutlicht, wie tief verwurzelt Bias in KI-Modellen ist und unterstreicht die dringende Notwendigkeit, KI-Systeme fair und diskriminierungsfrei zu gestalten – ein Anliegen, das auch von der Regierung und der EU gefordert wird.

Notwendigkeit einer gerechten digitalen Zukunft

In einer Zeit, in der KI immer mehr Einfluss auf unser Leben nimmt, ist es entscheidend, dass wir uns mit diesen Themen auseinandersetzen und für eine gerechtere digitale Zukunft kämpfen.

Quellen

  • Quelle: Hochschule München
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…