Wenn Software Gefühle benotet: Emotion‑KI schleicht sich ins Büro

10.05.2026 | Allgemein, KI

Software liest Mimik, Stimme und Texte — Firmen nutzen das zur Bewertung. Fehler und Bias führen zu echten Folgen für Beschäftigte.

In Kürze

  • Emotion‑KI klassifiziert Gefühle aus Video, Ton und Text für HR‑Entscheidungen
  • Wissenschaftliche Kritik: Mimik ist kontextabhängig, Validität ist umstritten
  • Studien zeigen Verzerrungen; EU verbietet den Einsatz am Arbeitsplatz größtenteils

Dein Gesicht, deine Stimme, deine Chat‑Nachrichten — bald bewertet nicht nur dein Chef, sondern auch Software, wie du dich fühlst. In einer Reportage für The Atlantic beschreibt Journalistin Ellen Cushing, wie sogenannte „Emotion‑KI“ immer stärker in Arbeitsprozesse vordringt: Programme, die aus Mimik, Tonfall oder Text versuchen, Gefühle wie Freundlichkeit, Stimmung oder „aktive Zuhörfähigkeit“ zu lesen — und daraus Personalentscheidungen oder Leistungsbewertungen ableiten.

Was genau steckt dahinter?

Emotion‑KI nutzt Kameras, Mikrofone und Textanalyse, um Emotionen zu klassifizieren. Anbieter versprechen automatisierte Einschätzungen etwa bei Video‑Bewerbungen, im Kundenservice oder in internen Chats. Die Systeme geben Labels wie „amüsiert“, „entschlossen“, „ungeduldig“ oder „freundlich“ aus — und manche Firmen werten diese Labels zur Kontrolle oder zur Personalentwicklung aus.

Konkrete Beispiele aus der Praxis

  • Die Autorin testete MorphCast selbst: Das Tool bewertete ihre Mimik in einem Meeting als „amüsiert“, „entschlossen“ und gelegentlich „ungeduldig“.
  • Versicherer wie MetLife überwachen in Callcentern die Tonlage von Mitarbeitenden.
  • Burger King probierte einen Headset‑Chatbot namens „Patty“, der Freundlichkeit misst.
  • Der Bürospezialist Framery testete Stühle mit Biosensoren, die Herzfrequenz und Stress‑Indikatoren erfassen sollen.
  • Im Bereich Team‑Chats bieten Erweiterungen für Slack (zum Beispiel Aware) und Plattformen wie Microsoft Azure Sentiment‑Analysen an, also automatische Einschätzungen zur Stimmung in Texten.
  • Anbieter wie Imentiv verkaufen Emotionsauswertungen für Vorstellungsgespräche.

Wissenschaftliche Kritikpunkte

Die wissenschaftliche Basis vieler Systeme ist umstritten. Mehrere Anbieter greifen auf Theorien wie die von Paul Ekman zurück, der sechs universelle Basisemotionen postulierte — eine Annahme, die in der Forschung seit längerem kritisch diskutiert wird. Neurowissenschaftlerinnen wie Lisa Feldman Barrett argumentieren, dass Mimik nicht automatisch eine feste emotionale Bedeutung hat; Kontext spielt eine große Rolle. Kurz: Ein Gesichtsausdruck ist nicht zwangsläufig ein eindeutiges Emotions‑Signal.

Nachweisbare Verzerrungen

Unabhängige Untersuchungen zeigen systematische Fehler. Eine Studie von Lauren Rhue etwa fand, dass Emotion‑KI schwarze NBA‑Spieler häufiger als „wütend“ einstufte als weiße Spieler. Solche Verzerrungen können diskriminierende Folgen haben, wenn automatisierte Urteile in Personalentscheidungen einfließen.

Schon realisierte Schäden

Berichte dokumentieren konkrete negative Folgen. Bei UnitedHealth wurden Sozialarbeiterinnen und Sozialarbeiter angeblich wegen angeblicher Tastatur‑Inaktivität schlechter bewertet — obwohl sie gleichzeitig Patientengespräche führten. Die ACLU wirft der Bewerbungsplattform HireVue und deren Kund Intuit vor, eine gehörlose Mitarbeiterin durch automatisierte Bewertungen um eine Beförderung gebracht zu haben; die Unternehmen weisen die Vorwürfe zurück. Solche Fälle zeigen, wie technische Unschärfen reale Karrieren und Arbeitsbedingungen treffen können.

Rechtliche Lage und Markt

Die EU hat den Einsatz von Emotion‑KI am Arbeitsplatz im Rahmen des AI Act weitgehend verboten; Ausnahmen sind nur für medizinische oder sicherheitsrelevante Zwecke vorgesehen. Nach dem Verbot verlegte MorphCast offenbar seinen Sitz von Florenz in die US‑Bay Area. Gleichzeitig prognostiziert ein zitierter Marktbericht, dass der globale Markt für Emotion‑KI bis 2030 auf rund 9 Milliarden US‑Dollar anwachsen könnte — ein Hinweis darauf, dass Interesse und Investitionen trotz regulatorischer Einschränkungen weiterlaufen.

Ein letzter Gedanke aus der Reportage

Cushing warnt in ihrer Reportage davor, dass das eigentliche Problem nicht nur fehlerhafte Systeme sind, sondern eine mögliche Entwicklung, in der Software so gut misst, dass Beschäftigte gezwungen wären, fortlaufend das Wohlgefallen einer Maschine zu erlangen — also nicht nur die Arbeit zu erledigen, sondern auch einer Maschine „gefühlsmäßig“ zu entsprechen.

Quellen

  • Quelle: The Atlantic / MorphCast
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…