Software liest Mimik, Stimme und Texte — Firmen nutzen das zur Bewertung. Fehler und Bias führen zu echten Folgen für Beschäftigte.
In Kürze
- Emotion‑KI klassifiziert Gefühle aus Video, Ton und Text für HR‑Entscheidungen
- Wissenschaftliche Kritik: Mimik ist kontextabhängig, Validität ist umstritten
- Studien zeigen Verzerrungen; EU verbietet den Einsatz am Arbeitsplatz größtenteils
Dein Gesicht, deine Stimme, deine Chat‑Nachrichten — bald bewertet nicht nur dein Chef, sondern auch Software, wie du dich fühlst. In einer Reportage für The Atlantic beschreibt Journalistin Ellen Cushing, wie sogenannte „Emotion‑KI“ immer stärker in Arbeitsprozesse vordringt: Programme, die aus Mimik, Tonfall oder Text versuchen, Gefühle wie Freundlichkeit, Stimmung oder „aktive Zuhörfähigkeit“ zu lesen — und daraus Personalentscheidungen oder Leistungsbewertungen ableiten.
Was genau steckt dahinter?
Emotion‑KI nutzt Kameras, Mikrofone und Textanalyse, um Emotionen zu klassifizieren. Anbieter versprechen automatisierte Einschätzungen etwa bei Video‑Bewerbungen, im Kundenservice oder in internen Chats. Die Systeme geben Labels wie „amüsiert“, „entschlossen“, „ungeduldig“ oder „freundlich“ aus — und manche Firmen werten diese Labels zur Kontrolle oder zur Personalentwicklung aus.
Konkrete Beispiele aus der Praxis
- Die Autorin testete MorphCast selbst: Das Tool bewertete ihre Mimik in einem Meeting als „amüsiert“, „entschlossen“ und gelegentlich „ungeduldig“.
- Versicherer wie MetLife überwachen in Callcentern die Tonlage von Mitarbeitenden.
- Burger King probierte einen Headset‑Chatbot namens „Patty“, der Freundlichkeit misst.
- Der Bürospezialist Framery testete Stühle mit Biosensoren, die Herzfrequenz und Stress‑Indikatoren erfassen sollen.
- Im Bereich Team‑Chats bieten Erweiterungen für Slack (zum Beispiel Aware) und Plattformen wie Microsoft Azure Sentiment‑Analysen an, also automatische Einschätzungen zur Stimmung in Texten.
- Anbieter wie Imentiv verkaufen Emotionsauswertungen für Vorstellungsgespräche.
Wissenschaftliche Kritikpunkte
Die wissenschaftliche Basis vieler Systeme ist umstritten. Mehrere Anbieter greifen auf Theorien wie die von Paul Ekman zurück, der sechs universelle Basisemotionen postulierte — eine Annahme, die in der Forschung seit längerem kritisch diskutiert wird. Neurowissenschaftlerinnen wie Lisa Feldman Barrett argumentieren, dass Mimik nicht automatisch eine feste emotionale Bedeutung hat; Kontext spielt eine große Rolle. Kurz: Ein Gesichtsausdruck ist nicht zwangsläufig ein eindeutiges Emotions‑Signal.
Nachweisbare Verzerrungen
Unabhängige Untersuchungen zeigen systematische Fehler. Eine Studie von Lauren Rhue etwa fand, dass Emotion‑KI schwarze NBA‑Spieler häufiger als „wütend“ einstufte als weiße Spieler. Solche Verzerrungen können diskriminierende Folgen haben, wenn automatisierte Urteile in Personalentscheidungen einfließen.
Schon realisierte Schäden
Berichte dokumentieren konkrete negative Folgen. Bei UnitedHealth wurden Sozialarbeiterinnen und Sozialarbeiter angeblich wegen angeblicher Tastatur‑Inaktivität schlechter bewertet — obwohl sie gleichzeitig Patientengespräche führten. Die ACLU wirft der Bewerbungsplattform HireVue und deren Kund Intuit vor, eine gehörlose Mitarbeiterin durch automatisierte Bewertungen um eine Beförderung gebracht zu haben; die Unternehmen weisen die Vorwürfe zurück. Solche Fälle zeigen, wie technische Unschärfen reale Karrieren und Arbeitsbedingungen treffen können.
Rechtliche Lage und Markt
Die EU hat den Einsatz von Emotion‑KI am Arbeitsplatz im Rahmen des AI Act weitgehend verboten; Ausnahmen sind nur für medizinische oder sicherheitsrelevante Zwecke vorgesehen. Nach dem Verbot verlegte MorphCast offenbar seinen Sitz von Florenz in die US‑Bay Area. Gleichzeitig prognostiziert ein zitierter Marktbericht, dass der globale Markt für Emotion‑KI bis 2030 auf rund 9 Milliarden US‑Dollar anwachsen könnte — ein Hinweis darauf, dass Interesse und Investitionen trotz regulatorischer Einschränkungen weiterlaufen.
Ein letzter Gedanke aus der Reportage
Cushing warnt in ihrer Reportage davor, dass das eigentliche Problem nicht nur fehlerhafte Systeme sind, sondern eine mögliche Entwicklung, in der Software so gut misst, dass Beschäftigte gezwungen wären, fortlaufend das Wohlgefallen einer Maschine zu erlangen — also nicht nur die Arbeit zu erledigen, sondern auch einer Maschine „gefühlsmäßig“ zu entsprechen.
Quellen
- Quelle: The Atlantic / MorphCast
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




