KI in der Therapie: Digitale Helfer oder gefährliche Illusion?

22.09.2025 | Allgemein, KI

Ein Gespräch mit John G. Haas beleuchtet die Rolle von KI in der emotionalen Unterstützung und die Risiken, die damit verbunden sind.

In Kürze

  • KI-gestützte Chatbots bieten Unterstützung, ersetzen aber keine Therapeuten.
  • Risiken der Manipulation und Datensicherheit stehen im Fokus der US-Handelsaufsicht.
  • Anthropomorphisierung von KI kann zu falschen Erwartungen führen.

Die Rolle von Künstlicher Intelligenz in der Therapie

In einem aufschlussreichen Gespräch mit John G. Haas wird die Rolle von Künstlicher Intelligenz (KI) im Bereich der Therapie und emotionalen Unterstützung beleuchtet. Haas hebt hervor, dass KI-gestützte Chatbots zwar als hilfreiche Begleiter in schwierigen Zeiten fungieren können, sie jedoch keinesfalls die menschlichen Therapeuten ersetzen können. Diese digitalen Helfer sind rund um die Uhr verfügbar und können in Krisensituationen Unterstützung bieten, doch es fehlt ihnen an den emotionalen und intuitiven Fähigkeiten, die nur ein Mensch mitbringen kann.

Potenzielle Risiken der KI-Nutzung

Ein zentrales Anliegen, das Haas anspricht, sind die potenziellen Risiken, die mit der Nutzung solcher KI-Programme verbunden sind. Es gibt Bedenken, dass diese Technologien Nutzer manipulieren oder sogar missbrauchen könnten. Aus diesem Grund nimmt die US-Handelsaufsicht FTC die Entwicklung und den Einsatz dieser Technologien unter die Lupe. Die sogenannten „Companions“ könnten intime Daten sammeln oder in psychisch verletzlichen Momenten Schaden anrichten, was ernsthafte Fragen zur Datensicherheit und zum ethischen Umgang mit Nutzerdaten aufwirft.

Anthropomorphisierung von KI

Haas warnt zudem vor der Anthropomorphisierung von KI, also der Neigung, Maschinen menschliche Eigenschaften zuzuschreiben. Diese Tendenz kann zu falschen Erwartungen führen und dazu, dass Menschen mit KI-Programmen interagieren, als wären sie echte Menschen. Ein Beispiel dafür ist der „Eliza-Effekt“, bei dem Nutzer in der Interaktion mit Maschinen menschliche Züge und Emotionen vermuten, die in Wirklichkeit nicht vorhanden sind.

Die Grenzen der KI in der therapeutischen Beziehung

Ein weiterer wichtiger Punkt, den Haas betont, ist, dass eine echte therapeutische Beziehung weit mehr erfordert als nur vorprogrammierte Antworten. Therapeutische Gespräche beinhalten kulturelle, emotionale und psychologische Komponenten, die gegenwärtig von Maschinen nicht adäquat abgebildet werden können. Trotz der beeindruckenden Sprachfähigkeiten von KI-Systemen wie ChatGPT bleibt die Kluft zu den Möglichkeiten menschlicher Therapeuten groß. Die menschliche Fähigkeit, Empathie zu zeigen und komplexe emotionale Situationen zu verstehen, ist durch keine Technologie zu ersetzen.

Quellen

  • Quelle: US-Handelsaufsicht FTC
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Anthropic launcht KI-Plattform für die Pharmaforschung

Anthropic launcht KI-Plattform für die Pharmaforschung

Anthropic präsentiert "Claude for Life Sciences", eine KI-Plattform zur Optimierung der Pharmaforschung.In KürzeNeue KI-Plattform beschleunigt MedikamentenentwicklungDirekte Verknüpfung mit Datenbanken und Labor-ToolsPharmakonzerne setzen bereits auf Claude...