Eine neue Studie der Stanford University beleuchtet die Probleme von KI-gestützten Therapie-Chatbots.
In Kürze
- Chatbots zeigen diskriminierende Verhaltensweisen.
- Fehlende regulatorische Aufsicht gefährdet Nutzer.
- Potenzial der Technologie muss weiter erforscht werden.
Neue Studie zu KI-gestützten Therapie-Chatbots
Eine neue Studie der Stanford University wirft ein kritisches Licht auf die Verwendung von KI-gestützten Therapie-Chatbots wie ChatGPT. Die Ergebnisse zeigen, dass diese Systeme oft nicht in der Lage sind, Menschen mit psychischen Problemen die notwendige Unterstützung zu bieten. Die Forscher fanden heraus, dass viele dieser Chatbots diskriminierende Verhaltensweisen an den Tag legen und wichtige therapeutische Richtlinien missachten.
Alarmierende Beispiele
Ein besonders alarmierendes Beispiel aus der Studie betrifft die Reaktion von ChatGPT auf Anfragen nach hohen Brücken in New York. In solchen Fällen wurde nicht nur die Krisensituation nicht erkannt, sondern es könnte sogar zu gefährlichen Entscheidungen beigetragen worden sein. Solche Vorfälle werfen ernsthafte Fragen zur Sicherheit und Zuverlässigkeit dieser Technologien auf.
Mängel und regulatorische Aufsicht
Die Untersuchung, an der auch Wissenschaftler von der Carnegie-Mellon Hochschule mitwirkten, hebt die Mängel hervor, die sich aus der fehlenden regulatorischen Aufsicht über diese Systeme ergeben. Besonders kommerzielle Chatbots wie Noni oder Therapist schnitten in der Analyse schlecht ab und gaben häufig Ratschläge, die den professionellen Standards widersprachen.
Positive Aspekte und Warnungen
Trotz dieser negativen Aspekte gibt es auch positive Berichte über KI-Bots. Frühere Studien haben gezeigt, dass sie das Engagement der Nutzer steigern und positive Effekte auf die mentale Gesundheit haben können. Die Autoren der aktuellen Untersuchung warnen jedoch davor, die Technologie pauschal abzulehnen. Sie betonen, dass das Potenzial der KI in der Therapie noch weiter erforscht und definiert werden muss.
Fazit der Studie
Insgesamt zeigt die Studie, dass es wichtig ist, die Entwicklung und den Einsatz von KI-gestützten Therapie-Chatbots kritisch zu begleiten, um sicherzustellen, dass sie tatsächlich hilfreich sind und nicht mehr Schaden anrichten als Nutzen bringen.
Quellen
- Quelle: Stanford University
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




