OpenAI wirbt ChatGPT als Alltags‑Gesundheitshelfer – Risiken bei Sicherheit und Haftung

07.01.2026 | Allgemein, KI

OpenAI zeigt ChatGPT im Werbespot als Helfer für Ernährung, Bewegung und Krankheitsbegleitung. Praktisch, aber Sicherheits- und Rechtsfragen bleiben offen.

In Kürze

  • Werbespot zeigt Fotoanalyse, Workouts, Befund‑Einordnung und Begleitung in Krankheitsphasen
  • Studie: rund 50% vertrauen Chatbots bei Gesundheitsfragen; es gibt Klagen nach schädlichen Antworten
  • Bekannte Risiken: falsche Ratschläge, Datenschutzlücken und ungeklärte Haftung trotz sicherer Modellvarianten

ChatGPT als dein Alltags‑Gesundheitshelfer: so stellt OpenAI seinen Assistenten in einem neuen Werbevideo vor.

Unter dem Slogan „Steuern Sie Ihre Gesundheit mit Zuversicht“ fragt der Spot provokant: „Was kann ich ganz einfach tun, um mich besser zu fühlen?“ Die Botschaft des Clips ist klar: Nutzer sollen ChatGPT ganz selbstverständlich für Gesundheitsfragen einsetzen.

Der Spot

Der Spot zeigt zahlreiche Alltagsszenen:

  • Du machst ein Foto von deinem Mittagessen, lädst es hoch und bekommst Kalorienangaben – plus einen angeblichen „Entzündungswert“.
  • Beim Spaziergang begleitet dich der Chatbot mit kurzen Workouts und Motivation.
  • Vor Arztterminen hilft ChatGPT bei der Vorbereitung, ordnet Befunde ein und schlägt Fragen vor, die du stellen könntest.
  • In längeren Krankheitsphasen, etwa während einer Krebstherapie, erscheint der Assistent als Gesprächspartner und Planer.
  • Weitere Szenen zeigen die Prüfung von Kleidung auf schädliche Stoffe oder Unterstützung bei sensiblen Familiengesprächen, zum Beispiel wenn ein Kind schwer erkrankt ist.

Resonanz

Die Resonanz in der Bevölkerung ist gemischt: Eine aktuelle Studie in Deutschland kommt zu dem Ergebnis, dass etwa jede zweite Person Chatbots bei Gesundheitsfragen vertraut. Diese Bereitschaft steht jedoch neben konkreten juristischen und sicherheitsbezogenen Problemen. In den USA haben Eltern OpenAI unter anderem im Zusammenhang mit dem Suizid ihres 16‑jährigen Sohnes verklagt.

Sicherheitsmaßnahmen

Als Reaktion auf solche Vorfälle leitet ChatGPT bei sensiblen Themen automatisch auf eine „sicherere“ Modellversion um — also einen automatischen Wechsel zu einer Variante mit strengeren Sicherheitsfiltern. OpenAI hat diese Filter bereits mehrfach angepasst, damit der Assistent in schwierigen Fällen gemäß den internen Vorgaben reagiert.

Risiken aus der Praxis

Aus der Praxis sind allerdings weiter erhebliche Risiken bekannt. Chatbots haben wiederholt gefährliche oder falsche Gesundheitstipps gegeben:

  • In einem dokumentierten Fall folgte ein Mann einem Ernährungstipp von ChatGPT und erlitt infolge einer Bromidvergiftung eine Psychose, was eine Krankenhausbehandlung notwendig machte.
  • Andere Nutzende beklagen, dass der Bot wahnhaften Vorstellungen Bestätigung geliefert habe.
  • Selbst einfache Tippfehler können dazu führen, dass ein Assistent falsche Ratschläge ausgibt.

Offene Fragen

Neben diesen Sicherheitsfragen bleiben auch Datenschutz- und Haftungsfragen ungeklärt:

  • Wer trägt Verantwortung, wenn ein durch einen Chatbot empfohlener Schritt gesundheitlich schadet?
  • Wie werden persönliche Gesundheitsdaten geschützt, wenn sie in Chats oder Fotoanalysen verarbeitet werden?

Diese offenen Punkte spielen eine Rolle, während OpenAI seine Werbeansprache in den Gesundheitsbereich erweitert.

Quellen

  • Quelle: OpenAI
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…