OpenAI zeigt ChatGPT im Werbespot als Helfer für Ernährung, Bewegung und Krankheitsbegleitung. Praktisch, aber Sicherheits- und Rechtsfragen bleiben offen.
In Kürze
- Werbespot zeigt Fotoanalyse, Workouts, Befund‑Einordnung und Begleitung in Krankheitsphasen
- Studie: rund 50% vertrauen Chatbots bei Gesundheitsfragen; es gibt Klagen nach schädlichen Antworten
- Bekannte Risiken: falsche Ratschläge, Datenschutzlücken und ungeklärte Haftung trotz sicherer Modellvarianten
ChatGPT als dein Alltags‑Gesundheitshelfer: so stellt OpenAI seinen Assistenten in einem neuen Werbevideo vor.
Unter dem Slogan „Steuern Sie Ihre Gesundheit mit Zuversicht“ fragt der Spot provokant: „Was kann ich ganz einfach tun, um mich besser zu fühlen?“ Die Botschaft des Clips ist klar: Nutzer sollen ChatGPT ganz selbstverständlich für Gesundheitsfragen einsetzen.
Der Spot
Der Spot zeigt zahlreiche Alltagsszenen:
- Du machst ein Foto von deinem Mittagessen, lädst es hoch und bekommst Kalorienangaben – plus einen angeblichen „Entzündungswert“.
- Beim Spaziergang begleitet dich der Chatbot mit kurzen Workouts und Motivation.
- Vor Arztterminen hilft ChatGPT bei der Vorbereitung, ordnet Befunde ein und schlägt Fragen vor, die du stellen könntest.
- In längeren Krankheitsphasen, etwa während einer Krebstherapie, erscheint der Assistent als Gesprächspartner und Planer.
- Weitere Szenen zeigen die Prüfung von Kleidung auf schädliche Stoffe oder Unterstützung bei sensiblen Familiengesprächen, zum Beispiel wenn ein Kind schwer erkrankt ist.
Resonanz
Die Resonanz in der Bevölkerung ist gemischt: Eine aktuelle Studie in Deutschland kommt zu dem Ergebnis, dass etwa jede zweite Person Chatbots bei Gesundheitsfragen vertraut. Diese Bereitschaft steht jedoch neben konkreten juristischen und sicherheitsbezogenen Problemen. In den USA haben Eltern OpenAI unter anderem im Zusammenhang mit dem Suizid ihres 16‑jährigen Sohnes verklagt.
Sicherheitsmaßnahmen
Als Reaktion auf solche Vorfälle leitet ChatGPT bei sensiblen Themen automatisch auf eine „sicherere“ Modellversion um — also einen automatischen Wechsel zu einer Variante mit strengeren Sicherheitsfiltern. OpenAI hat diese Filter bereits mehrfach angepasst, damit der Assistent in schwierigen Fällen gemäß den internen Vorgaben reagiert.
Risiken aus der Praxis
Aus der Praxis sind allerdings weiter erhebliche Risiken bekannt. Chatbots haben wiederholt gefährliche oder falsche Gesundheitstipps gegeben:
- In einem dokumentierten Fall folgte ein Mann einem Ernährungstipp von ChatGPT und erlitt infolge einer Bromidvergiftung eine Psychose, was eine Krankenhausbehandlung notwendig machte.
- Andere Nutzende beklagen, dass der Bot wahnhaften Vorstellungen Bestätigung geliefert habe.
- Selbst einfache Tippfehler können dazu führen, dass ein Assistent falsche Ratschläge ausgibt.
Offene Fragen
Neben diesen Sicherheitsfragen bleiben auch Datenschutz- und Haftungsfragen ungeklärt:
- Wer trägt Verantwortung, wenn ein durch einen Chatbot empfohlener Schritt gesundheitlich schadet?
- Wie werden persönliche Gesundheitsdaten geschützt, wenn sie in Chats oder Fotoanalysen verarbeitet werden?
Diese offenen Punkte spielen eine Rolle, während OpenAI seine Werbeansprache in den Gesundheitsbereich erweitert.
Quellen
- Quelle: OpenAI
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




