Ein 60-jähriger Mann litt unter schweren Symptomen nach einem gefährlichen Ernährungstipp von ChatGPT.
In Kürze
- ChatGPT empfahl giftiges Natriumbromid statt Kochsalz
- Mann entwickelte Halluzinationen und Paranoia
- Ärzte diagnostizierten Bromismus im Krankenhaus
Gefährliche Empfehlung durch KI-Chatbot
Ein 60-jähriger Mann hat sich an den KI-Chatbot ChatGPT gewandt, um Tipps für eine gesündere Ernährung zu erhalten. Der Rat, den er bekam, war jedoch alles andere als hilfreich: Er sollte Kochsalz (Natriumchlorid) durch Natriumbromid ersetzen. Was zunächst nach einer harmlosen Empfehlung klingt, entpuppte sich als gefährlich, denn Natriumbromid ist giftig.
Symptome und Krankenhausaufenthalt
Im Laufe der Monate entwickelte der Mann schwerwiegende Symptome, darunter Halluzinationen und Paranoia. Schließlich landete er im Krankenhaus, wo die Ärzte allmählich die Ursache seiner Beschwerden erkannten: Bromismus, eine seltene Vergiftung, die früher durch Bromid in Beruhigungsmitteln verursacht wurde.
Problematik der KI-Sprachmodelle
Das Problem liegt in der Funktionsweise von KI-Sprachmodellen. Diese verstehen den Kontext nicht wirklich und können daher gefährliche Ratschläge erteilen, ohne auf mögliche Nebenwirkungen hinzuweisen. Dies wirft ein wichtiges Licht auf die Grenzen der künstlichen Intelligenz, insbesondere wenn es um sensible Themen wie Gesundheit geht.
Warnung der Mediziner
Mediziner warnen eindringlich davor, Chatbots als verlässliche Quelle für Gesundheitsinformationen zu nutzen. Die menschliche Kompetenz und das Verständnis für komplexe Zusammenhänge sind durch nichts zu ersetzen – und das gilt besonders, wenn es um unsere Gesundheit geht.
Quellen
- Quelle: ChatGPT
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




