Studie zeigt: ChatGPT empfiehlt Nachrichtenquellen unterschiedlich

10.11.2025 | Allgemein, KI

Eine neue Studie aus Hamburg beleuchtet die Unterschiede in den Nachrichtenquellen von ChatGPT.

In Kürze

  • Web-Interface verweist oft auf etablierte Medien
  • API-Version nutzt häufiger Wikipedia und unbekannte Seiten
  • Vielfalt der Quellen birgt Risiken für Falschinformationen

Eine neue Studie aus Hamburg

Eine neue Studie aus Hamburg hat spannende Einblicke in die Funktionsweise von ChatGPT gegeben, insbesondere wie die KI bei der Empfehlung von Nachrichtenquellen variiert, je nachdem, ob du das Web-Interface oder die API-Version nutzt.

Unterschiede zwischen Web-Interface und API

Wenn du das Web-Interface von ChatGPT verwendest, wirst du häufig auf etablierte Medien verwiesen. Diese haben oft Lizenzverträge mit OpenAI, wie zum Beispiel die Publikationen von Springer. Das klingt zunächst nach einer soliden Informationsbasis. Doch wenn du die API-Version nutzt, sieht die Sache ganz anders aus: Hier wird öfter auf Wikipedia und kleinere, weniger bekannte Seiten verwiesen.

Vielfalt der Quellen

Ein weiterer interessanter Punkt ist die Vielfalt der Quellen. Bei Suchanfragen, die nach einer breiten Palette an Informationen verlangen, gibt das Web-Interface deutlich mehr verschiedene Websites an als die API. Allerdings ist Vorsicht geboten: Diese Vielfalt führt nicht zwangsläufig zu hochwertigeren Informationen. In der Liste der empfohlenen Seiten können sich auch politisch einseitige und sogar nicht existierende Websites finden.

Politische Ausgewogenheit und kritische Hinterfragung

Die Auswahl der Quellen zeigt zwar eine gewisse politische Ausgewogenheit, doch der Prozess, wie ChatGPT diese auswählt, bleibt im Dunkeln. Das wirft Fragen auf, und die Studie empfiehlt, dass du die bereitgestellten Informationen kritisch hinterfragst. Generative KI-Systeme, einschließlich Chatbots, haben das Potenzial, Falschinformationen zu verbreiten.

Regelmäßige Anpassungen durch OpenAI

Die Forschenden weisen zudem darauf hin, dass die Ergebnisse der Studie den aktuellen Stand widerspiegeln. OpenAI nimmt regelmäßig Anpassungen an seinen Systemen vor, was bedeutet, dass sich die Empfehlungen und die Art der Informationsverarbeitung ständig ändern können.

Quellen

  • Quelle: Universität Hamburg und Leibniz-Institut für Medienforschung
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

Kenia: Studierende als KI-Datenlabeler unter Druck

Kenia: Studierende als KI-Datenlabeler unter Druck

In Kenia setzen chinesische KI-Unternehmen Studierende zur Videoklassifizierung ein – mit besorgniserregenden Bedingungen.In KürzeStudierende klassifizieren täglich bis zu 26.000 VideosPrekäre Arbeitsbedingungen ohne Verträge oder SozialleistungenRegierung plant...