Studie zeigt: ChatGPT empfiehlt Nachrichtenquellen unterschiedlich

10.11.2025 | Allgemein, KI

Eine neue Studie aus Hamburg beleuchtet die Unterschiede in den Nachrichtenquellen von ChatGPT.

In Kürze

  • Web-Interface verweist oft auf etablierte Medien
  • API-Version nutzt häufiger Wikipedia und unbekannte Seiten
  • Vielfalt der Quellen birgt Risiken für Falschinformationen

Eine neue Studie aus Hamburg

Eine neue Studie aus Hamburg hat spannende Einblicke in die Funktionsweise von ChatGPT gegeben, insbesondere wie die KI bei der Empfehlung von Nachrichtenquellen variiert, je nachdem, ob du das Web-Interface oder die API-Version nutzt.

Unterschiede zwischen Web-Interface und API

Wenn du das Web-Interface von ChatGPT verwendest, wirst du häufig auf etablierte Medien verwiesen. Diese haben oft Lizenzverträge mit OpenAI, wie zum Beispiel die Publikationen von Springer. Das klingt zunächst nach einer soliden Informationsbasis. Doch wenn du die API-Version nutzt, sieht die Sache ganz anders aus: Hier wird öfter auf Wikipedia und kleinere, weniger bekannte Seiten verwiesen.

Vielfalt der Quellen

Ein weiterer interessanter Punkt ist die Vielfalt der Quellen. Bei Suchanfragen, die nach einer breiten Palette an Informationen verlangen, gibt das Web-Interface deutlich mehr verschiedene Websites an als die API. Allerdings ist Vorsicht geboten: Diese Vielfalt führt nicht zwangsläufig zu hochwertigeren Informationen. In der Liste der empfohlenen Seiten können sich auch politisch einseitige und sogar nicht existierende Websites finden.

Politische Ausgewogenheit und kritische Hinterfragung

Die Auswahl der Quellen zeigt zwar eine gewisse politische Ausgewogenheit, doch der Prozess, wie ChatGPT diese auswählt, bleibt im Dunkeln. Das wirft Fragen auf, und die Studie empfiehlt, dass du die bereitgestellten Informationen kritisch hinterfragst. Generative KI-Systeme, einschließlich Chatbots, haben das Potenzial, Falschinformationen zu verbreiten.

Regelmäßige Anpassungen durch OpenAI

Die Forschenden weisen zudem darauf hin, dass die Ergebnisse der Studie den aktuellen Stand widerspiegeln. OpenAI nimmt regelmäßig Anpassungen an seinen Systemen vor, was bedeutet, dass sich die Empfehlungen und die Art der Informationsverarbeitung ständig ändern können.

Quellen

  • Quelle: Universität Hamburg und Leibniz-Institut für Medienforschung
  • Der ursprüngliche Artikel wurde hier veröffentlicht
  • Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.

💡Über das Projekt KI News Daily

Dieser Artikel wurde vollständig mit KI generiert und ist Teil des Projektes KI News Daily der Pickert GmbH.

Wir arbeiten an der ständigen Verbesserung der Mechanismen, können aber leider Fehler und Irrtümer nicht ausschließen. Sollte dir etwas auffallen, wende dich bitte umgehend an unseren Support und feedback[at]pickert.io

Vielen Dank! 🙏

Das könnte dich auch interessieren…

OpenAI kündigt neue KI-Modelle an: GPT-5.1 mit Polaris Alpha

OpenAI kündigt neue KI-Modelle an: GPT-5.1 mit Polaris Alpha

OpenAI steht kurz vor der Veröffentlichung von GPT-5.1, das mit neuen Varianten aufwartet und den Wettlauf mit Google anheizt.In KürzeEinführung von drei neuen Modellen, darunter Polaris AlphaFokus auf Verbesserung der logischen DenkfähigkeitenTestphase auf Microsofts...

EU plant Reformen der DSGVO: Datenschutz in Gefahr?

EU plant Reformen der DSGVO: Datenschutz in Gefahr?

Die EU-Kommission will die DSGVO reformieren, um Unternehmen zu entlasten. Doch Kritiker warnen vor Gefahren für den Datenschutz.In KürzeStärkung des "berechtigten Interesses" könnte Zustimmungspflicht lockernKI-Systeme sollen personenbezogene Daten ohne Zustimmung...