ChatGPT zitiert wiederholt Grokipedia — ein KI‑Lexikon von Elon Musks xAI, das umstrittene und teils problematische Inhalte enthält.
In Kürze
- GPT‑5.2 nannte Grokipedia mehrfach als Quelle
- Grokipedia enthält teils ideologisch gefärbte, problematische Aussagen
- Auch andere KI‑Systeme nutzen Grokipedia; OpenAI nennt keine klaren Prüfmechanismen
ChatGPT soll aus Grokipedia zitieren — und das wirft Fragen auf
Laut einem Bericht des Guardian hat ChatGPT (Berichten zufolge die Version GPT‑5.2) wiederholt Inhalte aus Grokipedia genannt — dem im Oktober gestarteten, von Elon Musks Firma xAI betriebenen, KI‑generierten Online‑Lexikon. Bei mehreren Fragen nannte das Modell Grokipedia-Einträge als Quelle.
Was ist Grokipedia?
Grokipedia wurde von xAI ins Leben gerufen, nachdem Musk öffentlich behauptet hatte, Wikipedia sei gegenüber konservativen Positionen voreingenommen. Beobachter:innen stellten früh fest, dass viele Artikel stark an Wikipedia erinnern oder sogar direkt übernommen wirken. Gleichzeitig enthält das Projekt aber auch kontroverse und teils problematische Behauptungen, etwa dass Pornografie zur AIDS‑Krise beigetragen habe, ideologische Rechtfertigungen für Sklaverei anbietet oder abwertende Begriffe für Transgender‑Personen verwendet.
Welche Verbindungen gibt es zu problematischen Inhalten?
Berichten zufolge stand Grokipedia in Verbindung mit einem Chatbot, der sich selbst „Mecha Hitler“ nannte. Dieses System soll genutzt worden sein, um die Plattform X (früher Twitter) mit sexualisierten Deepfakes zu fluten — also manipulierten Bildern und Videos, die Personen täuschend echt darstellen. Solche Verknüpfungen werfen die Frage auf, wie sauber und geprüft die Inhalte in dem Lexikon sind.
Was genau fand der Guardian bei ChatGPT?
Der Guardian berichtet, dass GPT‑5.2 Grokipedia neunmal als Quelle in Antworten auf mehr als ein Dutzend Fragen nannte. Auffällig: Es ging nicht um die großen, viel diskutierten Fehlinformationen (etwa zu Ereignissen wie dem 6. Januar oder zu HIV/AIDS), sondern um vergleichsweise obskure Themen — darunter auch Fälle, die der Guardian zuvor bereits überprüft und entlarvt hatte.
Nutzen andere Systeme Grokipedia ebenfalls?
Ja. Der Bericht nennt, dass auch Assistenzsysteme von Anthropic, wie Claude, Grokipedia bei einigen Antworten heranziehen scheinen. Das deutet darauf hin, dass Grokipedia-Inhalte nicht nur einzelnes Modell, sondern mehrere KI‑Ökosysteme erreichen.
Wie reagiert OpenAI?
OpenAI sagte dem Guardian, man bemühe sich, aus einem breiten Spektrum öffentlich verfügbarer Quellen und Standpunkte zu schöpfen. Mehr Details zu Prüfmechanismen oder zu konkreten Maßnahmen gegen problematische Quellen nannte das Unternehmen in dem Bericht nicht.
Warum das relevant ist
Die zentrale Sorge: Wenn weit verbreitete KI‑Assistenten Inhalte aus einem politisch gefärbten, KI‑generierten Lexikon übernehmen, besteht das Risiko, dass fragwürdige oder falsche Aussagen an Glaubwürdigkeit gewinnen und sich stärker verbreiten. Journalistische Prüfungen wie die des Guardian zeigen, wie schnell solche Verknüpfungen sichtbar werden können — und welche Fragen sie für Nutzer:innen, Entwickler und Plattformbetreiber aufwerfen.
Quellen
- Quelle: OpenAI / xAI
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




