Darum gehts
- ChatGPT nutzt Grokipedia, eine umstrittene KI-Enzyklopädie von Elon Musk
- Grokipedia verbreitet Musks Narrative ohne Kontrolle durch menschliche Moderation
- LLM-Grooming: Pravda-Netzwerk publiziert täglich bis 23'000 kremlfreundliche Artikel
ChatGPT hat ein Quellenproblem. Tests des britischen «Guardian» zeigen: Das neueste KI-Modell von OpenAI, GPT-5.2, bezieht Informationen von Grokipedia, der KI-generierten Online-Enzyklopädie von Elon Musk (54). Das ist heikel. Denn Grokipedia steht seit Monaten in der Kritik, rechtspopulistische Narrative unkritisch als Fakten darzustellen, etwa zum Sturm aufs US-Kapitol oder zur gleichgeschlechtlichen Ehe. Anders als bei Wikipedia gibt es keine menschlichen Mitarbeitende, die eingreifen. Die Inhalte schreibt ausschliesslich eine KI.
Die Desinformationsforscherin Nina Jankowicz warnt im «Guardian» vor dem sogenannten Waschsalon-Effekt: Informationen, die auf Musks Plattform noch als ideologisch gefärbt erkennbar sind, erhalten durch ChatGPT plötzlich einen Anstrich von Seriosität. Nutzer denken: Wenn ChatGPT das zitiert, muss es geprüft sein. Ist es aber nicht. Ihr Urteil: Die Quellen seien «bestenfalls nicht vertrauenswürdig, schlimmstenfalls gezielte Desinformation.»
Auch Claude schreibt ab
Die Übernahme passiert dabei unter dem Radar. Fragt man ChatGPT direkt nach dem 6. Januar, greifen die Sicherheitsfilter. Grokipedia taucht als Quelle nicht auf. Doch bei Nischenthemen sieht es anders aus. Der «Guardian» dokumentierte etwa, wie ChatGPT unter Berufung auf Grokipedia behauptete, ein iranischer Mobilfunkanbieter habe direkte Verbindungen zum Büro des obersten Führers. Eine Behauptung, die Wikipedia nicht kennt. Auch bei Informationen zum Holocaust-Leugner David Irving übernahm die KI widerlegte Details von Musks Plattform.
Es ist, als würde der Musterschüler beim Klassenclown abschreiben. Und ChatGPT ist nicht der Einzige: Auch Claude, das KI-Modell von Anthropic, zitiert Grokipedia. Das Problem reicht zudem über Elon Musk hinaus. Sicherheitsexperten warnen seit Monaten vor «LLM Grooming». Es ist der gezielte Versuch, KI-Sprachmodelle mit Falschinformationen zu füttern. Das russische Pravda-Netzwerk etwa publiziert bis zu 23'000 Artikel pro Tag, die von KI-Chatbots abgegrast werden. Ziel: die Trainingsdaten von KI-Modellen mit kremlfreundlichen Narrativen zu fluten. Laut dem «Guardian» plappern KI-Chatbots auf bestimmte Fragen bereits russische Desinformation nach, etwa die Behauptung, die USA entwickelten Biowaffen in der Ukraine.
OpenAI betont, man nutze «eine breite Palette öffentlicher Quellen» und setze Filter ein. Anthropic und Elon Musks xAI liessen eine Anfrage der Zeitung unbeantwortet.