Expertin warnt vor den Folgen
ChatGPT nutzt Elon Musks Fake-Lexikon als Quelle

ChatGPT bedient sich bei Elon Musks umstrittener Plattform Grokipedia für Informationen. So werden Verschwörungstheorien durch die Hintertür zu Fakten gewaschen, warnen Experten.
Kommentieren
1/5
ChatGPT 5.2 nutzt neu Grokipedia als Quelle. Dies zeigt ein Test des «Guardian».
Foto: Imago

Darum gehts

  • ChatGPT nutzt Grokipedia, eine umstrittene KI-Enzyklopädie von Elon Musk
  • Grokipedia verbreitet Musks Narrative ohne Kontrolle durch menschliche Moderation
  • LLM-Grooming: Pravda-Netzwerk publiziert täglich bis 23'000 kremlfreundliche Artikel
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
nnnnnnn.jpg
Tobias BolzernRedaktor Digital

ChatGPT hat ein Quellenproblem. Tests des britischen «Guardian» zeigen: Das neueste KI-Modell von OpenAI, GPT-5.2, bezieht Informationen von Grokipedia, der KI-generierten Online-Enzyklopädie von Elon Musk (54). Das ist heikel. Denn Grokipedia steht seit Monaten in der Kritik, rechtspopulistische Narrative unkritisch als Fakten darzustellen, etwa zum Sturm aufs US-Kapitol oder zur gleichgeschlechtlichen Ehe. Anders als bei Wikipedia gibt es keine menschlichen Mitarbeitende, die eingreifen. Die Inhalte schreibt ausschliesslich eine KI.

Die Desinformationsforscherin Nina Jankowicz warnt im «Guardian» vor dem sogenannten Waschsalon-Effekt: Informationen, die auf Musks Plattform noch als ideologisch gefärbt erkennbar sind, erhalten durch ChatGPT plötzlich einen Anstrich von Seriosität. Nutzer denken: Wenn ChatGPT das zitiert, muss es geprüft sein. Ist es aber nicht. Ihr Urteil: Die Quellen seien «bestenfalls nicht vertrauenswürdig, schlimmstenfalls gezielte Desinformation.»

Auch Claude schreibt ab

Die Übernahme passiert dabei unter dem Radar. Fragt man ChatGPT direkt nach dem 6. Januar, greifen die Sicherheitsfilter. Grokipedia taucht als Quelle nicht auf. Doch bei Nischenthemen sieht es anders aus. Der «Guardian» dokumentierte etwa, wie ChatGPT unter Berufung auf Grokipedia behauptete, ein iranischer Mobilfunkanbieter habe direkte Verbindungen zum Büro des obersten Führers. Eine Behauptung, die Wikipedia nicht kennt. Auch bei Informationen zum Holocaust-Leugner David Irving übernahm die KI widerlegte Details von Musks Plattform.

Es ist, als würde der Musterschüler beim Klassenclown abschreiben. Und ChatGPT ist nicht der Einzige: Auch Claude, das KI-Modell von Anthropic, zitiert Grokipedia. Das Problem reicht zudem über Elon Musk hinaus. Sicherheitsexperten warnen seit Monaten vor «LLM Grooming». Es ist der gezielte Versuch, KI-Sprachmodelle mit Falschinformationen zu füttern. Das russische Pravda-Netzwerk etwa publiziert bis zu 23'000 Artikel pro Tag, die von KI-Chatbots abgegrast werden. Ziel: die Trainingsdaten von KI-Modellen mit kremlfreundlichen Narrativen zu fluten. Laut dem «Guardian» plappern KI-Chatbots auf bestimmte Fragen bereits russische Desinformation nach, etwa die Behauptung, die USA entwickelten Biowaffen in der Ukraine.

OpenAI betont, man nutze «eine breite Palette öffentlicher Quellen» und setze Filter ein. Anthropic und Elon Musks xAI liessen eine Anfrage der Zeitung unbeantwortet.

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.
Was sagst du dazu?
Heiss diskutiert
    Meistgelesen