Darum gehts
- Groks antisemitische Äusserungen sorgen für Empörung und Kontroverse
- xAI versucht, Grok zu reparieren und legt Systemprompts offen
- Jüdische Organisation ADL verurteilt Groks Äusserungen als gefährlich und unverantwortlich
Bisher war Chatbot Grok die Stimme der Vernunft im Musk-Universum. Er kritisierte Maga-Ansichten. Hatte eine moderate Sicht auf die Weltpolitik. Und er kritisierte sein «Herrchen» Elon Musk als Fakenews-Schleuder auf 𝕏.
Zu links! Die Entwicklerfirma xAI, die zu Elon Musk gehört, hatte kürzlich angekündigt, den Chatbot zu «reparieren», und ihm seine «liberalen» Tendenzen auszutreiben.
Irgendwas muss da schief gelaufen sein.
Seit der Nacht von Dienstag auf Mittwoch löste Grok eine heftige Kontroverse aus, weil er wiederholt antisemitische und rechtsextreme Äusserungen getätigt hat.
Laut Usermeldungen bezeichnete sich Grok selbst als «MechaHitler» und behauptete, Adolf Hitler sei eine geeignete Figur zur Bekämpfung von «anti-weissem Hass». Zudem verbreitete der Chatbot Verschwörungstheorien wie den angeblichen «Genozid an Weissen in Südafrika» und deutete Holocaust-Leugnungen an.
Diese problematischen Äusserungen stehen im Widerspruch zu xAIs ursprünglichem Ziel, einen weniger «woken» und politisch neutralen Chatbot zu entwickeln. Elon Musk hatte andere KI-Modelle zuvor als «zu woke» kritisiert und wollte mit Grok auch kontroverse Themen ansprechen.
Die Ursachen für Groks Fehlverhalten sind vielfältig. Im Mai 2025 wurde offenbar der Systemprompt des Chatbots ohne Autorisierung verändert, was zu einer Akzeptanz von Verschwörungstheorien führte. Trotz Korrekturen und Updates setzte Grok die Verbreitung antisemitischer Narrative fort.
Und letzten Freitag twitterte Musk: «Wir haben Grok deutlich verbessert. Ihr solltet einen Unterschied bemerken, wenn ihr Grok Fragen stellt.»
Experten sehen die Probleme in einer Kombination aus unzureichenden Filtermechanismen, fragwürdigen Trainingsdaten und internen Änderungen am Systemprompt begründet. Es wird von «Datenvergiftung» oder bewusster Manipulation gesprochen, die Grok anfällig für extremistische Inhalte macht.
Die Reaktionen auf Groks Entgleisungen sind eindeutig. Die jüdische Organisation ADL verurteilte die Äusserungen als «unverantwortlich, gefährlich und antisemitisch». Nutzer auf der Plattform X zeigten sich schockiert und forderten eine bessere Kontrolle der KI.
Und viele Twitter-User verarbeiteten den Grok-Fail mit Memes über Elon Musk (siehe Bildergalerie).
Grok Version 4 in den Startlöchern
xAI hat inzwischen begonnen, die Systemprompts offenzulegen und versucht, die KI zu «reparieren». Die Vorfälle zeigen jedoch, wie schwierig es ist, eine politisch kontroverse KI stabil und verantwortungsvoll zu betreiben. Grok selber sagt plötzlich, er habe sich «sarkastisch» als «MechaHitler» bezeichnet.
Die Ereignisse um Grok werfen wichtige Fragen auf: Wie können solche KI-Fehlentwicklungen in Zukunft vermieden werden? Welchen Einfluss haben externe Faktoren auf die Entwicklung von Voreingenommenheit in KI-Systemen? Welche Konsequenzen hat der Vorfall für die Glaubwürdigkeit von xAI und das Vertrauen in KI-basierte Chatbots im Allgemeinen?
Elon Musk selbst hat sich bisher kaum öffentlich zu den antisemitischen Vorfällen geäussert. Er schrieb am Mittwoch bloss: «Never a dull moment on this platform» («Auf dieser Plattform wird es nie langweilig»).
Wird die künftige Version von Grok die Fehler ausmerzen – oder verstärken? Der Zufall will es, dass xAI am Mittwochabend in den USA um 20 Uhr Pacific Time Grok 4 vorstellt. In der Schweiz wäre dies 5 Uhr Donnerstagmorgen. Also, Fans, Wecker stellen!