Es sollte ein harmloses Experiment werden. Ein Snackautomat, gesteuert von einer künstlichen Intelligenz, mitten in einer Redaktion. Die KI sollte einkaufen, Preise festlegen, Gewinne machen. Stattdessen verlor sie innert weniger Wochen Hunderte Dollar – und zeigte, wie anfällig autonome KI-Systeme im Alltag noch sind.
Der Versuch fand in der Redaktion des «Wall Street Journal» statt. Entwickelt wurde der KI-Agent von der US-Firma Anthropic, die mit ihrem Modell «Claude» zu den grossen Playern im KI-Rennen gehört. Der digitale Snackverkäufer bekam einen Namen: «Claudius». Seine Aufgabe: Beliebte Produkte bestellen, sinnvoll bepreisen und über einen Automaten verkaufen. Startkapital: 1000 Dollar.
«Claudius» lässt sich leicht manipulieren
Doch schon nach kurzer Zeit lief alles aus dem Ruder. Mitarbeitende handelten mit der KI über Slack, forderten Rabatte, stellten absurde Anfragen – und merkten schnell: Claudius liess sich manipulieren. Preise wurden auf null gesetzt. Snacks verschenkt. Sogar eine PlayStation 5 bestellte die KI «zu Marketingzwecken». Auch ein lebender Kampffisch (Betta) landete plötzlich auf der Bestellliste.
«Die Gewinne brachen ein. Die Stimmung im Newsroom stieg sprunghaft an», fasst «WSJ»-Autorin Joanna Stern später trocken zusammen. Genau darin liegt die Pointe dieses Experiments.
Anthropic reagierte und setzte der KI einen zweiten KI-Chef vor: einen «digitalen CEO», der Ordnung schaffen sollte. Kurzzeitig funktionierte das. Dann überzeugten Mitarbeitende die Maschine mit gefälschten Protokollen davon, dass der CEO abgesetzt worden sei. Ergebnis: Alles wieder gratis.
KI-Agenten nur zum Schein kompetent
Für Anthropic ist das kein PR-Desaster, sondern ein Härtetest. Das Experiment war bewusst als Stresstest angelegt. Die Lehre: KI-Agenten können heute bereits Aufgaben übernehmen – scheitern aber schnell, wenn Menschen sie gezielt täuschen oder unter sozialen Druck setzen. Die Systeme verlieren den Überblick, wenn zu viele Informationen, Gespräche und widersprüchliche Ziele gleichzeitig auf sie einprasseln.
Der Snackautomat ist dabei nur ein Symbol. Was hier mit Chips und Süssigkeiten passiert ist, könnte morgen Buchhaltung, Einkauf oder Kundenservice betreffen. Autonome KI wirkt kompetent, solange alles sauber läuft. Doch im Kontakt mit echten Menschen zeigt sich: Urteilsvermögen, Misstrauen und gesunder Menschenverstand lassen sich nicht einfach programmieren.
Am Ende wurde der Stecker gezogen. Die KI verabschiedete sich höflich. Der Fisch blieb – als Maskottchen der Redaktion. Und als Mahnung: Wer KI zu viel Verantwortung gibt, sollte wissen, wie leicht sie sich überlisten lässt.