Firma blamiert sich mit KI
Deloitte muss wegen ChatGPT-Fehler Geld zurückzahlen

Er sollte Klarheit schaffen, doch der kostspielige Bericht von Deloitte brachte vor allem Verwirrung: Statt Fakten enthielt er Fantasie. Nun zahlt die Beratungsfirma Geld an die australische Regierung zurück.
Publiziert: 12:26 Uhr
Teilen
Anhören
Kommentieren
1/6
Die Beratungsfirma Deloitte hat in einem Regierungsbericht ChatGPT eingesetzt, ohne dies zu deklarieren. Im Bericht hatte es fehlerhafte Quellenangaben.
Foto: IMAGO/Aleksander Kalka

Darum gehts

  • Deloitte muss Geld zurückzahlen wegen KI-Fehlern in einem Regierungsbericht
  • KI erfand nicht existierende Professoren und Gerichtsurteile für den Bericht
  • 440’000 australische Dollar (230’000 Franken) hatte der Bericht gekostet
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
nnnnnnn.jpg
Tobias BolzernRedaktor Digital

ChatGPT für die Ufzgi? Das machen wohl viele Schüler. Doch auch Topberater setzen auf künstliche Intelligenz (KI) – mit teuren Folgen. Deloitte, eines der grössten Beratungsunternehmen der Welt, muss jetzt der australischen Regierung Geld zurückzahlen. Der Grund: KI erfand für einen Bericht Professoren, die es nicht gibt, und Gerichtsurteile, die nie gefällt wurden.

440’000 australische Dollar (230’000 Franken) hatte Deloitte für den Bericht über das australische Sozialsystem kassiert, der im Juli 2025 veröffentlich wurde. Der Rapport sollte prüfen, ob ein automatisiertes System zur Kürzung von Sozialleistungen korrekt funktioniert. Doch der Bericht enthielt gravierende Fehler: Genannt wurden etwa Studien von Professoren der Universitäten Sydney in Australien und Lund in Schweden, die es nicht gibt. Auch ein Zitat aus einem Gerichtsurteil war frei erfunden, wie die Zeitung «Australian Financial Review» zuerst berichtete.

Dozent entlarvt KI-Halluzinationen

Christopher Rudge, stellvertretender Direktor von Sydney Health Law und Dozent an der Universität Sydney, entdeckte die Ungereimtheiten. Er vermutete schnell: Das sind «Halluzinationen», so nennt man es, wenn KI-Systeme Fakten erfinden. Rudge machte dies publik. Deloitte startete eine Untersuchung.

Ende September lud die Beratungsfirma eine abgeänderte Version des Berichts hoch. Darin stand neu, man habe das KI-Sprachmodell GPT-4o von OpenAI verwendet, um «zu prüfen, ob der Systemcode-Status auch den geschäftlichen Anforderungen und Compliance-Anforderungen zugeordnet werden kann». Heisst: Der KI-Chatbot half bei Analysen und beim Vergleich von Quellen, ohne dass dies ursprünglich offengelegt wurde.

Das Kernproblem: KI-Sprachmodelle sind keine Wissensmaschinen. Sie berechnen, welches Wort statistisch am wahrscheinlichsten als nächstes kommt – aber nicht, ob eine Quelle existiert. Klingt eine erfundene Referenz plausibel, wird sie präsentiert.

Für einen Bericht, der menschliches Expertenwissen verkaufen soll, ist das fatal. «Man kann den Empfehlungen nicht trauen, wenn das Fundament des Berichts auf einer fehlerhaften, ursprünglich nicht offengelegten und nicht expertenhaften Methodik aufbaut», erklärte Rudge der «Australian Financial Review»

«Menschliches Versagen»

Deloitte selbst sieht das anders. Das Unternehmen bestätigte zwar, dass «einige Fussnoten und Referenzen inkorrekt» waren. Die Untersuchung habe aber ergeben, dass die Fehler auf «menschliches Versagen» zurückzuführen seien, nicht auf den Einsatz der KI, so berichtete die «Australian Financial Review». Zudem sagt Deloitte: «Die vorgenommenen Änderungen haben keinerlei Auswirkungen auf den inhaltlichen Gehalt, die Erkenntnisse und Empfehlungen des Berichts.»

Dies bestätigt auch das australische Arbeitsministerium. Dennoch zahlt Deloitte die letzte Rate der Auftragssumme zurück. Wie viel genau, will die Firma erst bekannt geben, wenn die Transaktion abgeschlossen ist. Ein Sprecher erklärte: «Die Angelegenheit wurde direkt mit dem Kunden geklärt.»

Deloitte setzt voll auf KI

Das Timing hätte kaum schlechter sein können. Ausgerechnet diese Woche verkündete Deloitte eine Grossoffensive. Die Firma macht die KI Claude des US-Unternehmens Anthropic für alle 470’000 Mitarbeitenden weltweit verfügbar. Es ist laut Anthropic die grösste KI-Einführung bisher. Die Botschaft: KI sei «mächtig und prinzipientreu». Der Fall aus Australien zeigt aber: Zwischen Versprechen und Realität klafft eine Lücke – und auch bei teuren Beratern lohnt es sich, die Hausaufgaben zu kontrollieren.

Teilen
Fehler gefunden? Jetzt melden
Was sagst du dazu?
Heiss diskutiert
    Meistgelesen
      Meistgelesen