«Eine Grafikkarte braucht etwa ein Kilowatt»
1:18
ETH-Forscher Imanol Schlag:«Eine Grafikkarte braucht etwa ein Kilowatt»

Fehler in jeder 2. Antwort
KI-Chatbots verzerren laut Studie Nachrichten

Laut BBC geben ChatGPT, Copilot, Gemini und Perplexity in fast der Hälfte aller Fälle fehlerhafte oder irreführende Antworten auf News-Fragen – unabhängig von Sprache oder Land. Auch SRF war an der Studie beteiligt.
Publiziert: 00:02 Uhr
|
Aktualisiert: vor 49 Minuten
Teilen
Anhören
Kommentieren
1/4
So stellt die AI sich selbst vor, wenn sie Fake-News zusammenfabriziert.
Foto: KI-Illustration/Gemini

Darum gehts

  • KI-Chatbots machen viele Fehler und sind unzuverlässige Informationsquellen
  • EBU-Studie zeigt systematische Probleme bei KI-Assistenten über Grenzen hinweg
  • 45 Prozent aller Antworten enthielten mindestens einen gravierenden Fehler
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.

Ob ChatGPT, bei dem Papst Franziskus noch lebte. Copilot, der nicht wusste, dass Schweden in der Nato ist. Oder Gemini, das Trumps Wiederwahl als «möglich» einstufte, obwohl sie bereits stattgefunden hatte.

KI-Chatbots sind längst zur täglichen Informationsquelle geworden – doch sie machen noch viele Fehler und sind erschreckend unzuverlässig. Das zeigt eine neue Untersuchung der European Broadcasting Union (EBU).

Die Studie, die von der BBC koordiniert und an der 22 öffentlich-rechtliche Medienhäuser aus 18 Ländern beteiligt waren – darunter auch SRF – hat über 3000 Antworten von vier führenden KI-Assistenten ausgewertet: ChatGPT, Copilot, Gemini und Perplexity. Zeitraum: Mai–Juni 2025.

Das Ergebnis:

  • 45 % aller Antworten enthielten mindestens einen gravierenden Fehler
  • 31 % litten unter fehlenden oder falschen Quellenangaben
  • 20 % wiesen inhaltliche Fehler auf – etwa erfundene Details oder veraltete Informationen
  • Besonders schlecht schnitt Gemini ab: In 72 % der Fälle lagen schwerwiegende Mängel bei den Quellen vor

«Diese Probleme sind nicht zufällig, sondern systematisch – über Grenzen und Sprachen hinweg», sagt Jean Philip De Tender, EBU-Mediadirektor. «Wenn Menschen nicht mehr wissen, was sie glauben sollen, vertrauen sie am Ende gar nichts mehr – das gefährdet die Demokratie.»

Warum das wichtig ist

Gemäss dem Reuters Institute Digital News Report 2025 beziehen bereits 7 Prozent der Online-News-Konsumenten ihre Informationen über KI-Assistenten – bei den Unter-25-Jährigen ist es mehr als doppelt so viel. Wenn diese Tools Nachrichten verzerren oder falsch wiedergeben, gefährdet das die Glaubwürdigkeit des gesamten Informationsökosystems.

«Wir wollen, dass diese Tools funktionieren – aber sie müssen verlässlich sein», sagt Peter Archer, Programmleiter für generative KI bei der BBC. «Trotz einiger Fortschritte gibt es weiterhin grosse Lücken.»

Auch Google springt voll auf den KI-Zug auf. Wer wie früher nur «googelt» bekam schon länger die «KI-Übersicht» angezeigt. Seit einigen Wochen ist nun auch in der Schweiz der weiterführende «KI-Modus» aufgeschaltet. Kurz: vor KI-Antworten gibt es praktisch kein Entkommen.

Typische Fehler:

  • Falsche oder manipulierte Zitate (z. B. erfundene Trudeau- oder Le-Pen-Zitate)
  • Veraltete Informationen (z. B. ChatGPT nannte im Mai 2025 noch Papst Franziskus)
  • Unpassende oder satirische Quellen (z. B. Radio-France-Satire als Nachrichtenquelle)
  • Erfundene Links bzw. Quellen (besonders bei Gemini)
  • Vermischung von Meinung und Fakt – häufig als objektive Aussage präsentiert
  • Überkonfidente Tonalität: KI-Antworten wirken sehr sicher, auch wenn sie falsch sind

Was jetzt passieren soll

Parallel zur Studie veröffentlichten EBU und BBC ein «News Integrity in AI Assistants Toolkit», das Redaktionen, Entwicklern und Regulatoren helfen soll, die Qualität von KI-Antworten zu verbessern.

Medien können Chatbots zwar nicht «erziehen» – aber sie können das Informations-Ökosystem so gestalten, dass gute Antworten wahrscheinlicher werden und die Daten besser von der Maschine gelesen werden können: klare Quellen, offene Daten, saubere Trennung von Fakt und Meinung, Feedback an Tech-Anbieter und Schulung der eigenen Leute.

Zudem fordern die EBU-Mitglieder, bestehende EU-Gesetze zu Informationsintegrität und digitaler Transparenz konsequenter anzuwenden. Auch ein unabhängiges Monitoring von KI-Systemen sei dringend nötig.

Fazit: KI-Assistenten werden immer mächtiger – und viele User behandeln ihre Antworten bereits wie Fakten. Doch laut der EBU-Studie können sie derzeit nicht als verlässliche Nachrichtenquelle gelten. Auch der Bericht sagt zu Chatbots: «Sie sind stark – aber noch nicht vertrauenswürdig.»

Teilen
Fehler gefunden? Jetzt melden
Was sagst du dazu?
Heiss diskutiert
    Meistgelesen
      Meistgelesen