Darum gehts
- KI-Chatbots machen viele Fehler und sind unzuverlässige Informationsquellen
- EBU-Studie zeigt systematische Probleme bei KI-Assistenten über Grenzen hinweg
- 45 Prozent aller Antworten enthielten mindestens einen gravierenden Fehler
Ob ChatGPT, bei dem Papst Franziskus noch lebte. Copilot, der nicht wusste, dass Schweden in der Nato ist. Oder Gemini, das Trumps Wiederwahl als «möglich» einstufte, obwohl sie bereits stattgefunden hatte.
KI-Chatbots sind längst zur täglichen Informationsquelle geworden – doch sie machen noch viele Fehler und sind erschreckend unzuverlässig. Das zeigt eine neue Untersuchung der European Broadcasting Union (EBU).
Die Studie, die von der BBC koordiniert und an der 22 öffentlich-rechtliche Medienhäuser aus 18 Ländern beteiligt waren – darunter auch SRF – hat über 3000 Antworten von vier führenden KI-Assistenten ausgewertet: ChatGPT, Copilot, Gemini und Perplexity. Zeitraum: Mai–Juni 2025.
Das Ergebnis:
- 45 % aller Antworten enthielten mindestens einen gravierenden Fehler
- 31 % litten unter fehlenden oder falschen Quellenangaben
- 20 % wiesen inhaltliche Fehler auf – etwa erfundene Details oder veraltete Informationen
- Besonders schlecht schnitt Gemini ab: In 72 % der Fälle lagen schwerwiegende Mängel bei den Quellen vor
«Diese Probleme sind nicht zufällig, sondern systematisch – über Grenzen und Sprachen hinweg», sagt Jean Philip De Tender, EBU-Mediadirektor. «Wenn Menschen nicht mehr wissen, was sie glauben sollen, vertrauen sie am Ende gar nichts mehr – das gefährdet die Demokratie.»
Warum das wichtig ist
Gemäss dem Reuters Institute Digital News Report 2025 beziehen bereits 7 Prozent der Online-News-Konsumenten ihre Informationen über KI-Assistenten – bei den Unter-25-Jährigen ist es mehr als doppelt so viel. Wenn diese Tools Nachrichten verzerren oder falsch wiedergeben, gefährdet das die Glaubwürdigkeit des gesamten Informationsökosystems.
«Wir wollen, dass diese Tools funktionieren – aber sie müssen verlässlich sein», sagt Peter Archer, Programmleiter für generative KI bei der BBC. «Trotz einiger Fortschritte gibt es weiterhin grosse Lücken.»
Auch Google springt voll auf den KI-Zug auf. Wer wie früher nur «googelt» bekam schon länger die «KI-Übersicht» angezeigt. Seit einigen Wochen ist nun auch in der Schweiz der weiterführende «KI-Modus» aufgeschaltet. Kurz: vor KI-Antworten gibt es praktisch kein Entkommen.
Typische Fehler:
- Falsche oder manipulierte Zitate (z. B. erfundene Trudeau- oder Le-Pen-Zitate)
- Veraltete Informationen (z. B. ChatGPT nannte im Mai 2025 noch Papst Franziskus)
- Unpassende oder satirische Quellen (z. B. Radio-France-Satire als Nachrichtenquelle)
- Erfundene Links bzw. Quellen (besonders bei Gemini)
- Vermischung von Meinung und Fakt – häufig als objektive Aussage präsentiert
- Überkonfidente Tonalität: KI-Antworten wirken sehr sicher, auch wenn sie falsch sind
Was jetzt passieren soll
Parallel zur Studie veröffentlichten EBU und BBC ein «News Integrity in AI Assistants Toolkit», das Redaktionen, Entwicklern und Regulatoren helfen soll, die Qualität von KI-Antworten zu verbessern.
Medien können Chatbots zwar nicht «erziehen» – aber sie können das Informations-Ökosystem so gestalten, dass gute Antworten wahrscheinlicher werden und die Daten besser von der Maschine gelesen werden können: klare Quellen, offene Daten, saubere Trennung von Fakt und Meinung, Feedback an Tech-Anbieter und Schulung der eigenen Leute.
Zudem fordern die EBU-Mitglieder, bestehende EU-Gesetze zu Informationsintegrität und digitaler Transparenz konsequenter anzuwenden. Auch ein unabhängiges Monitoring von KI-Systemen sei dringend nötig.
Fazit: KI-Assistenten werden immer mächtiger – und viele User behandeln ihre Antworten bereits wie Fakten. Doch laut der EBU-Studie können sie derzeit nicht als verlässliche Nachrichtenquelle gelten. Auch der Bericht sagt zu Chatbots: «Sie sind stark – aber noch nicht vertrauenswürdig.»