Schneeleopard stürzt sich auf Touristin
1:07
Sie wollte ein Foto machen:Schneeleopard stürzt sich auf Skifahrerin

Bist du darauf reingefallen?
Selfie vor Schneeleopard-Attacke ist ein KI-Fake

Ja, eine chinesische Skifahrerin ist von einem Schneeleopard angegriffen worden. Nein, sie hat davor kein Selfie gemacht. Blick erklärt, wie man den KI-Fake erkennt.
Kommentieren
1/7
Zu gut, um wahr zu sein: Dieses Selfie wurde mit künstlicher Intelligenz hergestellt.
Foto: Foto 𝕏

Darum gehts

  • Eine Skifahrerin in China postet ein Selfie mit Schneeleoparden im Januar
  • Selfie wurde als KI-Fälschung entlarvt durch unsichtbare Wasserzeichen
  • Google-Tool «SynthID» bestätigt KI-Herkunft mit hohem Confidence-Level
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
Thomas_Benkö_AI Innovation Lead_Blick.jpg
Thomas BenköJournalist & AI Innovation Lead

Das Foto ging um die Welt. In China entdeckt eine Skifahrerin einen Schneeleoparden – und macht vermeintlich lachend ein Selfie. 

Ein Video zeigt danach, wie die Frau von der Raubkatze angefallen und blutig verletzt wird. Andere Skifahrer können den Schneeleoparden vertreiben und die Frau retten.

Der Vorfall passierte in der letzten Januarwoche im chinesischen Ski-Resort Koktokay. Noch heute haben diverse Medien weltweit die Selfie-Story online.

Was stimmt

Die Frau war auf dem Weg zum Hotel und soll sich dem Tier trotz Warnungen für ein Foto genähert haben.

Was Fake ist

Das Selfie sieht zwar auf den ersten Blick täuschend echt aus. Es ist aber relativ einfach als Fälschung zu entlarven, die mit künstlicher Intelligenz hergestellt wurde.

Die Beweise/Indizien

1. Googles KI-Maschine Gemini versieht jedes KI-Bild mit einem unsichtbaren Wasserzeichen, das mit dem entsprechenden Tool auszulesen ist. Dieses Tool heisst «SynthID». Zwar ist die Seite noch nicht für alle User verfügbar, Blick hat aber Zugriff. Bei der Abfrage zum Schneeleoparden-Selfie meldet SynthID: «Made with Google AI» – erstellt mit der KI von Google. Confidence-Level: hoch!

«Made with Google AI»: Das Google-Tool SynthID erkannte das KI-Wasserzeichen.
Foto: Screenshot Blick

2. Dennoch gibt es fürs breite Publikum einen Trick, um SynthID zu nutzen. Seit ein paar Wochen ist es direkt im Google-chatbot Gemini eingebaut. Hier kann man fragliche Bilder hochladen und fragen: «Ist es AI?». In diesem Fall meldete Gemini: «Ja, dieses Bild wurde mit Hilfe von Künstlicher Intelligenz (KI) erstellt oder bearbeitet. Eine Analyse mit dem Tool SynthID hat ergeben, dass Teile des Bildes digitale Wasserzeichen enthalten, die auf den Einsatz von Google KI-Modellen hinweisen.»

3. Und dann stimmen gewisse Details auf dem Bild nicht – etwa die Farbe der Skijacke. Das überzeugendste Indiz: Auf dem Video ist zu erkennen, wie die Frau einen schwarzen Skihelm der Marke Giro trägt. Das weisse Logo ist gut zu erkennen. Auf dem Selfie fehlt das Logo aber – und auch die Schlitze im Helm sind leicht anders.

Was den Fall besonders tricky macht

Vor allem dann, wenn reale Ereignisse und KI-Bilder verschmelzen ist es besonders schwierig, den Durchblick zu behalten. Zudem versagen bei diesem Selfie andere KI-Erkennungstools. Seiten wie «copyleaks.com» oder «ZeroGPT» haben keine KI erkannt und grünes Licht gegeben.

Fazit

Mittlerweile fluten wahnsinnig viele KI-Inhalte das Internet – insbesondere auf Social Media. Beim Sichten lohnt es sich, die ersten Impulse zu kontrollieren. Vor allem bei spektakulären Bildern oder Videos schwingt immer die Möglichkeit mit, dass mit KI etwas getrickst wird. 

Was sagst du dazu?
Heiss diskutiert
    Meistgelesen