Trump postet AI-Video von Obamas Verhaftung
0:34
Ohne Kennzeichnung:Trump postet AI-Video von Obamas Verhaftung

Was stimmt noch?
KI-Fake-Videos – 9 Tipps und Tricks entlarven jede Lüge

KI-Videos wirken täuschend echt – und sind oft brandgefährlich. Mit ein paar Tricks und Tools kannst du solche Fakes erkennen. Dennoch: Eine Allzweckwaffe gibt es nicht.
Publiziert: 13:21 Uhr
|
Aktualisiert: 14:12 Uhr
Teilen
Anhören
Kommentieren

Darum gehts

  • KI-Videos werden realistischer. Kontext und Tricks zur Erkennung sind wichtig.
  • Detailanalyse, Quellenprüfung und Vergleich helfen bei der Erkennung von KI-Inhalten.
  • Das sind die besten Tipps und Tricks zur Identifizierung von KI-generierten Videos.
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
nnnnnnn.jpg
Tobias BolzernRedaktor Digital

Ist das echt oder KI? Diese Frage stellt sich heute oft. Ein Politiker sagt plötzlich das Gegenteil von gestern, ein Promi bricht in Tränen aus, ein ehemaliger Präsident wird angeblich verhaftet. Heute reicht ein viraler Clip – und Millionen fallen darauf rein.

Der Zürcher Autor und KI-Künstler Patrick «Karpi» Karpiczenko hat das Prinzip auf die Spitze getrieben. In einem von ihm produzierten KI-Video erklärt ein täuschend echter Donald Trump: «Die Schweiz existiert nicht.» Und holte damit Millionen Views. Satire, ja – aber auch Warnung. «Es gibt immer noch viele Leute, die sagen, sie erkennen KI-Bilder. Das ist kompletter Bullshit», sagt Karpi. Denn die Technik ist heute besser als unser Bauchgefühl.

Dennoch gibt es bei vielen KI-Inhalten Hinweise, um sie zu entlarven. Da KI-Videos immerzu realistischer werden, wird der Kontext wichtiger. Wir zeigen dir die Tricks.

1

Schau genau hin

KI-Bilder verraten sich oft im Detail: Lippen bewegen sich nicht synchron, die Stimme klingt zu glatt, der Blick wirkt starr. Menschen blinzeln – KI zeigt das oft noch nicht, aber immer seltener. Ein einfacher Trick: Schau dorthin, wo eigentlich nichts passiert – an den Bildrand, in den Hintergrund. Genau dort patzen viele Modelle. Weil sie wie wir das Nebensächliche ausblenden – nur weniger gut.

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.
2

Frag dich: Wer steckt dahinter?

Kommt das Video von einem offiziellen Account oder aus einer dubiosen Telegram-Gruppe? Gibt es das Original auch bei SRF, BBC oder auf dem offiziellen Youtube-Kanal? Wenn nicht: Misstrauen ist gesund.

3

Mach den Such-Test

Ein Screenshot reicht. Lade ihn bei Google Bilder oder Tineye hoch. So findest du heraus, ob das Video schon früher kursierte – vielleicht mit anderem Ton, anderer Story.

4

Vergleichen hilft

Gibt es andere Versionen desselben Videos? Stimmen Bild, Stimme, Inhalt überall überein? Wenn nicht, liegt der Verdacht nahe: Da wurde etwas manipuliert.

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.
5

Nutze Tools zur Erkennung

Programme wie Reality Defender (KI-Erkennung für Videocalls), oder Microsofts Video Authenticator analysieren Bild und Ton auf typische KI-Muster – diese sind aber meist nur für Unternehmen. Und: Solche KI-Tools liefern keine Garantie – aber eine erste Einschätzung. Kritisch sollte man aber in jedem Fall sein, egal ob das Tool den Inhalt als KI einschätzt oder nicht. 

6

Gibt es ein Wasserzeichen?

Viele KI-Tools kennzeichnen ihren Output sichtbar oder unsichtbar. Google hat mit SynthID ein unsichtbares Wasserzeichen für KI-Inhalte entwickelt. Gute Idee – aber mit Haken: Es funktioniert nur bei Googles eigenen KI-Inhalten. Wenn ein Video mit anderen Tools erzeugt wird, fehlt diese Signatur. Eine gemeinsame Lösung der Tech-Konzerne? Gibt es nicht. Und natürlich lassen sich auch sichtbare Wasserzeichen einfach entfernen. 

7

Denke wie ein Faktenchecker

Stell dir drei Fragen: Wer sagt das? Wem nützt es? Und: Ist es überprüfbar? Falsche Inhalte erkennst du oft nicht am Bild selbst – sondern an der Quelle. Die wirksamste Waffe gegen Desinformation: menschliche Metadaten. Also die Informationen rund ums Video. Was wird behauptet – zum Ort, zur Zeit, zum Ablauf? Genau hier tauchen oft Widersprüche auf.

8

Hol dir Hilfe bei Faktencheckern

Websites wie Mimikama, Correctiv, AFP Factcheck oder Snopes haben viele virale Clips bereits analysiert – auch den Beitrag von Donald Trump mit dem KI-Video mit Obama. Ein schneller Blick dorthin oder eine Google-Suche kann dir viel Ärger ersparen.

9

Lass dich nicht überrumpeln

KI-Fakes zielen oft auf deine Gefühle. Wenn dich ein Video besonders wütend, traurig oder euphorisch macht: Pause. Durchatmen. Prüfen. Und schon gar nicht ohne diese drei Schritte weiter teilen.

Fazit

KI-Fakes sind gekommen, um zu bleiben, und sie werden immer besser. Flackernde Augen oder eine künstlich klingende Stimme reichen längst nicht mehr als Warnsignal. Entscheidend ist: Nur weil ein Video echt aussieht, ist es noch lange kein Beweis. Täuschung beginnt nicht erst bei KI. Ein alter Clip in neuem Kontext, eine gestellte Szene, ein perfekt geschnittener Film – all das wirkt glaubwürdig, kann aber auch gezielte Irreführung sein. Ob Photoshop, After Effects oder analoge Tricks von früher: Manipulation hat viele Gesichter. Du siehst nur, was die Kamera zeigt – nicht, was davor, daneben oder dahinter passiert. Oder wie Karpi sagt: «Nur wer die Mechanismen kennt, kann sie durchschauen.»


Teilen
Fehler gefunden? Jetzt melden
Was sagst du dazu?