Darum gehts
- KI-Videos werden realistischer. Kontext und Tricks zur Erkennung sind wichtig.
- Detailanalyse, Quellenprüfung und Vergleich helfen bei der Erkennung von KI-Inhalten.
- Das sind die besten Tipps und Tricks zur Identifizierung von KI-generierten Videos.
Ist das echt oder KI? Diese Frage stellt sich heute oft. Ein Politiker sagt plötzlich das Gegenteil von gestern, ein Promi bricht in Tränen aus, ein ehemaliger Präsident wird angeblich verhaftet. Heute reicht ein viraler Clip – und Millionen fallen darauf rein.
Der Zürcher Autor und KI-Künstler Patrick «Karpi» Karpiczenko hat das Prinzip auf die Spitze getrieben. In einem von ihm produzierten KI-Video erklärt ein täuschend echter Donald Trump: «Die Schweiz existiert nicht.» Und holte damit Millionen Views. Satire, ja – aber auch Warnung. «Es gibt immer noch viele Leute, die sagen, sie erkennen KI-Bilder. Das ist kompletter Bullshit», sagt Karpi. Denn die Technik ist heute besser als unser Bauchgefühl.
Dennoch gibt es bei vielen KI-Inhalten Hinweise, um sie zu entlarven. Da KI-Videos immerzu realistischer werden, wird der Kontext wichtiger. Wir zeigen dir die Tricks.
Schau genau hin
KI-Bilder verraten sich oft im Detail: Lippen bewegen sich nicht synchron, die Stimme klingt zu glatt, der Blick wirkt starr. Menschen blinzeln – KI zeigt das oft noch nicht, aber immer seltener. Ein einfacher Trick: Schau dorthin, wo eigentlich nichts passiert – an den Bildrand, in den Hintergrund. Genau dort patzen viele Modelle. Weil sie wie wir das Nebensächliche ausblenden – nur weniger gut.
Frag dich: Wer steckt dahinter?
Kommt das Video von einem offiziellen Account oder aus einer dubiosen Telegram-Gruppe? Gibt es das Original auch bei SRF, BBC oder auf dem offiziellen Youtube-Kanal? Wenn nicht: Misstrauen ist gesund.
Mach den Such-Test
Ein Screenshot reicht. Lade ihn bei Google Bilder oder Tineye hoch. So findest du heraus, ob das Video schon früher kursierte – vielleicht mit anderem Ton, anderer Story.
Vergleichen hilft
Gibt es andere Versionen desselben Videos? Stimmen Bild, Stimme, Inhalt überall überein? Wenn nicht, liegt der Verdacht nahe: Da wurde etwas manipuliert.
Nutze Tools zur Erkennung
Programme wie Reality Defender (KI-Erkennung für Videocalls), oder Microsofts Video Authenticator analysieren Bild und Ton auf typische KI-Muster – diese sind aber meist nur für Unternehmen. Und: Solche KI-Tools liefern keine Garantie – aber eine erste Einschätzung. Kritisch sollte man aber in jedem Fall sein, egal ob das Tool den Inhalt als KI einschätzt oder nicht.
Gibt es ein Wasserzeichen?
Viele KI-Tools kennzeichnen ihren Output sichtbar oder unsichtbar. Google hat mit SynthID ein unsichtbares Wasserzeichen für KI-Inhalte entwickelt. Gute Idee – aber mit Haken: Es funktioniert nur bei Googles eigenen KI-Inhalten. Wenn ein Video mit anderen Tools erzeugt wird, fehlt diese Signatur. Eine gemeinsame Lösung der Tech-Konzerne? Gibt es nicht. Und natürlich lassen sich auch sichtbare Wasserzeichen einfach entfernen.
Denke wie ein Faktenchecker
Stell dir drei Fragen: Wer sagt das? Wem nützt es? Und: Ist es überprüfbar? Falsche Inhalte erkennst du oft nicht am Bild selbst – sondern an der Quelle. Die wirksamste Waffe gegen Desinformation: menschliche Metadaten. Also die Informationen rund ums Video. Was wird behauptet – zum Ort, zur Zeit, zum Ablauf? Genau hier tauchen oft Widersprüche auf.
Hol dir Hilfe bei Faktencheckern
Websites wie Mimikama, Correctiv, AFP Factcheck oder Snopes haben viele virale Clips bereits analysiert – auch den Beitrag von Donald Trump mit dem KI-Video mit Obama. Ein schneller Blick dorthin oder eine Google-Suche kann dir viel Ärger ersparen.
Lass dich nicht überrumpeln
KI-Fakes zielen oft auf deine Gefühle. Wenn dich ein Video besonders wütend, traurig oder euphorisch macht: Pause. Durchatmen. Prüfen. Und schon gar nicht ohne diese drei Schritte weiter teilen.
Fazit
KI-Fakes sind gekommen, um zu bleiben, und sie werden immer besser. Flackernde Augen oder eine künstlich klingende Stimme reichen längst nicht mehr als Warnsignal. Entscheidend ist: Nur weil ein Video echt aussieht, ist es noch lange kein Beweis. Täuschung beginnt nicht erst bei KI. Ein alter Clip in neuem Kontext, eine gestellte Szene, ein perfekt geschnittener Film – all das wirkt glaubwürdig, kann aber auch gezielte Irreführung sein. Ob Photoshop, After Effects oder analoge Tricks von früher: Manipulation hat viele Gesichter. Du siehst nur, was die Kamera zeigt – nicht, was davor, daneben oder dahinter passiert. Oder wie Karpi sagt: «Nur wer die Mechanismen kennt, kann sie durchschauen.»