Darum gehts
- KI-generierter Instagram-Account mit 1,4 Millionen Followern entpuppt sich als Fake
- Ex-Freund erstellte KI-Kopie einer indischen Hausfrau für Racheaktion
- Betrüger verdiente bis zu 10'000 Franken mit dem gefälschten Account
Es könnte eine Erfolgsgeschichte sein: Innert kurzer Zeit wurde der Instagram-Account «Babydoll Archi» mit erotischen Aufnahmen immer grösser und grösser. Und so kamen 1,4 Millionen Follower zusammen. Eine Sensation.
Wer ist diese Frau, die in Indien auf einmal eine Berühmtheit wurde? Die Wahrheit überraschte: Die Frau ist nicht echt, sondern mittels künstlicher Intelligenz generiert. Ein Fake. Allerdings orientierte sich die KI an einer echten Frau, einer Hausfrau aus der Stadt Dibrugarh in Assam, wie die BBC berichtet.
Mit dem Account verdiente der Ex-Freund sogar Geld
Eine Racheaktion eines gekränkten Ex-Freundes der Inderin. Er fütterte die KI mit privaten Fotos und erstellte so die KI-Kopie und danach den Instagram-Account «Babydoll Archi». Mit dem Account verdiente der Ex-Freund sogar Geld. «Wir glauben, dass er in nur fünf Tagen vor seiner Verhaftung 300'000 Rupien (2759 Franken) verdient hat», erklärte die Polizei. Er soll zudem noch 1 Million Rupien (9'100 Franken) verdient haben. Der Zeitraum, wann und wie er das Geld verdient hat, ist unklar. Bankdokumente werden gerade ausgewertet.
Inzwischen sitzt der Ex-Freund in Untersuchungshaft und der Instagram-Account ist nicht mehr öffentlich zugänglich.
Es ist nicht das erste Mal, dass die KI für Betrügereien genutzt wird.
Der falsche US-Aussenminister
Erst Anfang Juli wurde bekannt, dass sich ein Betrüger mit KI-Hilfe als US-Aussenminister Marco Rubio (54) ausgegeben und Nachrichten an hochrangige Politiker verschickt hatte. Dafür soll er die Stimme Rubios und seinen Schreibstil nachgeahmt und dann Text- und Sprachnachrichten verschickt haben. Damit soll der Betrüger neben drei Aussenministern auch einen US-Gouverneur und ein Kongressmitglied kontaktiert haben.
Eine Sprecherin des US-Aussenministeriums sagte auf Nachfrage von Journalisten, man gehe dem Fall nach. Sie machte aber mit Verweis auf die laufenden Ermittlungen keine näheren Angaben, was genau passierte. Es ist unklar, wie gross der Schaden ist und ob sensible Informationen ausgetauscht worden sind.
Jesus lebt
Nicht Betrug, aber dennoch gefährlich. Tiktok und Instagram werden aktuell überflutet mit KI-Bibel-Videos. Ein Tutorial von Jesus ansehen, wie man aus Wasser Wein macht, Noah auf seinem Reise-Vlog auf der Arche begleiten oder Moses per Livestream ins gespaltene Meer folgen – das ermöglichen mit KI generierte Videos.
Das Ziel: die jungen Generationen ansprechen. So spricht Noah etwa davon, dass Airbnb nach dem Bau der Arche wohl floppen würde, während die Israeliten nach dem Sieg Davids über Goliath, diesen ihren «Homie» oder «Bro» nennen.
«Die Videos haben eine unterirdische theologische Qualität und verbreiten als Folge Fehlvorstellungen, Stereotypen und Klischees», sagte Peter G. Kirchschläger, Ethikprofessor an der Universität Luzern, zu Blick. Und die Videos seien manipulativ.
Falsche Tochter
Telefonbetrüger haben viele Maschen. Eine besonders perfide Masche: Zu behaupten, das eigene Kind oder ein naher Verwandter hätte einen Unfall gebaut, sitze im Gefängnis und brauche dringend Hilfe. Am Telefon geben sich die Betrüger dann als Polizist oder Anwalt aus.
Doch mit der KI können die Verbrecher sogar Stimmen imitieren. So wurde eine Frau in den USA Anfang Juli angerufen und dachte, dass ihre Tochter am Telefon sei. Sie sei in Schwierigkeiten, sitze im Gefängnis und könne gegen Kaution freikommen. Es wirkte alles echt. Die Stimme, die Angst, die Tränen. Und so zahlte die verängstigte Mutter 15'000 US-Dollar (11'900 Franken). Der Schwindel flog schliesslich auf, weil der Enkel der Betroffenen stutzig wurde und die Polizei einschaltete.
Die Beispiele zeigen, wie gefährlich die KI sein kann. Wie du dich vor KI-Bilder und KI-Videos schützen kannst, hat mein Kollege Tobias Bolzen zusammengestellt.