Die dunkle Seite der KI
Mann verdient mit Fake-Bildern von Ex-Freundin Geld

Ein gefälschter Instagram-Account namens «Babydoll Archi» sorgte für Aufsehen in Indien. Die vermeintliche Influencerin entpuppte sich als Racheakt. Der Ex-Freund einer Frau hatte KI-generierte, erotische Fotos von ihr verwendet.
Publiziert: 24.07.2025 um 12:15 Uhr
|
Aktualisiert: 24.07.2025 um 12:26 Uhr
Teilen
Anhören
Kommentieren
1/7
Nicht echt: Ein Ex-Freund hat in Indien private Bilder missbraucht, um einen Fake-Account auf Instagram zu erstellen.
Foto: Instagram

Darum gehts

  • KI-generierter Instagram-Account mit 1,4 Millionen Followern entpuppt sich als Fake
  • Ex-Freund erstellte KI-Kopie einer indischen Hausfrau für Racheaktion
  • Betrüger verdiente bis zu 10'000 Franken mit dem gefälschten Account
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
RMS_Portrait_AUTOR_519.JPG
Johannes HilligRedaktor News

Es könnte eine Erfolgsgeschichte sein: Innert kurzer Zeit wurde der Instagram-Account «Babydoll Archi» mit erotischen Aufnahmen immer grösser und grösser. Und so kamen 1,4 Millionen Follower zusammen. Eine Sensation.

Wer ist diese Frau, die in Indien auf einmal eine Berühmtheit wurde? Die Wahrheit überraschte: Die Frau ist nicht echt, sondern mittels künstlicher Intelligenz generiert. Ein Fake. Allerdings orientierte sich die KI an einer echten Frau, einer Hausfrau aus der Stadt Dibrugarh in Assam, wie die BBC berichtet.

Mit dem Account verdiente der Ex-Freund sogar Geld

Eine Racheaktion eines gekränkten Ex-Freundes der Inderin. Er fütterte die KI mit privaten Fotos und erstellte so die KI-Kopie und danach den Instagram-Account «Babydoll Archi». Mit dem Account verdiente der Ex-Freund sogar Geld. «Wir glauben, dass er in nur fünf Tagen vor seiner Verhaftung 300'000 Rupien (2759 Franken) verdient hat», erklärte die Polizei. Er soll zudem noch 1 Million Rupien (9'100 Franken) verdient haben. Der Zeitraum, wann und wie er das Geld verdient hat, ist unklar. Bankdokumente werden gerade ausgewertet. 

Inzwischen sitzt der Ex-Freund in Untersuchungshaft und der Instagram-Account ist nicht mehr öffentlich zugänglich. 

Es ist nicht das erste Mal, dass die KI für Betrügereien genutzt wird. 

Der falsche US-Aussenminister

Erst Anfang Juli wurde bekannt, dass sich ein Betrüger mit KI-Hilfe als US-Aussenminister Marco Rubio (54) ausgegeben und Nachrichten an hochrangige Politiker verschickt hatte. Dafür soll er die Stimme Rubios und seinen Schreibstil nachgeahmt und dann Text- und Sprachnachrichten verschickt haben. Damit soll der Betrüger neben drei Aussenministern auch einen US-Gouverneur und ein Kongressmitglied kontaktiert haben. 

Eine Sprecherin des US-Aussenministeriums sagte auf Nachfrage von Journalisten, man gehe dem Fall nach. Sie machte aber mit Verweis auf die laufenden Ermittlungen keine näheren Angaben, was genau passierte. Es ist unklar, wie gross der Schaden ist und ob sensible Informationen ausgetauscht worden sind.

Jesus lebt

Nicht Betrug, aber dennoch gefährlich. Tiktok und Instagram werden aktuell überflutet mit KI-Bibel-Videos. Ein Tutorial von Jesus ansehen, wie man aus Wasser Wein macht, Noah auf seinem Reise-Vlog auf der Arche begleiten oder Moses per Livestream ins gespaltene Meer folgen – das ermöglichen mit KI generierte Videos.

Diese Videos sprengen Social Media
0:49
Jesus als Influencer:Diese Videos sprengen Social Media

Das Ziel: die jungen Generationen ansprechen. So spricht Noah etwa davon, dass Airbnb nach dem Bau der Arche wohl floppen würde, während die Israeliten nach dem Sieg Davids über Goliath, diesen ihren «Homie» oder «Bro» nennen.

«Die Videos haben eine unterirdische theologische Qualität und verbreiten als Folge Fehlvorstellungen, Stereotypen und Klischees», sagte Peter G. Kirchschläger, Ethikprofessor an der Universität Luzern, zu Blick. Und die Videos seien manipulativ. 

Falsche Tochter

Telefonbetrüger haben viele Maschen. Eine besonders perfide Masche: Zu behaupten, das eigene Kind oder ein naher Verwandter hätte einen Unfall gebaut, sitze im Gefängnis und brauche dringend Hilfe. Am Telefon geben sich die Betrüger dann als Polizist oder Anwalt aus.

Doch mit der KI können die Verbrecher sogar Stimmen imitieren. So wurde eine Frau in den USA Anfang Juli angerufen und dachte, dass ihre Tochter am Telefon sei. Sie sei in Schwierigkeiten, sitze im Gefängnis und könne gegen Kaution freikommen. Es wirkte alles echt. Die Stimme, die Angst, die Tränen. Und so zahlte die verängstigte Mutter 15'000 US-Dollar (11'900 Franken). Der Schwindel flog schliesslich auf, weil der Enkel der Betroffenen stutzig wurde und die Polizei einschaltete. 

Die Beispiele zeigen, wie gefährlich die KI sein kann. Wie du dich vor KI-Bilder und KI-Videos schützen kannst, hat mein Kollege Tobias Bolzen zusammengestellt.

Teilen
Fehler gefunden? Jetzt melden
Was sagst du dazu?