An Schweizer Schule
12-Jährige verbreiten KI-Nacktfotos von Mitschülerin

An einer Sekundarschule in der Deutschschweiz haben Buben mit einem KI-Tool Nacktbilder von Mitschülerinnen erstellt und via Snapchat verschickt. Die Jugendanwaltschaft ermittelt.
Kommentieren
1/5
Eine Gruppe Sekundarschüler hat mit einer Website KI-Nacktbilder von Mitschülerinnen erstellt. Die Jugendanwaltschaft ermittelt.
Foto: IMAGO/Cavan Images

Darum gehts

  • Schüler erstellten gefälschte Nacktbilder von Mitschülerinnen und verbreiteten sie
  • Die genutzte Website aus China akzeptiert Kinderfotos ohne Altersprüfung
  • 95 Prozent aller Deepfakes weltweit sind pornografisch, meist Frauen betroffen
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
nnnnnnn.jpg
Tobias BolzernRedaktor Digital

Eine Gruppe von 12- bis 14-jährigen Sekundarschülern hat mit einer Gratis-Website gefälschte Nacktbilder von Mädchen aus ihrer Schule fabriziert. Die KI-Bilder verbreiteten sie danach über Snapchat. Die kantonale Jugendanwaltschaft hat ein Verfahren eröffnet, wie der «Tages-Anzeiger» berichtet. Der genaue Ort wird zum Schutz der Betroffenen nicht genannt.

«Wenn Nacktbilder ohne Einverständnis hergestellt oder verschickt werden, kann dies strafbar sein», erklärt Martin Wyss, Rechtsanwalt und wissenschaftlicher Mitarbeiter der Universität Zürich gegenüber der Zeitung. Bei unter 18-Jährigen könne dies unter das Kinderpornografieverbot fallen, auch bei KI-generierten Bildern. In der Schweiz ist man ab zehn Jahren strafmündig.

KI-Website aus China

Dass es in der Schweiz zu solchen Fällen kommen würde, war absehbar. Bereits vor einem Jahr bestätigte die Kapo Zürich gegenüber 20 Minuten dass Anzeigen wegen Deepfake-Pornos eingegangen seien. Kriminologe Dirk Baier von der Zürcher Hochschule für angewandte Wissenschaften warnte damals: «Umso einfacher es wird, Deepfakes zu erzeugen, umso mehr wird ihre Verwendung steigen.» 

Die im aktuellen Fall verwendete Website wirbt offen damit, jede Person innerhalb von Sekunden ausziehen zu können. Laut Recherchen des «Tages-Anzeigers» fehlt bei der Website aus China jeglicher Jugendschutz: keine Altersabfrage, keine Registrierung, keine Bezahlung nötig. Ein Test zeigte, dass gar Fotos von Kindern akzeptiert werden.

Ein globales Muster

Das ist kein Einzelfall. Hinter den frei zugänglichen Tools stecke «ein internationales Netzwerk», sagt Oliver Marsh, Forschungsleiter bei der Organisation Algorithmwatch zu netzpolitik.org. Sie würden auf Plattformen wie X, Facebook und in den App-Stores von Google und Apple beworben. Auf Telegram, Discord und Reddit kursierten zudem Tipps, wie Schutzmechanismen von Chatbots ausgehebelt werden können. Algorithmwatch bezeichnet die Programme als «Non-consensual Sexualization Tools», also Werkzeuge zur Sexualisierung ohne Einwilligung. Zusätzliche Brisanz erhält das Thema durch den KI-Chatbot Grok des Milliardärs Elon Musk. Das Tool generierte jüngst massenhaft sexualisierte Bilder, die über X ein breites Publikum fanden. 

Der Schweizer Fall reiht sich in ein globales Muster ein. In Spanien erhielten 2023 mehr als 20 Mädchen zwischen 11 und 17 Jahren gefälschte Nacktbilder von sich – erstellt von Mitschülern mit einer KI-App, die für zehn Euro 25 solcher KI-Bilder generierte. In Südkorea deckte die Journalistin Ko Narin 2024 auf, dass an über 500 Schulen und Unis Deepfakes von Schülerinnen in Telegram-Gruppen zirkulierten, teilweise mit über 200'000 Mitgliedern. Laut einer Studie der Cybersicherheitsfirma Deeptrace aus dem Jahr 2019 waren 96 Prozent aller Deepfake-Videos im Internet pornografisch. In 99 von 100 Fällen waren Frauen und Mädchen betroffen. 

«Diese Entwicklung ist für das Lehrpersonal und für die Schülerinnen und Schüler katastrophal», sagt Dagmar Rösler, Präsidentin des Schweizer Lehrerverbands LCH, gegenüber dem «Tages-Anzeiger». Globale Firmen profitierten, doch die Konsequenzen müssten Schulen und Familien ausbaden. Sie fordert den Gesetzgeber zum Handeln auf: «Man kann das im Sinne des Jugendschutzes nicht einfach so hinnehmen.»

Was sagst du dazu?
Heiss diskutiert
    Meistgelesen