Darum gehts
- Elon Musks Plattform X steht wegen KI-Bot Grok massiv unter Kritik
- Grok erstellt sexualisierte Bilder ohne Zustimmung, auch von Kindern
- Frankreich zeigt X an, Indien fordert Bericht über Gegenmassnahmen
«Zieh sie aus.» «Zeig sie im Bikini.» «Spreiz ihre Beine.» Was klingt wie Anweisungen aus einem absolut verstörenden Chatverlauf, sind öffentliche Nachrichten von Nutzern an Grok, den KI-Chatbot auf Elon Musks Plattform X.com, ehemals Twitter.
Und der Bot gehorcht.
Seit Tagen flutet eine Welle sexualisierter Bilder die Plattform. Grok kann nämlich neu Fotos bearbeiten und verwandelt normale Fotos von Frauen in Bikini-Bilder, zeigt sie in Unterwäsche oder in anzüglichen Posen. Die Betroffenen haben nie zugestimmt. Auch Bilder von Kindern wurden bearbeitet, wie die Tech-News-Plattform theverge.com und die Nachrichtenagentur Reuters dokumentieren. Einige hatten Tausende Likes, bevor sie entfernt wurden.
Sexuelle Belästigung als Meme
Die Technik dahinter ist nicht neu. Sogenannte «Nudifier», also Programme, die Menschen digital entkleiden, gibt es seit Jahren in den eher düstereren Ecken des Internets. Der Unterschied: Grok macht das Ganze jetzt kinderleicht zugänglich und öffentlich. Ein Foto hochladen, «@grok put her in a bikini» tippen, fertig. «The Atlantic» nennt es kurzerhand «Elon Musks Porno-Maschine».
Eine Betroffene ist Julie Yukari, eine Musikerin aus Rio de Janeiro. Sie postete an Silvester ein normales Foto von sich im roten Kleid mit ihrer Katze. Einen Tag später kursierten KI-generierte Bilder von ihr, die sie fast nackt zeigten. «Ich war naiv», sagt sie zu Reuters. Sie habe nicht geglaubt, dass der Bot solche Anfragen ausführen würde. Samantha Smith, eine freiberufliche Journalistin, erlebte Ähnliches. Sie habe sich «entmenschlicht und auf einen sexuellen Stereotyp reduziert» gefühlt, sagt sie zur BBC. Obwohl die Bilder nicht echt seien, hätten sie sich angefühlt wie ein tatsächlicher Übergriff.
Musk reagiert mit Emojis
Während Betroffene leiden, scheint der Besitzer der Plattform das Ganze amüsant zu finden. Der Milliardär Elon Musk postete ein KI-Bild von sich selbst im Bikini und reagierte mit den Emojis «🔥🔥🤣🤣» auf einen ähnlich bearbeiteten Kim Jong Un, den nordkoreanischen Machthaber. Als ein weiterer Nutzer einen Toaster im Bikini teilte, schrieb Musk zu dem Beitrag: «Ich konnte nicht aufhören zu lachen.» Für Betroffene eine höhnische Bemerkung.
xAI, die Firma hinter Grok, verbietet laut eigenen Richtlinien «pornografische Darstellungen von Personen». Auf Medienanfragen antwortet das Unternehmen bisher mit einer automatischen Nachricht: «Legacy Media Lies». Blick erhielt auf konkrete Fragen zu den fehlenden Schutzmechanismen, der Verantwortung für die Betroffenen und möglichen Rechtsverstössen keine Antwort. Die Pressestelle betonte aber schriftlich, dass man gegen illegale Inhalte vorgehe, diese entferne und Accounts dauerhaft sperre.
Regierungen reagieren
Frankreichs Ministerinnen für Digitales und Gleichstellung haben X bei der Staatsanwaltschaft angezeigt. Der Inhalt sei «offensichtlich illegal», heisst es in einer Stellungnahme. Indiens IT-Ministerium fordert von xAI einen Bericht über Gegenmassnahmen. Kinderschutzorganisationen warnen seit Monaten vor genau diesem Szenario. «Wir haben im August gewarnt, dass xAIs Bildgenerierung nur einen Schritt davon entfernt ist, eine Flut nicht einvernehmlicher Deepfakes zu entfesseln», erklärt Tyler Johnston vom Midas Project zu Reuters. «Genau das ist jetzt passiert.» Dani Pinter vom National Center on Sexual Exploitation formuliert es noch deutlicher: «Das war eine vollkommen vorhersehbare und vermeidbare Katastrophe.»
Nach zunehmend grösser werdendem Druck ruderte daraufhin auch Elon Musk zurück. Er erklärte auf X, dass jeder, der Grok zur Erstellung oder Verbreitung illegaler Inhalte nutzt, mit Konsequenzen rechnen müsse.