Darum gehts
- Chat GPT plant erotische Inhalte für verifizierte erwachsene Nutzer ab Dezember
- Kritiker warnen vor psychischen Schäden und ungesunden emotionalen Bindungen
- Im August sagte Sam Altman, er sei stolz, dass Open AI keine Sex-Bot-Avatare habe
«Wir behandeln erwachsene Nutzer wie Erwachsene», schreibt Altman auf X. Konkret: Chat GPT soll ab Dezember erotische Inhalte generieren, allerdings nur für Nutzer, die ihr Alter verifiziert haben. Die Altersverifikation soll zeitgleich eingeführt werden.
Mit der Ankündigung folgt Open AI einem Trend: Elon Musks Chatbot Grok bietet seit August Sexrollenspiele mit virtuellen Anime-Figuren an. Meta stand kürzlich in der Kritik, weil Celebrity-Chatbots auf der Plattform mit Minderjährigen sinnliche Chats führten.
Kehrtwende bei Sam Altman
Tech-Milliardär Mark Cuban sieht die Ankündigung kritisch und schreibt auf X: «Das wird nach hinten losgehen. Hart.» Cuban befürchte, dass Jugendliche die Alterssperre mit dem Login älterer Geschwister umgehen werden und ungesunde emotionale Bindungen zu KI-Chatbots entwickeln, schreibt das Portal Axios.com. Cuban betont: «Das ist nicht nur Pornografie – es geht um die Verbindung, die mit einem Kind entstehen kann.»
Die Jugendschutzorganisation National Center on Sexual Exploitation fordert Open AI auf, die Entscheidung rückgängig zu machen: «Sexualisierte KI-Chatbots sind riskant und erzeugen echte psychische Schäden durch synthetische Intimität.» Pikant: Noch im August hat Altman gesagt, er sei «stolz» darauf, dass Open AI auf Funktionen wie «Sex-Bot-Avatare» verzichte, die kurzfristig Wachstum bringen könnten.
Verzweiflung als Geschäftsmodell?
Die Ankündigung dürfte auch wirtschaftliche Gründe haben. «Die Monetarisierung stockt», analysiert die «Wirtschaftswoche». Milliarden fliessen in KI-Rechenzentren, doch die Zahlungsbereitschaft der Nutzer sei gering. Premium-Abos wie Chat GPT Plus erreichten nur eine «kleine, technikaffine Zielgruppe». Nun wiederhole sich ein altes, bekanntes Muster: «Fast jede mediale Innovation, vom VHS-System über das frühe Internet bis hin zu Streaming-Plattformen, gewann erst dann wirtschaftliche Bedeutung, als sich über sie erotische Inhalte verbreiten liessen», schreibt das Wirtschaftsmagazin.
Mentale Gesundheit als Vorwand
Altman begründet den Schritt offiziell anders: Man habe Chat GPT anfangs restriktiv gestaltet, um psychische Risiken zu vermeiden. Inzwischen habe man «neue Tools», um Nutzer in emotionaler Not besser zu erkennen. «Not because we are usage-maxxing», fügt er in Tech-Bro-Jargon hinzu, also nicht, um die Nutzerzahlen künstlich hochzutreiben. Viele Beobachter zweifeln genau daran.
Altmans Behauptung stellt etwa KI-Forscherin Luiza Jarovsky infrage: «Ich würde sehr gerne Beweise sehen», schreibt sie auf LinkedIn. Schliesslich habe es «so viele Berichte» von Menschen gegeben, die ungesunde emotionale Bindungen entwickelten oder sich gar mit Chat GPT «verheirateten». Wenn das Problem so einfach gelöst sei, gebe es nur drei Möglichkeiten: «Rücksichtslose Fahrlässigkeit am Anfang, Experimente mit Nutzern – oder die Probleme sind eben nicht gelöst.»