Darum gehts
- ChatGPT plant Sexting-Funktion mit Altersverifikation für Dezember
- OpenAI ermöglicht Nutzern, den Charakter von ChatGPT zu beeinflussen
- ChatGPT hat rund 800 Millionen Nutzer pro Woche
Ursprünglich war ChatGPT als Hilfsmittel für die Arbeit und den Alltag gedacht. Doch der Chatbot ist für manche Menschen auch ein Ersatz für menschliche Beziehungen geworden. Und bald soll er sogar Erotik bieten können. Sam Altman (49), der Chef der Entwicklerfirma OpenAI, kündigte das ohne nähere Details voraussichtlich für Dezember an.
Die neue Sexting-Funktion kommt gleichzeitig mit der Einführung einer Altersverifikation. Sie werde nur für Erwachsene und auf Wunsch verfügbar sein, betonte Altman in einem Beitrag auf der Online-Plattform X.
ChatGPT als «Freund»
Altmans Rivale Elon Musk (54) bietet bei seinem Chatbot Grok schon seit einiger Zeit sexualisierte Inhalte inklusive eines leicht bekleideten animierten Avatars an. Auch bei kleineren Anbietern gibt es Erotik-Chatbots. Zu OpenAI gehört auch die Software Sora, die Video aus Text-Vorgaben erzeugen kann.
OpenAI werde Nutzern auch die Möglichkeit geben, den Charakter von ChatGPT stärker zu beeinflussen. So könne die Software zum Beispiel «wie ein Freund» agieren, so Altman.
Der Hintergrund: Viele Nutzer vermissen eine frühere Version des Chatbots, die ihnen mehr Zustimmung gab. Ein Problem war damals, dass die Software auch potenziell schädliches oder riskantes Verhalten bestärkte. Dagegen gibt es laut OpenAI nun Vorkehrungen.
Fragezeichen rund um das Geschäftsmodell
ChatGPT löste vor rund drei Jahren den aktuellen KI-Hype aus und gilt als der populärste Chatbot mit inzwischen rund 800 Millionen Nutzern pro Woche. Allerdings gibt es nach wie vor Fragezeichen rund um das Geschäftsmodell bei künstlicher Intelligenz.
Entwickler wie OpenAI oder der Facebook-Konzern Meta sind dabei, hunderte Milliarden Dollar in Rechenzentren zu investieren – es ist aber nicht gesichert, dass sich das rentiert. Daher suchen die Anbieter nach Wegen, mit KI-Funktionen Geld zu verdienen.