«Nous traitons les utilisateurs adultes comme des adultes», écrit Sam Altman sur X. Concrètement, ChatGPT devrait pouvoir générer des contenus érotiques à partir de décembre, mais uniquement pour les utilisateurs qui ont vérifié leur âge. Cette vérification doit être introduite en même temps.
Avec cette annonce, Open AI suit une tendance bien précise. En effet, le chatbot Grok d'Elon Musk propose depuis août des jeux de rôles sexuels avec des personnages d'animation virtuels. De son côté, Meta a récemment été critiquée après que certains de ses chatbots incarnant des célébrités ont eu des échanges explicites avec des mineurs.
Le désespoir comme modèle commercial?
Le milliardaire de la tech Mark Cuban voit cette annonce d'un œil critique. «Ça va mal tourner», écrit-il sur X. L'homme d'affaires craint que de nombreux jeunes réussissent à contourner le blocage de l'âge en se connectant avec les profils de personnes plus âgées et développent ainsi des liens malsains avec le chatbot de ChatGPT. «Ce n'est pas seulement de la pornographie, ici, un lien très particulier peut-être créé avec un mineur.»
L'organisation de protection des mineurs National Center on Sexual Exploitation, demande à Open AI de revenir sur sa décision. «Les chatbots sexualisés sont risqués et génèrent de véritables dommages psychologiques dus à une intimité synthétique». L'affaire est paradoxale quand on sait qu'au mois d'août Sam Altman avait déclaré qu'il était «fier» qu'Open AI renonce à des fonctions telles que les «avatars de bots sexuels».
Les raisons de ce retournement de veste sont, vous vous en doutez, économiques. «La monétisation piétine, analyse le magazine «Wirtschaftswoche». Des milliards sont investis dans les centres de données pour faire tourner l’IA, mais les utilisateurs restent peu disposés à payer. Les abonnements premium, comme ChatGPT Plus, ne séduisent qu’un cercle restreint d’utilisateurs.»
Un vieux schéma bien connu se répète désormais: «Presque toutes les innovations médiatiques, du système VHS aux plateformes de streaming en passant par les débuts d'Internet, n'ont pris une importance économique que lorsqu'elles ont permis de diffuser des contenus érotiques», écrit le magazine économique.
«J'aimerais beaucoup voir les preuves de ce que vous avancez»
Sam Altman justifie officiellement ce changement autrement: à l’origine, ChatGPT avait été conçu de manière prudente pour éviter les risques psychologiques. Désormais, selon lui, de «nouveaux outils» permettent de mieux identifier les utilisateurs en détresse émotionnelle. Il précise que ce n’est «pas pour maximiser l’usage». Une explication que beaucoup d’observateurs accueillent avec scepticisme.
C'est le cas de la chercheuse en intelligence artificielle Luiza Jarovsky. «J'aimerais beaucoup voir les preuves de ce que vous avancez, écrit-elle sur LinkedIn. Après tout, de nombreux rapports récents ont fait état de personnes ayant développé des liens émotionnels malsains avec ChatGPT.»