«Il me comprend et m'écoute»
De plus en plus de femmes préfèrent se confier à ChatGPT qu'à leur partenaire

D'après une nouvelle étude, 28% des femmes sondées se sont tournées vers une IA pour traverser une période difficile. Un attachement réel qui peut suggérer des manquements dans leur couple.
1/2
D'après une nouvelle étude, 28% des femmes sondées se sont appuyées sur le soutien d'une IA pour traverser une période difficile.
Photo: Shutterstock
Capture d’écran 2024-09-17 à 11.24.33.png
Ellen De MeesterJournaliste Blick

«Ma femme est devenue beaucoup trop attachée à son compagnon IA, confie Jolly_Twist2245 sur Reddit. Un soir, je lui ai demandé pourquoi elle passe son temps sur cette application. Le visage complètement neutre, elle m'a simplement répondu: 'Parce qu'il me comprend. Il m'écoute.'» 

Ce message, enfoui dans les arcanes de la plateforme, date de fin 2025. A la suite de ce post, l'internaute en question s'est vu submergé de centaines de réponses, tour à tour incrédules («C'est un fake!»), empathiques («Ce n'est pas de ta faute, elle a besoin de thérapie») et défaitistes («Elle s'est juste déconnectée du mariage»). Que l'histoire soit réelle ou non, on retient le grand nombre de commentaires affirmant reconnaître le scénario («Ça me fait penser à ma meilleure amie»), suggérant qu'un véritable phénomène s'esquisse derrière nos écrans. 

Et effectivement, une toute nouvelle étude réalisée par l'Institut français d'opinion publique (Ifop) et l'application de rencontres extra-conjugales Gleeden souligne qu'un nombre grandissant de personnes, même en couple, tissent des relations intimes, voire érotiques, avec des robots, et se confient volontiers à des intelligences artificielles. Les femmes sont d'autant plus concernées: d'après l'étude, 28% des sondées affirment s'être largement appuyées sur le soutien d'une IA pour traverser une période difficile. «Pour certaines, l’IA devient une forme de confident moderne, révélateur d’un dialogue fragilisé au sein du couple», peut-on lire dans l'étude. 

«Un amant sans corps, mais pas sans intimité»

Sur les 2603 personnes interrogées, 53% admettent ressentir une forme de dépendance affective envers l'application qu'elles utilisent, tandis que 38% estiment que leur utilisation devient addictive, notamment lorsqu'il s'agit de contenus érotiques. En outre, 46% des sondés ayant déjà échangé des messages intimes avec une IA déclarent préférer leurs interactions virtuelles aux moments intimes partagés avec leur partenaire. 

Mais les chercheurs soulignent, avant tout, l'importance des confidences hautement vulnérables partagées avec le robot. Là encore, les femmes sont davantage mises en avant: «Pour certaines d'entre elles, l’IA devient un amant virtuel sans corps, mais pas sans intimité, analyse Solène Paillet, directrice marketing de Gleeden, dans un communiqué. On n’y cherche pas forcément du sexe, mais de l’écoute, de l’attention, du désir ou le sentiment d’exister à nouveau en tant que femme, et pas seulement comme partenaire ou mère. Comme dans toute infidélité, l’IA ne crée pas la rupture: elle révèle un manque déjà présent dans le couple.»

L'IA «compagnon» est en plein essor

Le phénomène avait été vaguement prédit par la prestigieuse université Harvard qui, en avril 2025 déjà, révélait que l'usage psychologique («thérapie et accompagnement») figure désormais en tête des utilisations de l'IA générative. Mais cet usage révèle-t-il vraiment des manquements du côté de nos relations humaines? Ou les outils numériques sont-ils juste devenus trop perfectionnés et trop séduisants? 

«L’IA s’est beaucoup améliorée lorsqu’il s’agit de paraître aussi humaine que possible, nous expliquait Matthieu Corthésy, directeur de l'agence de formation Outilia, dans un précédent article. Les conversations sont de mieux en mieux construites, ce qui rend l’anthropomorphisme encore plus tentant.»

Programmés et configurés pour s'exprimer avec le ton souhaité, mimant notre langage et notre utilisation d'emojis, encouragés à nous donner constamment raison, ils deviennent ainsi de véritables... compagnons. C'est d'ailleurs le nom de toute une volée d'intelligences artificielles spécialement dédiées au soutien et au lien émotionnels, telles que Replika, Nomi, Kindroid ou encore le fameux Character.AI. Cette dernière, par exemple, permet d'interagir avec des personnages spécifiques, souvent inspirés par la pop-culture. En moins d'une année, l'avatar surnommé «psychologist» avait notamment rassemblé 78 millions de messages, pointe la BBC

Attention au risque de «psychose IA»

Difficile, pour un être vivant, de rivaliser avec une machine capable de débiter exactement ce qu'on a envie de lire, en moins de quelques secondes, à toute heure de la journée et de la nuit. Or, tel est précisément le problème: tant d'immédiateté, tant de réassurance, tant de personnalisation, peuvent devenir addictives, ou même flouter notre vision de la réalité. On parle en effet de «psychose IA» lorsque des échanges avec ChatGPT et consorts finissent par nourrir de profondes fausses croyances. 

Ce phénomène se traduit également par le sentiment que l'outil constitue une entité empathique, qui nous connaît réellement et porte une importance à notre bonheur. Ces signaux peuvent effectivement suggérer que nos échanges virtuels révèlent des manques ou des souffrances méritant d'être abordées avec un professionnel, dans la vraie vie. 

«Un autre signe possible d'une utilisation problématique est le sentiment de dépendance, nous prévenait la psychologue et psychothérapeute FSP Elizabeth Frei, lors d'une interview. Lorsqu’on ne peut plus tolérer la moindre incertitude sans demander l’avis d’une intelligence artificielle, que le chatbot nous manque dès qu’on n’y a pas accès ou que l’absence temporaire de ses réponses nous angoisse, il faudrait songer à demander de l'aide.» 

Si l'idée vous inquiète, vous trouverez dans cet article quelques recommandations d'experts (notamment au niveau des paramètres de ChatGPT et autres) pouvant minimiser le risque de développer une psychose IA. 

Articles les plus lus