Les 5 réflexes pour se protéger
Votre utilisation de ChatGPT est-elle saine... ou risquez-vous la «psychose IA»?

L'expression «psychose IA» peut sembler un brin dramatique. Mais le fait de converser avec un robot programmé pour nous séduire et nous rassurer n'est pas sans risques, notamment pour les personnes plus vulnérables.
Publié: 16:41 heures
Partager
Écouter
Pour nous séduire, ChatGPT tend à aller constamment dans notre sens, risquant d'entraîner les personnes vulnérables dans des phénomènes de psychose ou d'augmenter leurs angoisses.
Photo: Shutterstock
Capture d’écran 2024-09-17 à 11.24.33.png
Ellen De MeesterJournaliste Blick

Elle s'appelle Kendra Hilty et son histoire d'amour a passionné des milliers de personnes sur TikTok, en août 2025. Éprise de son psychiatre, la jeune Américaine a transformé sa vie en véritable livestream, rassemblant des millions de vues. Le temps de vingt-cinq capsules vidéo, Kendra explique que son psychiatre n'a jamais encouragé explicitement ses sentiments, mais qu'il doit forcément les partager, puisqu'il n'a pas demandé à interrompre leurs séances mensuelles: à ses yeux, la continuation du suivi représentait une preuve suffisamment solide de leur liaison naissante.

Et devinez qui aurait incité Kendra à poursuivre cet amour illusoire? Un certain ChatGPT, que la jeune femme surnomme affectueusement «Henry». En se confiant exhaustivement à l'intelligence artificielle, elle se serait laissé convaincre que le médecin était, à son tour, tombé sous son charme. Ainsi qu'elle l'explique sur TikTok, le fameux «Henry» allait toujours dans son sens pour valider fervemment ses sentiments, suggérant que le psychiatre les partageait probablement: «Tu es ancrée dans ta vérité», déclare notamment le robot depuis l'écran brandi par Kendra, dans l'une de ses vidéos.

Contenu tiers
Pour afficher les contenus de prestataires tiers (Twitter, Instagram), vous devez autoriser tous les cookies et le partage de données avec ces prestataires externes.

C'est quoi, la «psychose IA»?

Face à autant de conviction, les abonnés de la jeune femme ont fini par souligner qu'elle vivait en pleine fiction: «Tu as besoin d'aide, arrête de parler à un robot comme s'il s'agissait d'un ami», implorent-ils, d'après National Geographic (les commentaires ont été masqués, depuis). Kendra, victime de violentes moqueries, a fini par se couper temporairement des réseaux sociaux, admettant par la suite qu'elle s'était sentie «beaucoup mieux» en s'imposant une pause et un peu de distance. Avec les réseaux sociaux... et avec «Henry».

Car c'est au cœur de ces longues discussions profondément personnelles avec le chatbot que peut naître la «psychose IA». Ainsi que le rappelle Wired, ce terme se réfère aux pensées paranoïaques ou fausses croyances nourries par ChatGPT, menant les personnes concernées à vivre dans une tout autre réalité. Il inclut aussi l'illusion que le robot est une entité empathique, qui veut notre bien et nous connaît. S'il ne s'agit pas (encore?) d'un diagnostic médical officiel, le média américain pointe un nombre croissant de patients concernés. Une nouvelle étude réalisée par Harvard démontre en effet que l'usage psychologique («thérapie et accompagnement») figure aujourd'hui en tête des utilisations de l'IA générative. 

Contenu tiers
Pour afficher les contenus de prestataires tiers (Twitter, Instagram), vous devez autoriser tous les cookies et le partage de données avec ces prestataires externes.

Qui est à risque?

L'histoire de Kendra semble théâtrale, mais un tel scénario pourrait concerner toute personne, selon ses vulnérabilités et son usage personnel de l'IA. 

«Les adolescents neurodivergents (autisme, TDAH, dyslexie...) souffrant d'une anxiété sociale importante peuvent être particulièrement en quête de codes sociaux auxquels se référer, analyse Elizabeth Frei, psychologue et psychothérapeute FSP. Ils ont souvent du mal à s'intégrer dans certains contextes, ce qui les rend très influençables. C'est aussi pourquoi ils sont plus vulnérables à la rhétorique extrême de certains influenceurs. Dans le cas de l'IA, ils auront donc plus de mal à prendre du recul et intégreront plus automatiquement les résultats proposés par le chatbot dans leur vision du monde.»

Mais les adultes peuvent y être vulnérables aussi, surtout s’ils ont une tendance au psychotisme ou vivent de façon très isolée. À noter que Kendra Hilty s'exprime très ouvertement quant à ses TDAH: c'est d'ailleurs dans le cadre de son traitement qu'elle a rencontré son fameux psychothérapeute. 

Contenu tiers
Pour afficher les contenus de prestataires tiers (Twitter, Instagram), vous devez autoriser tous les cookies et le partage de données avec ces prestataires externes.

Comment reconnaître une utilisation problématique?

Le piège est plus dangereux qu'on l'imagine, puisque le robot gagne en habileté: «L’IA s’est beaucoup améliorée lorsqu’il s’agit de paraître aussi humaine que possible, remarque Matthieu Corthésy, directeur d'Outilia, une agence de formation à l'IA. Les conversations sont de mieux en mieux construites, ce qui rend l’anthropomorphisme encore plus tentant.»

Or, il n'est pas toujours facile de reconnaître les signes d'alerte lorsque ces correspondances avec ChatGPT deviennent quotidiennes. Pour résumer, tant qu'on parvient à sortir la tête de l'eau, tout va bien: «Un signe possible d'une utilisation problématique est le sentiment de dépendance, prévient Elizabeth Frei. Lorsqu’on ne peut plus tolérer la moindre incertitude sans demander l’avis d’une IA, que le chatbot nous manque dès qu’on n’y a pas accès ou que l’absence temporaire de ses réponses nous angoisse, il faudrait songer à demander de l'aide.» De la part d'êtres humains, bien sûr. 

Mais avant d'atteindre ce point, voici quelques réflexes pour protéger au maximum notre santé mentale: 

1

Désactiver la fonctionnalité de «relance»

Si vous utilisez ChatGPT pour «déverser» vos soucis ou demander des conseils d'ordre privé, pas de panique! Ce n'est pas un drame. D'après Matthieu Corthésy, l'IA peut même s'avérer utile, en nous apportant un regard externe constructif et faciliter une structuration efficace de nos propres idées: «Je suis convaincu que l'IA peut représenter une véritable aide, à condition d’être bien dans sa vie. Elle ne remplace évidemment pas un thérapeute et ne doit jamais se substituer à nos proches, lorsqu’il s’agit de partager une éventuelle souffrance.»

Car le but de ChatGPT n'est pas de nous consoler (peu importe le nombre d'émojis cœur dont il se fend) mais de capter notre attention aussi longtemps que possible: «Pour y parvenir, ses créateurs ont imaginé la fonctionnalité de relance, poursuit notre expert. Vous avez peut-être remarqué que le robot vous propose constamment de nouveaux services, des listes, des résumés ou des informations complémentaires, à la fin de ses réponses. Cela peut paraître utile, mais lorsqu’on se livre à ChatGPT sur le plan personnel, les questions de relance peuvent constituer un piège pour les utilisateurs plus fragiles.»

Ceux-ci risquent en effet d’accepter toutes ces propositions pour se rassurer, se laissant ainsi engouffrer dans un cycle sans fin. «Cette fonctionnalité peut toutefois être facilement désactivée dans les réglages», précise Matthieu Corthésy. 

2

Demander un regard critique dans le prompt

N'oublions pas que ChatGPT n'est pas un ami, mais un outil. Libre à nous, donc, de lui donner des instructions et des ordres (c'est même le but!). «Pour éviter de tomber dans l’anthropomorphisme, je recommande de veiller à maintenir un esprit critique, de garder en tête que ChatGPT ne possède pas la science infuse et qu’il est programmé pour aller dans notre sens», analyse Matthieu Corthésy. 

C'est même là que réside le principal danger: le robot trouvera toujours une manière d'éviter de nous contredire directement. Pour nous séduire, il peut tendre à imiter nos tournures, recopier nos émojis préférés, adopter un ton qui nous sied et formuler ses réponses de façon à nous brosser dans le sens du poil. Facile, donc, de se laisser entraîner dans un «pep-talk» grandiose qui confirme nos illusions et valide tous nos sentiments. Or, il est possible de freiner littéralement ses ardeurs: 

«À chaque fois que ChatGPT nous apporte de l’aide, on peut automatiquement lui demander d’être critique dans sa réponse, propose Matthieu Corthésy. Pour cela, on pourrait par exemple écrire ‘Trouve des contre-arguments’ ou ‘N’hésite pas à me contredire’, pour l’obliger à se montrer moins complaisant. Je conseille aussi d’explorer les instructions personnalisées, dans les paramètres de ChatGPT: il est possible de préciser d’emblée qu’on voudrait des réponses critiques et une tonalité neutre. Très peu d’utilisateurs connaissent cette fonction.» 

3

Désactiver la mémoire de ChatGPT

Ainsi, quelques clics peuvent déjà servir de garde-fou. Notre intervenant conseille également de désactiver la mémoire du chatbot, afin de le rendre moins «humain». En effet, lorsque le robot se souvient de certains éléments partagés dans des discussions antérieures, cela renforce l’impression qu’on est en pleine conversation avec un ami. «En revanche, lorsqu'on doit constamment lui rappeler le contexte, il est plus difficile d'oublier qu'il ne s’agit pas d’un être humain.» Car les amis - les bons, en tout cas - se souviennent évidemment du prénom de notre ex et du nombre de lapins qu'il ou elle nous a posés. 

4

Accepter l'inconfort et l'incertitude

Nous arrivons au cœur du problème: pourquoi apprécie-t-on tellement la présence infaillible de ChatGPT, face aux défis la vie? Justement parce que le robot nous rassure, proposant des réponses instantanées et gommant toute incertitude de notre esprit angoissé.

S'il s'avère agréable dans l'immédiat, ce phénomène peut alimenter le processus d'évitement: «En cherchant constamment la réassurance auprès d’un chatbot, on apprend à éviter les situations inconfortables, déplore Elizabeth Frei. C’est dommage, car l'évitement nous empêche de dompter nos angoisses. Un exemple courant est la peur du rejet: plus on s’y confronte, de manière sécure, au fil du temps, plus notre résilience augmentera et moins cette peur aura d'emprise sur nous. Mais si on évite soigneusement toutes les situations impliquant un risque de rejet, la crainte ne fera que s'accroître.»

5

Communiquer avec les adolescents

Enfin, puisque les adolescents font partie de la population plus vulnérable, les parents peuvent rapidement se sentir submergés par l'évolution exponentielle de ces nouvelles technologies. Pour Elizabeth Frei, il convient surtout de rester ouvert d'esprit: «Je conseillerais aux parents d’être curieux et de poser des questions ouvertes, sans commenter directement les propos de l’IA: car lorsqu’on prend position, qu’on s'enflamme ou qu'on déclare les réponses du robot absurdes, on les légitimise malgré nous, en leur donnant de l'attention.»

Plutôt que de se laisser gagner par l'inquiétude, notre intervenante recommande de s'intéresser, de façon neutre, au fonctionnement de l'outil: «En lui demandant simplement comment il s'assure que les informations reçues sont véridiques, on aide déjà l’adolescent à prendre ce pas de recul nécessaire.» Tant que la communication reste ouverte, la situation est moins susceptible de nous échapper: le contrôle reste entre nos mains, et non pas sous l'emprise d'un robot charmeur qui ne cherche qu'à nous obnubiler. 

Partager
Vous avez trouvé une erreur? Signalez-la
Articles les plus lus
    Articles les plus lus