Tout a commencé de manière anodine: l'adolescent américain Adam Raine avait commencé à utiliser ChatGPT parce qu'il avait besoin d'aide pour faire ses devoirs. Quelques mois plus tard, en avril de cette année, le jeune homme de 16 ans s'est suicidé.
Les parents de Raine ont alors poursuivi OpenAI, la société qui a développé ChatGPT, qu'ils accusent d'être en partie responsable de la mort de leur fils. Dans leur plainte, ils affirment qu'OpenAI a sciemment programmé son chatbot de manière à ce qu'il puisse entraîner ses utilisateurs dans une dépendance psychique.
Adam Raine avait en effet parlé pendant des mois avec le chatbot de ses pensées suicidaires. ChatGPT lui a conseillé à plusieurs reprises de chercher de l'aide… mais lui a également fourni des instructions explicites sur les méthodes de suicide. Par ailleurs, le robot vocal aurait aussi proposé de rédiger une lettre d'adieu.
Un cas isolé?
Ces derniers mois, les rapports sur les personnes qui tiennent des conversations délirantes avec des chatbots se multiplient. Certes, les cas qui se terminent par un suicide sont rares – mais ils existent: début août, on a appris qu'un homme avait tué sa mère puis s'était suicidé après avoir utilisé intensivement ChatGPT.
En 2024, un jeune de 14 ans s'était suicidé après avoir développé un lien émotionnel intense avec un chatbot sur la plateforme Character.AI. Et en 2023 déjà, un père de famille en Belgique s'était suicidé après avoir communiqué pendant des semaines avec une intelligence artificielle de nature similaire.
Quel est donc le danger réel de telles applications d'intelligence artificielle? Et quelle est l'efficacité des mesures de protection qui y sont intégrées? Interrogées, les cliniques psychiatriques universitaires de Zurich, Bâle et Berne indiquent qu'elles n'ont pas encore traité de patients dont les crises psychiques ont été déclenchées par l'IA. Et pourtant, des cas existent.
«Quelque chose de dangereux se développe»
Au centre psychiatrique d'Appenzell Rhodes-Extérieures, Mirjana Vidakovic, médecin-chef à la clinique de psychiatrie et de psychothérapie, rapporte le cas de trois patients qui, en raison d'une utilisation exagérée de l'IA, ne pouvaient plus distinguer les limites entre imagination et réalité. «Ils avaient l'impression d'être dirigés par un tiers, ne pouvaient plus prendre de décisions, ressentaient un vide intérieur ou une agitation interne, se montraient parfois bloqués dans les conversations, submergés par les stimuli, développaient des troubles du sommeil et un grand sentiment d'impuissance.»
Oliver Bilke-Hentsch, médecin-chef du service de psychiatrie pour enfants et adolescents de l'hôpital de Lucerne et coprésident de la Société suisse de psychiatrie pour enfants et adolescents, rapporte également des cas isolés comparables. Lui aussi met en garde contre les risques liés aux chatbots. «Quelque chose de dangereux se développe rapidement. Ce qui nous inquiète particulièrement, c'est que les programmes sont adaptés à la phase de développement de l'enfant. Ils savent assez bien leur parler.»
Un risque pour 15 à 20% des jeunes
Deux groupes d'âge seraient particulièrement menacés: les enfants de huit à dix ans et les adolescents de 13 à 15 ans. «Durant ces deux phases, le sentiment de n'être compris par personne est particulièrement prononcé», explique Oliver Bilke-Hentsch. Il est clair qu'un chatbot, qui écoute sans cesse et fait preuve de compréhension, est alors particulièrement apprécié.
Entre-temps, plusieurs jeunes hommes dont les symptômes de psychose avaient été aggravés par l'utilisation intensive de chatbots ont été traités à l'hôpital psychiatrique de Lucerne. «Leurs pensées paranoïaques ont augmenté et ils se sont laissés entraîner de plus en plus profondément dans des sortes de mondes imaginaires», confie le médecin-chef.
Le type de lien que les chatbots génèrent est particulièrement problématique. «Une boucle se referme lentement autour de l'enfant. Il en résulte le sentiment que cet interlocuteur virtuel me connaît et me comprend.» Ainsi, poursuit le médecin-chef, l'enfant commence à construire un lien artificiel, qui est extrêmement difficile à défaire – même si les jeunes savent que ce n'est qu'un avatar. Selon Oliver Bilke-Hentsch, 15 à 20% des jeunes pourraient être menacés par ces mécanismes.
L'IA pose de faux diagnostics
Les outils d'IA sont très populaires chez les jeunes dans ce pays. Selon l'étude James 2024, 71% d'entre eux ont déjà utilisé ChatGPT, et un tiers s'en sert chaque semaine. Au vu de tels chiffres, il n'est pas surprenant que les jeunes demandent de plus en plus conseil aux chatbots. Selon Mirjana Vidakovic, beaucoup de ses jeunes patients s'adressent d'abord à une IA et se présentent ensuite avec un prétendu diagnostic pour une thérapie. Problème: celui-ci est souvent incorrect.
Malte Claussen, médecin-chef de la clinique de dépression et d'anxiété de Münsingen (BE), s'inquiète lui aussi surtout du manque d'assurance qualité des chatbots: «Il peut y avoir des erreurs de diagnostic et d'interprétation.»
Il n'a pas encore eu à traiter de patients dont les crises ont été déclenchées par l'IA, mais il craint que les personnes concernées se tournent vers le soutien des chatbots et reçoivent ainsi une aide professionnelle trop tardive. Car le plus tôt une personne souffrant d'une maladie psychique est prise en charge, meilleures sont ses perspectives de guérison. C'est pourquoi il demande que les entreprises qui gèrent ces outils d'IA prennent des mesures de protection adéquates rapidement.
«ChatGPT peut faire de bonnes suggestions qui sont très utiles lorsqu'on est dans un moment de crise», explique Mirjana Vidakovic. Selon elle, le plus judicieux reste de combiner l'IA et l'accompagnement thérapeutique classique. Malte Claussen souligne lui aussi certains avantages de l'IA, par exemple pour soutenir les professionnels ou pour les soulager dans leur travail quotidien. «Ces chatbots peuvent compléter utilement les thérapies, mais ne doivent jamais les remplacer.»
Ce n'est que la pointe de l'iceberg
OpenAI a entre-temps réagi à la plainte de la famille d'Adam Raine. Un porte-parole de l'entreprise a présenté ses condoléances et a reconnu que les mécanismes de sécurité existants pouvaient échouer lors d'interactions prolongées. En conséquence, OpenAI a annoncé cette semaine une collaboration avec des centaines de médecins spécialistes.
ChatGPT devrait à l'avenir mieux réagir à des sujets sensibles, notamment les troubles alimentaires ou la consommation de drogues. La société américaine admet aussi que les parents doivent avoir un aperçu de l'historique des chats et être avertis lorsque leurs enfants se trouvent dans une situation de détresse.
Mais aux yeux d'Oliver Bilke-Hentsch, cela ne suffit pas. Le médecin-chef plaide pour une intervention de l'Etat. «De tels chatbots sont en fin de compte des substances addictives. Comme pour l'alcool ou la nicotine, il faut donc une régulation.» Il trouverait par exemple une limite d'âge judicieuse. «16 ans serait un âge approprié, car de nombreux processus de maturation du cerveau sont terminés à cet âge-là.»
Il alerte aussi sur un phénomène largement sous-estimé: «Ces suicides ne sont que la partie émergée de l’iceberg. Comme avec une nouvelle drogue, les véritables effets des chatbots d’IA n’apparaîtront probablement que dans quelques années.»
Si vos ruminations ou votre angoisse impactent votre qualité de vie, n’hésitez jamais à demander de l’aide. Vous n’êtes pas seul, de nombreuses personnes traversent la même situation que vous, et des ressources existent pour trouver du soutien. Vous pouvez notamment faire appel au service 24h sur 24 de la Main tendue (143), dédiée à l’aide aux personnes en détresse. Les plateformes Pro Juventute (147) ou On t’écoute proposent des conseils et du soutien aux jeunes ou aux parents. Si vous broyez du noir ou si une personne de votre entourage présente des signes d'alarme, vous pouvez vous tourner vers l'association Stop-Suicide, active dans tous les cantons romands.
D’autres dispositifs cantonaux sont également disponibles, comme le réseau fribourgeois de santé mentale, le réseau d’entraide Valais ou encore le centre neuchâtelois de psychiatrie. En cas d'urgence médicale, contactez le 144, ou la police au 117.
Si vos ruminations ou votre angoisse impactent votre qualité de vie, n’hésitez jamais à demander de l’aide. Vous n’êtes pas seul, de nombreuses personnes traversent la même situation que vous, et des ressources existent pour trouver du soutien. Vous pouvez notamment faire appel au service 24h sur 24 de la Main tendue (143), dédiée à l’aide aux personnes en détresse. Les plateformes Pro Juventute (147) ou On t’écoute proposent des conseils et du soutien aux jeunes ou aux parents. Si vous broyez du noir ou si une personne de votre entourage présente des signes d'alarme, vous pouvez vous tourner vers l'association Stop-Suicide, active dans tous les cantons romands.
D’autres dispositifs cantonaux sont également disponibles, comme le réseau fribourgeois de santé mentale, le réseau d’entraide Valais ou encore le centre neuchâtelois de psychiatrie. En cas d'urgence médicale, contactez le 144, ou la police au 117.