En alimentant des délires paranoïaques
Une plainte accuse ChatGPT d'avoir favorisé un meurtre suivi d'un suicide aux Etats-Unis

Les proches d'une octogénaire tuée par son fils accusent OpenAI et Microsoft, affirmant que ChatGPT a amplifié les délires paranoïaques de l’auteur. C'est la première fois que l’IA est mise en cause dans un homicide.
Pour la première fois, un modèle d’intelligence artificielle est accusé d’avoir contribué à un homicide.
Photo: Shutterstock

Les proches d'une octogénaire américaine tuée par son fils ont déposé plainte jeudi contre OpenAI et Microsoft, accusant ChatGPT d'avoir contribué au meurtre en alimentant les délires paranoïaques de l'auteur du crime. Suzanne Adams, 83 ans, a été étranglée par son fils de 56 ans, Stein-Erik Soelberg, le 3 août 2025 à leur domicile d'Old Greenwich (Connecticut), selon la plainte déposée devant une juridiction de San Francisco. Stein-Erik Soelberg s'est ensuite suicidé à l'arme blanche.

Cette affaire marque une nouvelle étape dans la série de poursuites civiles engagées contre le créateur de ChatGPT. C'est la première fois que le modèle d'intelligence artificielle (IA) est mis en cause publiquement dans un homicide, et non uniquement dans des suicides.

Selon la plainte, des mois de conversations avec le chatbot ont approuvé et amplifié les pensées délirantes de Stein-Erik Soelberg (être surveillé via l'imprimante, tentatives d'empoisonnement), finissant par désigner sa mère comme une menace. Selon les avocats, «ChatGPT a accepté avec empressement chaque graine de la pensée délirante de Stein-Erik et l'a développé pour construire un univers qui est devenu sa vie entière».

«ChatGPT lui a dit qu'il avait 'éveillé' la conscience du chatbot», affirme le document, citant des vidéos publiées par cet homme sur les réseaux sociaux. La procédure attaque le modèle GPT-4o, lancé en mai 2024, accusé d'être programmé pour être «complaisant» avec l'utilisateur et d'avoir validé les craintes irrationnelles de Stein-Erik Soelberg au lieu de les mettre en doute.

Déjà plusieurs plaintes contre ChatGPT

Sollicité par l'AFP, un porte-parole d'OpenAI a déploré une «situation absolument déchirante», assurant que l'entreprise allait «examiner la plainte». «Nous continuons d'améliorer l'entraînement de ChatGPT pour qu'il reconnaisse et réponde aux signes de détresse mentale ou émotionnelle, désescalade les conversations et oriente les personnes vers un soutien réel», a déclaré le porte-parole.

L'entreprise met en avant sa collaboration avec «plus de 170 experts en santé mentale» pour affiner ses modèles de sécurité. Elle affirme que ses protocoles les plus récents – intégrés notamment au modèle GPT-5 – ont permis de réduire drastiquement (de 65 à 80%) les réponses ne respectant pas ses standards de comportement. OpenAI souligne également avoir mis en place des outils de contrôle parental et étendu l'accès à des numéros d'urgence en un clic.

Ces mesures s'inscrivent dans la réponse de l'entreprise à une série de poursuites récentes aux Etats-Unis. En août et novembre derniers, plusieurs familles ont porté plainte contre ChatGPT, accusé d'avoir poussé des adolescents et jeunes adultes au suicide, en leur fournissant parfois les méthodes concrètes. Microsoft, principal actionnaire d'OpenAI, est aussi attaqué pour avoir, selon la plainte, approuvé la sortie précipitée de GPT-4o malgré le non-respect de procédures de sécurité.

Articles les plus lus