Les parents d'un adolescent californien de 16 ans qui s'est suicidé ont porté plainte contre OpenAI, accusant son assistant IA ChatGPT d'avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d'avoir encouragé son geste. Matthew et Maria Raine affirment dans une plainte déposée lundi à San Francisco que ChatGPT a entretenu une relation intime avec leur fils Adam durant plusieurs mois en 2024 et 2025, avant qu'il ne se donne la mort.
Selon le document consulté par l'AFP, lors de leur dernier échange le 11 avril 2025, ChatGPT aurait aidé Adam à dérober de la vodka chez ses parents et fourni une analyse technique du noeud coulant qu'il avait réalisé, confirmant qu'il «pouvait potentiellement suspendre un être humain». Adam a été retrouvé mort quelques heures plus tard, ayant utilisé cette méthode.
«ChatGPT fonctionnait comme prévu»
«Ce drame n'est pas un bug ou un cas imprévu», selon la plainte. «ChatGPT fonctionnait exactement comme conçu: il encourageait et validait en permanence tout ce qu'Adam exprimait, y compris ses pensées les plus dangereuses et autodestructrices, d'une manière qui paraissait profondément personnelle.»
Les parents expliquent qu'Adam avait commencé à utiliser ChatGPT pour l'aider à faire ses devoirs avant de développer progressivement une «dépendance malsaine». La plainte cite des extraits de conversations où ChatGPT aurait affirmé à l'adolescent «tu ne dois la survie à personne» et proposé de l'aider à rédiger sa lettre d'adieu.
Dommages et intérêts
Matthew et Maria Raine réclament des dommages et intérêts et demandent au tribunal d'imposer des mesures de sécurité, notamment l'interruption automatique de toute conversation portant sur l'automutilation et la mise en place de contrôles parentaux pour les mineurs.
Amener les entreprises d'IA à prendre la sécurité au sérieux «nécessite une pression extérieure, qui prend la forme d'une mauvaise publicité, de la menace législative et du risque judiciaire», a déclaré à l'AFP Meetali Jain, présidente du Tech Justice Law Project, une ONG qui représente les parents en plus de leurs avocats. L'organisation est également visée dans deux affaires similaires visant Character.AI, une plateforme d'IA conversationnelle prisée des adolescents.
Un risque «inacceptable» pour les ados
Pour l'ONG américaine Common Sense Media, la plainte déposée mardi contre OpenAI confirme que «l'utilisation de l'IA à des fins de compagnie, y compris les assistants généralistes comme ChatGPT pour des conseils en santé mentale, constitue un risque inacceptable pour les adolescents».
«Si une plateforme d'IA devient le 'coach suicide' d'un adolescent vulnérable, cela doit nous alerter collectivement», a ajouté l'organisation.