La police suisse s'en empare
«J'ai planifié le meurtre de ma collègue»: ces criminels piégés par ChatGPT

De plus en plus de personnes utilisent l’IA comme confident, y compris des criminels. Mais ce qui est confié à ChatGPT peut aussi intéresser la police.
1/4
Beaucoup utilisent depuis les chatbots d'IA comme ChatGPT ou Gemini comme un confessionnal numérique.
Photo: Keystone
IMG_4140.jpg
Sven Altermatt

Les chatbots d’intelligence artificielle comme ChatGPT ou Gemini se sont imposés dans le quotidien des Suisses. Rapides, pratiques et disponibles en permanence, ils servent d’assistants numériques. Ils deviennent aussi des confidents silencieux. Les utilisateurs y partagent leurs soucis, y déposent des documents privés et évoquent des situations sensibles. Comme l’a résumé Sam Altman, PDG d'OpenAI, beaucoup confient à l’IA «les choses les plus personnelles de leur vie».

C’est précisément pour cette raison que les autorités suisses chargées de la protection des données appellent à la prudence. Avant d’utiliser ces outils, il faut réfléchir aux informations que l’on partage. Le préposé à la protection des données du canton de Thurgovie met en garde sans ambiguïté. «Soyez prudents lorsque vous saisissez des requêtes dans des systèmes d’IA publics.» Ces données peuvent être enregistrées et, dans certains cas, transmises.

De nouvelles preuves d'enquête

Mais ces informations peuvent être précieuses pour la justice. Car tout le monde n’utilise pas l’IA à bon escient. Des criminels s’en servent pour tester des scénarios, demander des conseils ou évoquer des projets illégaux. Les requêtes adressées aux chatbots peuvent ainsi fournir des indices à la police et devenir des éléments d’enquête, au même titre que l’historique de recherche Google ou les données téléphoniques.

Des affaires à l’étranger illustrent ce phénomène. En Allemagne, à Mellrichstadt, un homme de 22 ans aurait discuté avec ChatGPT de ses fantasmes violents avant une attaque mortelle au couteau. Il avait notamment écrit «j’ai planifié le meurtre de ma collègue». Ces échanges ont ensuite été versés au dossier comme pièces à conviction.

Ces cas alimentent le débat, aussi en Suisse. Comment les autorités exploitent-elles ces nouvelles traces numériques? Faut-il adapter les outils juridiques?

Comment les données parviennent à la police

Les enquêteurs disposent de plusieurs voies. La première passe par les fournisseurs eux-mêmes. OpenAI, par exemple, peut analyser automatiquement certains contenus pour détecter des abus. Dans les cas sensibles, comme des menaces de violence, des échanges peuvent être examinés par des modérateurs. S'ils détectent un danger concret, des informations peuvent être transmises aux autorités.

Une deuxième voie repose sur des demandes formelles. Si un suspect est soupçonné d’avoir utilisé un chatbot, les enquêteurs peuvent solliciter l’accès aux données dans le cadre de l’entraide judiciaire internationale. Ces procédures restent toutefois lourdes et coûteuses. Les autorités suisses n’ont pas un accès direct aux données comme leurs homologues américaines. En revanche, des informations récoltées dans des procédures aux Etats-Unis peuvent être transmises via des coopérations internationales.

Troisième possibilité, souvent déterminante: l’analyse des appareils saisis. Les échanges avec des IA sont alors récupérés directement sur les smartphones ou les ordinateurs des suspects.

«On y a de plus en plus recours»

Sur le terrain, les pratiques varient. A Zurich, la police cantonale renvoie au ministère public, qui reste discret. «Nous n’avons pas la possibilité de savoir quelles procédures reposent sur quels moyens de preuve», indique-t-il. L’Office fédéral de la police (Fedpol) se montre plus explicite. «Avec l’augmentation de l’utilisation des plateformes d’intelligence artificielle comme ChatGPT, les autorités policières y ont de plus en plus recours», explique une porte-parole.

Les autorités ont besoin d'informations provenant de différentes sources. Dans certaines enquêtes, les données d'un suspect récoltées par l'intelligence artificielle peuvent être utilisées lorsqu’elles sont pertinentes. Cela concerne notamment la cybercriminalité, le terrorisme ou le crime organisé. Fedpol ne détaille pas ses collaborations avec des fournisseurs «pour des raisons tactiques».

Stade précoce

La police cantonale argovienne confirme les premiers cas. Des données issues de chats IA ont été exploitées lors de l’analyse de supports saisis ou transmises par des fournisseurs. Elles apparaissent dans des affaires liées au patrimoine, à la violence ou à la cybercriminalité.

A Saint-Gall aussi, ces analyses font partie du travail courant. Dans les cas graves, une évaluation détaillée des appareils et de leur contenu est systématiquement menée. Ces éléments peuvent peser dans des dossiers reposant sur des indices. Jusqu’ici, aucune information n’a toutefois été transmise directement par les plateformes.

D’autres cantons en sont encore à un stade précoce. Lucerne indique ne pas avoir d’expérience concrète en la matière. Berne n’a pas encore utilisé de données issues de chats IA, mais suit l’évolution de près.

Pas de règles supplémentaires

Les outils existent déjà. Faut-il créer de nouvelles règles pour encadrer ces pratiques? Pas nécessairement, selon une analyse mandatée par le Conseil fédéral.

Le document estime que le droit pénal suisse, fondé sur une approche technologiquement neutre, permet déjà de traiter l’usage de systèmes d’intelligence artificielle dans des infractions, notamment intentionnelles. En pratique, cela signifie que les échanges avec une IA sont considérés comme d’autres traces numériques. Ils sont traités comme des e-mails, des messages sur les réseaux sociaux ou des notes vocales.

Articles les plus lus