Les Etats membres et le Parlement européen se sont entendus dans la nuit de mercredi à jeudi pour interdire dans l'UE les services d'intelligence artificielle (IA) permettant de «dénuder» des personnes sans leur consentement. Cette initiative fait suite notamment à l'introduction il y a quelques mois d'une fonctionnalité dans Grok, l'assistant d'intelligence artificielle d'Elon Musk, qui permettait aux utilisateurs de lui demander de créer des montages hyperréalistes (ou deepfakes) d'adultes et d'enfants dénudés, à partir de photos réelles, et ce sans leur consentement.
Cette affaire avait soulevé un tollé dans de nombreux pays et entraîné l'ouverture d'une enquête de l'UE. Mardi, la Première ministre italienne Giorgia Meloni a vivement dénoncé des fausses photos d'elle générées par l'intelligence artificielle (IA), qualifiant ces deepfakes d'«outil dangereux». Selon le Parlement, la nouvelle interdiction européenne porte sur les systèmes permettant de créer des images, vidéos, et sons à caractère pédopornographique, ou représentant les parties intimes d'une personne identifiable, ou la mettant en scène dans des activités sexuelles, sans son consentement.
Besoin de temps pour s'adapter au cadre
La nouvelle réglementation s'appliquera à partir du 2 décembre 2026. A cette date, les IA devront donc être dotées de mesures de sécurité les empêchant de générer de tels contenus. Cette mesure a été adoptée dans le cadre d'une révision de la législation européenne sur l'IA, ou AI Act, une loi pionnière formellement adoptée il y a deux ans. A cette occasion, les 27 et les eurodéputés ont également accepté, comme le proposait la Commission européenne, de reporter l'entrée en vigueur de nouvelles règles visant à encadrer l'activité des systèmes d'intelligence artificielle dits à hauts risques, c'est-à-dire ceux actifs dans les domaines sensibles de la sécurité, la santé ou encore les droits fondamentaux.
Ces règles étaient censées entrer en vigueur en août, mais la Commission a voulu donner plus de temps aux entreprises pour s'adapter à ce cadre totalement inédit. Principale modification par rapport au projet de la Commission, les Etats membres et les eurodéputés ont adopté des dates fixes pour ce report, là où Bruxelles avait proposé un calendrier plus souple.
Il s'agit du 2 décembre 2027 pour les systèmes à hauts risques «autonomes», et du 2 août 2028 pour ceux intégrés à d'autres programmes ou produits. Cet accord a été conclu alors que les craintes à l'égard des risques liés à l'intelligence artificielle ont été ravivées ces dernières semaines dans l'UE par Mythos, le nouveau modèle de la start-up américaine Anthropic, dont les capacités supposées en matière de cybersécurité nourrissent des inquiétudes.