Fléau d'usurpation d'identité en ligne
Deepfake: «Ce qui coûtait 5 millions à faire ne coûte plus rien»

Il n'y a rien de plus facile que de créer de fausses vidéos imitant l'image et la voix, selon le professeur de l'EPFL Touradj Ebrahimi. Les solutions sont à trouver dans les détecteurs, les signatures numériques, le fact checking et la sensibilisation du public.
Publié: 16:28 heures
|
Dernière mise à jour: 17:44 heures
Partager
Écouter
«Il est très faciile de contourner les détecteurs de deepfake», explique Touradj Ebrahimi.
Chroniques Teaser (2).png
Myret ZakiJournaliste Blick

Les deepfakes, ces fausses vidéos imitant l’image et la voix de personnalités, vont devenir un problème sérieux, comme nous en témoignons ici. Problème: ni les détecteurs, ni l’arsenal législatif n’arrivent à suivre, met en garde Touradj Ebrahimi, professeur à l’EPFL et expert en intelligence artificielle et sécurité. Entretien.

Le problème des deepfakes est-il en hausse?
Oui, les progrès en deepfake sont rapides et tout le monde s’attend à des fraudes dans ce domaine. Comme vous le savez, plusieurs présentateurs de la RTS en ont déjà été victimes et ont porté plainte contre X. Il y a eu aussi des fraudes dans le domaine des banques, des cas où des fonds ont été soutirés, notamment à des personnes âgées. Je viens de compléter un projet avec une grande banque suisse qui souhaitait qu’on leur développe un détecteur de deepfakes de voix. En effet, le clonage de voix rattrape celui de l’image. Il suffit maintenant de 30 secondes à 1 minute de voix pour répliquer une voix. 

Les outils pour créer des deepfakes deviennent-ils trop accessibles et bon marché?
Oui, les barrières sont devenues très basses. Plusieurs outils open source existent, qui permettent à quiconque connait un minimum l’informatique de créer des vidéos fake. N’importe quel fraudeur pourrait faire un deepfake comme celui qui vous a prise pour cible. Une vidéo comme la vôtre, même il y a 20 ans, des gens auraient pu la créer. Cela demandait juste plus de moyens, car il fallait recourir à des images de synthèse de type cinématographique. Cela aurait coûté 5 millions de dollars. Aujourd’hui, cela coûte zéro.

Il y a aussi de nombreuses applications à usage commercial qui offrent ces possibilités de manière servicielle et légale, par exemple pour créer des voix destinées aux pubs ou aux répondeurs. 

Existe-t-il des détecteurs de deepfakes performants?
Il en existe, mais je n’en connais pas qui fonctionnent à 100%. Il est très facile de les contourner. Et avec l’open source, des gens s'amusent à regarder comment contourner ces détecteurs et partagent leurs trouvailles dans le domaine public.

Dès lors, si une grande partie de ma recherche porte sur les détecteurs, je suis le premier à vous dire qu’ils ne résolvent qu’une partie du problème, et qu’il n’y a pas de solution magique. 

Comment peut-on authentifier un contenu?
On a des solutions de signature numérique qui permettent de certifier la provenance des contenus. Mais là aussi, elles ont leurs limites. Par exemple, Adobe propose de telles solutions, mais leur adoption est lente et leur fiabilité limitée. 

ChatGpt 5 produit des textes et images qui sont labellisés. Mais il existe des moyens d’enlever le filigrane. Il y a toujours quelqu’un qui va s’amuser à trouver le moyen et à le partager, pour le plus grand plaisir des étudiants qui écrivent leurs rapports avec ChatGpt. Comme dans d'autres domaines, c’est un jeu de chat et de souris. 

Les législateurs sont-ils dépassés?
Oui. Cette fois, le problème est là. Les législateurs n’ont pas bougé assez vite, et une fois que c'est arrivé, c’est trop tard. En février dernier, l'Union européenne a mis en place le EU AI Act, qui oblige à annoncer les contenus créés ou synthétisés par IA. Il devient donc illégal de ne pas l’annoncer. C'est un début. A présent, il est indispensable de moderniser les lois qui existent et étendre leur champ d’action, car le deepfake n’existait pas lorsqu'on les a conçues. Il faut revoir tout l’arsenal législatif à la lumière de cette nouvelle réalité. Juristes, techno-scientifiques, sociologues, ingénieurs, doivent s'asseoir à la même table pour discuter de la législation appropriée.

En conclusion, sommes-nous vaincus par le deepfake?
Non. Mais il faut savoir que, si c’est la technologie qui a causé le problème au départ, les solutions elles ne peuvent pas être uniquement technologiques: l’essentiel réside dans la formation et la sensibilisation à ces dangers. 

Détecter un deepfake: les 3 solutions du professeur Ebrahimi

1) Utiliser un détecteur. Il détecte les mouvements anormaux dans l’image. Il est basé sur l’IA et apprend avec des exemples à toujours mieux détecter les anomalies. Mais les logiciels de deepfakes arrivent à surmonter petit à petit les défauts. Et cela complique le travail des détecteurs. On est au point où on se demande si la détection va bientôt devenir impossible. Dans une première phase, les humains auront du mal à détecter les deepfakes, et dans une deuxième phase, même les machines auront du mal. Il faudra donc recourir à plusieurs techniques en même temps. 

2) Utiliser une solution de provenance, ou signature numérique. La signature se fait comme une métadonnée qu’on ajoute. Si elle n’est pas là, on ne peut se fier à l’authenticité du contenu. Cela deviendra comme un contrat qui n’est pas signé. Mais il faut réussir à signer de façon fiable. Pour rendre la signature difficile à enlever, des outils comme le watermarking seront utilisés. C’est une technique qui insère un signal caché (souvent imperceptible) dans une image, une vidéo, un son ou un texte. Mais même là, on rend la fraude plus difficile, mais pas impossible. Si une entité met assez de moyens, de temps, d’argent, elle peut pratiquement casser tous ces systèmes actuellement. 

3) Le fact checking doit venir compléter ce dispositif. Comme les journalistes, il faut donc vérifier le contenu lui-même avant d’y croire. On peut le faire de manière automatique, avec l’IA. Votre téléphone va vérifier les contenus et vous indiquer si ce contenu a été signalé comme frauduleux. Mais nous n’en sommes pas encore là, car nous n’avons pas encore de solutions automatiques de fact checking. En outre, des entités peuvent attaquer une plateforme de fact checking en prétendant que le contenu incriminé est authentique. Ces attaques peuvent inverser ou contrer la conclusion du fact check. C’est une histoire qui ne se termine jamais.

1) Utiliser un détecteur. Il détecte les mouvements anormaux dans l’image. Il est basé sur l’IA et apprend avec des exemples à toujours mieux détecter les anomalies. Mais les logiciels de deepfakes arrivent à surmonter petit à petit les défauts. Et cela complique le travail des détecteurs. On est au point où on se demande si la détection va bientôt devenir impossible. Dans une première phase, les humains auront du mal à détecter les deepfakes, et dans une deuxième phase, même les machines auront du mal. Il faudra donc recourir à plusieurs techniques en même temps. 

2) Utiliser une solution de provenance, ou signature numérique. La signature se fait comme une métadonnée qu’on ajoute. Si elle n’est pas là, on ne peut se fier à l’authenticité du contenu. Cela deviendra comme un contrat qui n’est pas signé. Mais il faut réussir à signer de façon fiable. Pour rendre la signature difficile à enlever, des outils comme le watermarking seront utilisés. C’est une technique qui insère un signal caché (souvent imperceptible) dans une image, une vidéo, un son ou un texte. Mais même là, on rend la fraude plus difficile, mais pas impossible. Si une entité met assez de moyens, de temps, d’argent, elle peut pratiquement casser tous ces systèmes actuellement. 

3) Le fact checking doit venir compléter ce dispositif. Comme les journalistes, il faut donc vérifier le contenu lui-même avant d’y croire. On peut le faire de manière automatique, avec l’IA. Votre téléphone va vérifier les contenus et vous indiquer si ce contenu a été signalé comme frauduleux. Mais nous n’en sommes pas encore là, car nous n’avons pas encore de solutions automatiques de fact checking. En outre, des entités peuvent attaquer une plateforme de fact checking en prétendant que le contenu incriminé est authentique. Ces attaques peuvent inverser ou contrer la conclusion du fact check. C’est une histoire qui ne se termine jamais.


Partager
Vous avez trouvé une erreur? Signalez-la
Articles les plus lus
    Articles les plus lus