Skip to content

Morphing – Faire face aux DeepFakes

Les fuites de données personnelles ne sont pas toutes aussi dangereuses. Lorsque des données provenant de services en ligne sont compromises – par exemple, une adresse électronique, un nom d’utilisateur, un numéro de téléphone, une adresse de livraison – c’est désagréable. Toutefois, ce n’est pas aussi effrayant que la fuite d’une photo d’identité ou des données personnelles biométriques d’une personne.

Obtenir une photo d’identité de qualité est une chance pour un criminel. Une image animée peut être créée à partir d’une photo d’identité biométrique, puis d’un deepfake. Celle-ci est ensuite utilisée pour créer une fausse identité. De plus, elle est utilisée pour attaquer des services Internet, des banques, des agences gouvernementales.

Aujourd’hui, des attaques deepfake se produisent chaque jour dans le monde entier. Ces événements ne sont pas rapportés publiquement. Mais de nombreuses personnes ont entendu parler de l’utilisation de deepfake dans des vidéos de célébrités. L’un des cas les plus récents et les plus médiatisés s’est produit en mai 2022. Des escrocs ont alors commencé à utiliser une image synthétisée d’Elon Musk pour promouvoir BitVex, une plateforme d’échange de crypto-monnaies.

Les scientifiques ont été les premiers à s’intéresser au sujet de la synthétisation des visages pour lutter contre la fraude. Dès 2017, des spécialistes de NVIDIA et de l’université d’Aalto ont présenté une méthode d’entraînement d’un réseau de neurones dans laquelle il génère des photos de plus en plus haute résolution à partir d’images à faible résolution.

En 2018, des scientifiques de l’Institut de Robòtica i Informàtica Industrial et de l’Ohio State University ont créé un réseau neuronal capable de générer des photos de visage en ajoutant un sourire, des lunettes et en modifiant la rotation de la tête à l’image originale.

En 2018, des scientifiques du CUHK – SenseTime Joint Lab, de l’Université chinoise de Hong Kong et de l’Institut de technologie avancée de Shenzhen, de l’Académie chinoise des sciences, ont présenté une méthode en deux étapes pour synthétiser les visages. Dans la première étape, le réseau neuronal crée les caractéristiques du visage, puis génère une image. Cette méthode s’est avérée plus efficace que la synthétisation des visages en une seule étape.

Des chercheurs de L’Université autonome de Madrid et de l’Université de Beira Interior ont présenté une nouvelle architecture de génération de visages pour tromper les détecteurs de contrefaçon à réseau neuronal en 2020.

La même année, des scientifiques de l’université de Pékin et de Microsoft Research ont proposé une méthode permettant d’usurper de manière plus plausible des visages sur une photo. Le réseau neuronal créé par les scientifiques apprend à extraire les caractéristiques et les attributs du visage de deux images de visages différents et à générer un nouveau visage avec les caractéristiques du premier visage et les attributs du second. Il est très probable que c’est de cette manière que le Deepfake est réalisé.

En 2021, des scientifiques de l’université de Tel-Aviv et de Penta-AI sont allés plus loin et ont proposé un réseau neuronal qui génère des visages dans un style particulier.

En outre, en juillet de cette année, une équipe de scientifiques du Samsung AI Center – Moscou, de Yandex Armenia et du Skolkovo Institute of Science and Technology a dévoilé une technologie permettant de créer des avatars humains neuronaux haute résolution – des méga-portraits. Cette technologie a donné de la dynamique à une image statique à une seule image. Et nous voyons les avatars de l’écrivain russe Nikolaï Gogol, de l’artiste mexicaine Frida Kahlo, de l’acteur Brad Pitt, de l’actrice Angelina Jolie, de La Joconde de Léonard de Vinci et d’autres personnalités célèbres qui sourient, tournent la tête, lèvent la tête, roulent les yeux comme s’ils étaient vivants.

Si les scientifiques sont si doués pour synthétiser des visages, imaginez ce que les escrocs peuvent faire avec des photos d’identité.

Les fuites de données facilitent l’utilisation des deepfakes à des fins criminelles. Plus il y a de fuites de photos, mieux sont entraînés les réseaux neuronaux qui synthétisent les visages des gens.

Le principal danger des fuites n’est pas que les données soient compromises, mais que naisse une mer d’informations dans laquelle tout peut être trouvé. Si un criminel veut changer d’identité, il lui suffit de trouver quelqu’un qui lui ressemble dans la base de données. Le criminel peut essayer de générer frauduleusement la demande de passeport perdue de cette personne afin d’obtenir une carte d’identité avec une nouvelle photo créée par morphing. L’image est réalisée de telle sorte qu’il ne s’agit pas de la photo d’une des personnes concernées, mais d’une nouvelle photo qui ressemble le plus possible à chacune des deux personnes.

Le morphing est l’une des technologies les plus dangereuses conçues pour la contrefaçon dans le domaine de la biométrie. Elle est créée uniquement par des fuites de données. C’est un moyen de tromper à la fois les humains et les robots. Si un passeport est obtenu avec un morphing du visage, les systèmes de reconnaissance faciale vous diront que cette image n’appartient pas au criminel à la nouvelle identité, mais à quelqu’un d’autre. C’est ainsi que l’on s’approprie l’histoire de la vie de quelqu’un d’autre. Le criminel n’a pas besoin d’un jumeau ou de chirurgie plastique pour le faire.

Dans le cas d’un tel incident, la première chose à faire est de déterminer ce qui a été divulgué. Si des données biométriques, des photos d’identité, sont manquantes, alors la sécurité nationale est menacée par la fuite. Car la biométrie est utilisée pratiquement partout, des banques aux centrales nucléaires. Si la photo est correctement transformée, les banques et les centrales nucléaires pourront s’en prendre aux mauvaises personnes. Vous aurez de la chance si vous finissez par voler 5 000 dollars à la banque. Mais que se passe-t-il s’il y a un accident à la centrale nucléaire ?

Tout en reconnaissant que les fuites de données constituent une menace pour la sécurité, il convient également de procéder à un audit des opérateurs de données personnelles. De nouvelles exigences juridiques font avancer les choses.

Certains pays ont interdit aux entreprises de refuser des services à leurs clients s’ils ne veulent pas fournir de données personnelles biométriques alors que la loi ne l’exige pas. Les contrevenants s’exposent à des sanctions pécuniaires. Cela affectera probablement la pratique des services en ligne qui demandent aux utilisateurs d’enregistrer une vidéo de leur visage et de leur tête en train de tourner. S’ils refusent, leur compte est bloqué. Les services affirment que l’enregistrement est nécessaire pour vérifier l’authenticité du compte, qu’une personne réelle et non un robot l’a créé. Or, pour mener à bien cette procédure, les services ne peuvent manquer de collecter et de stocker les vidéos du visage des utilisateurs. Sont-ils sûrs que ces données biométriques sont sécurisées ?

Il est intéressant d’aller plus loin et d’examiner les pratiques de traitement des données dans le secteur de la foodtech. Après tout, le service n’a pas besoin de connaître les détails du passeport du client ni même son nom pour livrer à son domicile les aliments commandés en ligne. Il peut envoyer au client un QR-code, que ce dernier montrera au coursier pour qu’il le lise et reçoive la commande. Le système de traitement des commandes de la foodtech peut être créé en blockchain afin d’éviter les fuites de données.

Si les pratiques de traitement des données personnelles ne sont pas revues, les services continueront à collecter autant de données personnelles que possible, pensant qu’il s’agit d’un trésor comme de l’or. Mais si les entreprises pensent vraiment de cette façon, alors ce trésor doit être protégé en conséquence – tout comme le fait une banque ou l’État.

2 Comments »

Laisser un commentaireAnnuler la réponse.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Quitter la version mobile
%%footer%%