Skip to content

Des attaques par injection vidéo pour tromper la reconnaissance faciale

Des attaques par usurpation d’identité numérique à grande échelle via des injections vidéos biométriques

Un cadre du secteur de la vérification faciale biométrique a peut-être cru qu’il allait faire un tabac lorsqu’il a parlé, lors d’une conférence de la FIDO Alliance, de l’augmentation des attaques par injection biométrique, mais c’est son exemple de la rapidité avec laquelle ces attaques peuvent s’étendre qui a fait sursauter les personnes présentes.

Ajay Amlani, vice-président senior et responsable de la région Amériques pour iProov, s’est exprimé lors du salon Authenticate 2022 sur la menace croissante que représentent les attaques par injection vidéos pour le secteur de la biométrie (et les victimes potentielles).

« Au cours des deux dernières années, a déclaré Amlani, ces attaques sont devenues une menace mondiale. Elles sont faciles à orchestrer, et certains scénarios sont presque impossibles à détecter. Qui plus est, il y a un manque de normes autour de la protection des infrastructures. »

Ces attaques biométriques sont indirectes et impliquent un trait biométrique réel qui est numériquement approximatif. Le faux est transmis au logiciel de reconnaissance biométrique interne qui prend une décision sur la base de ce qui est en réalité une donnée frauduleuse.

Les attaques par injection sont une forme d’attaque de présentation biométrique, mais sous la forme d’un contournement, ce qui signifie qu’elles dépassent le cadre de la plupart des tests PAD.

Les possibilités d’exploitation sont nombreuses, mais l’une des plus effrayantes est l’injection de vidéos « deepfake » dans le flux d’un téléphone.

LIRE AUSSI 🔖  NEC développe la reconnaissance faciale pour les paiements

Un rapport français sur le sujet l’explique très bien.

Le développement d’une solution de vérification d’identité numérique à distance ouvre la voie à de nouvelles attaques plus accessibles pour les attaquants car le téléphone mobile est sous le contrôle de l’attaquant sans aucun contrôle d’une quelconque autorité, écrivent les chercheurs français.

Un navigateur web est encore plus vulnérable à ce type d’attaque car un simple outil de simulation de webcam permet d’injecter des vidéos via le navigateur web, écrivent-ils.

Figure 1 presents the 9 different points of attack on biometric systems

Figure 1 presents the 9 different points of attack on biometric systems.

Il est démontré que les vidéoconférences offrent aux imposteurs la possibilité d’utiliser des vidéos authentiques de la victime ou de créer des attaques de qualité supérieure, notamment grâce aux algorithmes d’apprentissage profond (deep learning), indique le rapport.

L’arrivée sur le marché des solutions de vérification d’identité à distance donne aux imposteurs l’opportunité de réaliser de nouveaux types d’attaques afin de voler l’identité d’une victime.

Attaques vidéos

Une simple photo de visage. A l’aide d’une simple photo, il est notamment possible de réaliser ces attaques :

– Photo montage pour créer de nouvelles photos où la victime réalise les défis, puis ajout de morphing entre les différentes photos pour donner un effet de mouvement.

– Réalisation de vidéos deepfake de faible qualité à l’aide d’une application mobile Android. Une attaque de vidéo deepfake consiste à mettre le visage d’un sujet A sur le visage du sujet B lors d’une vidéo. L’idée ici est de mettre le visage de la victime sur le visage de l’attaquant en réalisant des défis dans une vidéo. La résolution de la vidéo obtenue peut ensuite être augmentée grâce à des outils basés sur l’intelligence artificielle disponibles sur le marché. (Deepfake-LQ)

Fig. 2: On the left the attacker, in the middle 3 frames from the Deepfake-LQ attack (eyes completely open, mid open and closed), on the right the victim

– La réalisation d’une « photo Morphing » qui peut ensuite être utilisée dans toutes les attaques mentionnées ci-dessus. Un morphing du visage est créé en ressemblant les informations biométriques de deux ou plusieurs individus. … Ainsi, l’utilisation d’un morphing du visage pour les attaques présentées ci-dessus a un intérêt car il peut permettre à plusieurs personnes d’utiliser l’identité de la victime ou il peut rendre le deepfake plus discret s’il y avait une vérification humaine après les vérifications logicielles par exemple.

Fig. 3: On the left the attacker, in the middle the morphed face, on the right the victim

Une vidéo volée de la victime pendant une vidéoconférence.

LIRE AUSSI 🔖  Le ministère russe teste la reconnaissance de la démarche

Les auteurs montrent que l’utilisation généralisée des vidéoconférences, bien aidée par la situation sanitaire mondiale, offre une source biométrique faciale très riche pour un attaquant.

Cette richesse permet à l’attaquant de développer des attaques de bien meilleure qualité en utilisant les vidéos volées pour entraîner des algorithmes d’apprentissage profond. Cela peut l’aider à développer :

– Des attaques deepfake de haute qualité utilisant diverses solutions open source basées sur l’apprentissage profond. (Deepfake-HQ)

Fig. 4: On the left the attacker, in the middle 3 frames from the Deepfake-HQ attack, on the right the victim

– Des vidéos de morphing de haute qualité en utilisant une solution open source basée sur l’apprentissage profond. (Morphing-vidéo)

Quelques podcasts de la conférence Authenticate 2022

#175 – Authenticate 2022 Preview with Andrew Shikiar

#176 – Authenticate 2022: Voice Is The Future with John Poirier

#177 – Authenticate 2022 – IDPro Chat with Ian Glazer and Andi Hindle

#178 – Authenticate 2022 – Target’s FIDO Journey with Tom Sheffield

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.