Skip to content

Renverser le récit sur les deepfakes

Deepfakes : Des chercheurs de Smith exploitent une technologie stigmatisée pour des décisions à forts enjeux

La technologie des deepfakes, souvent associée à la désinformation et à la tromperie numérique, suscite de vives inquiétudes quant à l’érosion de la vérité dans un monde façonné par l’intelligence artificielle. Mais une étude de la Robert H. Smith School of Business de l’University of Maryland renverse ce récit de manière innovante, grâce à une méthode en attente de brevet utilisant des images faciales générées par IA pour détecter, mesurer et atténuer les biais dans les prises de décisions critiques.

Ce rapport explore comment la technologie des deepfakes, généralement perçue négativement, peut être utilisée de manière éthique pour améliorer la détection, la mesure et la réduction des biais sociaux dans des domaines cruciaux tels que la santé, l’éducation et l’emploi. Les auteurs montrent qu’en utilisant des images faciales générées par deepfake pour créer des scénarios contrôlés, il est possible de mieux identifier les biais liés à la race et à l’âge qui influencent les décisions subjectives, notamment en particulier dans l’évaluation de la douleur ou dans les processus de recrutement. Le rapport souligne que cette approche innovante permet de surmonter les limitations des méthodes traditionnelles basées uniquement sur le texte, et ouvre la voie à une meilleure correction des biais, tout en insistant sur un usage responsable et éthique de cette technologie pour le bien de la société.

Cette méthode est présentée dans le rapport intitulé Deception to Perception: The Surprising Benefits of Deepfakes for Detecting, Measuring, and Mitigating Bias”, rédigé par Siva Viswanathan, professeur de systèmes d’information à la Dean’s School, en collaboration avec Balaji Padmanabhan, directeur du Smith’s Center for Artificial Intelligence in Business, et Yizhi Liu, doctorant en systèmes d’information.

Viswanathan replace la découverte dans l’histoire des sciences :

« Avec les deepfakes, nous voyons une opportunité de réorienter un phénomène potentiellement nuisible au profit de la société. »
Il cite l’exemple de la transformation, dans les années 1920, d’une moisissure toxique pour le bétail en warfarine, aujourd’hui utilisée pour prévenir les AVC et les crises cardiaques.

Padmanabhan poursuit :

« Au-delà de la simple réduction des biais pour plus d’équité, nous utilisons la technologie deepfake pour éliminer les résultats déformés et les mauvaises conclusions dans des domaines comme le recrutement, la justice pénale ou encore les soins médicaux – comme lorsque qu’un médecin évalue le niveau de douleur d’un patient. »

Viswanathan souligne que l’évaluation de la douleur est un cas d’application particulièrement révélateur :

« Des recherches ont montré que des écarts basés sur la race ou l’âge influencent les jugements des professionnels de santé. »

deepfake

deepfake

Les chercheurs ont donc généré des images deepfake reproduisant les unités d’action faciale utilisées dans le calcul du Prkachin and Solomon Pain Intensity score, servant à estimer l’intensité de la douleur. Ils ont ensuite modifié de façon subtile des éléments comme la race ou l’âge perçus des sujets pour voir si cela influençait les évaluations.

« Les résultats étaient frappants », rapporte Viswanathan.
« Les patients blancs étaient systématiquement jugés comme ayant plus mal que les patients noirs, et les personnes âgées comme souffrant davantage que les jeunes – alors que les images étaient identiques en tout point, sauf l’aspect facial. »

Ainsi, la recherche ne se contente pas de révéler les biais :

« Elle franchit une étape inédite vers leur correction », ajoute Viswanathan.
« En intégrant des datasets augmentés de deepfakes dans les modèles d’apprentissage automatique, nous démontrons que les systèmes d’IA peuvent être recalibrés pour générer une feuille de route réduisant les biais qui nuisent aux décisions – que ce soit dans les diagnostics médicaux, les évaluations de risques judiciaires ou les algorithmes de recrutement. »

Dans ce dernier domaine, les auteurs soulignent que les deepfakes deviennent un outil clé pour garantir des décisions plus transparentes, responsables, équitables et efficaces. Dans le processus de sélection des candidats, les biais humains peuvent s’immiscer inconsciemment, surtout lorsque des vidéos sont utilisées dans les candidatures ou entretiens préliminaires en ligne.

« Une entreprise qui recrute, par exemple un développeur ou un chef de projet, veut pouvoir neutraliser ces biais afin de prendre la meilleure décision pour l’entreprise », explique Padmanabhan.

Ce besoin d’équité est tout aussi crucial pour les professionnels du droit évaluant des témoignages en ligne. Padmanabhan précise que l’équipe travaille aussi sur un système d’IA intégrant l’audio, la vidéo et les images pour générer les deepfakes nécessaires à l’entraînement des modèles.

Ce projet est finaliste du UMD Invention of the Year Award, une distinction rare pour une recherche issue d’une école de commerce, note Viswanathan. Et alors que l’IA redessine notre société, il conclut :

« Cette recherche marque un tournant : les deepfakes ne sont pas seulement une menace pour la vérité — ils pourraient bien en être la clé. »

Lire l’étude complète :
“Deception to Perception: The Surprising Benefits of Deepfakes for Detecting, Measuring, and Mitigating Bias”
👉 https://arxiv.org/abs/2502.11195

Laisser un commentaireAnnuler la réponse.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

En savoir plus sur Intelligence Artificielle et Transhumanisme

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture

Quitter la version mobile
%%footer%%