Skip to content

Reconnaissance faciale : La crise de la vie privée

La technologie de reconnaissance faciale est hors de contrôle – et les implications sont profondes. Les autorités de réglementation doivent agir maintenant pour en réduire les effets néfastes.

Votre visage est ce qui vous rend unique. C’est ce qui vous donne votre apparence distincte, vous permet d’exprimer votre humeur, vos émotions et vos réactions, et vous permet de communiquer. Au cours des dernières décennies, votre visage est devenu un outil qui vous permet de faire beaucoup plus. Il peut déverrouiller votre téléphone, vous permettre d’embarquer dans un avion, de traverser les frontières et de payer votre café. Tout cela est dû à l’essor de la technologie de reconnaissance faciale, un type d’intelligence artificielle qui utilise un apprentissage approfondi (deep learning) pour quantifier les identificateurs uniques des visages individuels, qui sont ensuite analysés et comparés aux bases de données de photos. Bien que la technologie de reconnaissance faciale présente des avantages distincts – tels que la prévention de la criminalité et de la fraude, l’efficacité et la commodité – les risques qui accompagnent son utilisation généralisée signalent la fin de la vie privée telle que nous la connaissons. Pourtant, les gouvernements du monde entier ont été lents à lancer un débat public et à promulguer des réglementations relatives à son utilisation. Pendant ce temps, la technologie de reconnaissance faciale a proliféré tant dans le secteur public que dans le secteur privé, ce qui a entraîné la normalisation d’une surveillance constante et immuable qui est appelée à devenir le modèle par défaut pour notre avenir : un modèle dans lequel – sans une action urgente du gouvernement – notre capacité à nous déplacer dans la vie sans surveillance cessera d’exister.

Comment la technologie de reconnaissance faciale est-elle devenue courante ?

Autrefois sujet de fiction dystopique, la technologie de reconnaissance faciale en est venue à s’infiltrer dans la vie quotidienne du monde entier au cours de la dernière décennie. En Chine, le leader mondial de la technologie de reconnaissance faciale, ses objectifs vont de la mise en place de lunettes de reconnaissance faciale pour la police, au paiement avec le sourire, en passant par la capture des personnes qui jettent leurs déchets. En septembre 2019, l’autorité nationale indienne en matière d’identification, Aadhaar, a rendu obligatoire pour les fournisseurs de services de télécommunications de vérifier que 10 % de leurs clients utilisent la technologie de reconnaissance faciale, et en octobre 2019, le gouvernement français a annoncé son intention de l’utiliser dans un nouveau système national d’identification, Alicem. La Russie a installé cette technologie sur 5 000 caméras de vidéosurveillance à Moscou et expérimente un système de paiement par reconnaissance faciale dans les gares.

Aux États-Unis, la technologie de reconnaissance faciale est utilisée – et parfois abusivement – par les forces de l’ordre, les patrouilles frontalières et un nombre croissant des plus grands magasins du pays (dont Walmart et Target) au nom de la prévention des vols. Un article de Kashmir Hill paru en 2020 dans le New York Times a révélé un autre partenariat public-privé dans le domaine de la surveillance par reconnaissance faciale. Il décrit cette fois une société financée par Peter Thiel, Clearview AI, qui fait correspondre les visages des images téléchargées sur des « millions » de sites web, dont Facebook, Venmo et YouTube, à une base de données privée d’environ trois milliards de photos. L’intelligence artificielle que Clearview AI a développée une technologie qui peut également faire correspondre des visages par le biais de photos imparfaites, comme celles des caméras de surveillance. Un sergent de police a déclaré : « Une personne peut porter un chapeau ou des lunettes, ou il peut s’agir d’une photo de profil ou d’une vue partielle de son visage ». Clearview AI offre des services de reconnaissance faciale à près de 600 services de police américains et dispose d’une bibliothèque d’images sept fois plus importante que celle du FBI.

Au Royaume-Uni, la police métropolitaine de Londres et la police du sud du Pays de Galles ont procédé à des essais de technologie de reconnaissance faciale lors de matchs sportifs et pour surveiller les manifestations pacifiques. Cette dernière instance, malgré une opposition véhémente et une inexactitude avérée, a été confirmée comme constitutionnelle par la Haute Cour en septembre 2019. À Londres (la deuxième ville la plus surveillée au monde après Pékin, avec environ 420 000 caméras de vidéosurveillance qui sont de plus en plus modernisées pour inclure des capacités de technologie de reconnaissance faciale), les promoteurs immobiliers l’ont utilisé pour surveiller les personnes qui marchent dans King’s Cross et les faire correspondre aux bases de données fournies par la police, bien que cette pratique ait maintenant été abandonnée. Cette technologie est même utilisée pour déterminer qui sera le prochain à servir dans un bar londonien, et des supermarchés, dont Tesco et Sainsbury’s, se préparent à l’utiliser pour vérifier l’âge des clients. Partout où nous allons, la technologie de reconnaissance faciale apparaît dans la paume de nos mains, de l’option « tagger un ami » de Facebook à la fonction de déverrouillage de l’iPhone d’Apple. On prévoit que 64 % des smartphones utiliseront cette technologie en 2020. Tout cela représente une industrie mondiale d’un milliard de dollars – une industrie qui devrait passer de 3,2 milliards de dollars en 2019 à 7 milliards de dollars d’ici 2024.

La demande intersectorielle en matière de technologie de reconnaissance faciale connaît une courbe ascendante exponentielle dans le monde entier. Les facteurs qui alimentent cette croissance ininterrompue sont au nombre de trois. Premièrement, à l’exception d’une poignée de villes aux États-Unis, la technologie de reconnaissance faciale est actuellement soumise à très peu de réglementations, et dépourvue de normes applicables à l’ensemble du secteur. Deuxièmement, les systèmes de suivi de la technologie de reconnaissance faciale sont bon marché (moins de 100 dollars) et facilement accessibles « à toute personne disposant d’une connexion internet et d’une carte de crédit », comme l’a prouvé une expérience du New York Times en avril 2019. Troisièmement, l’intelligence artificielle qui sous-tend la technologie de reconnaissance faciale est intelligente et apprend à un rythme de plus en plus rapide. La capacité des logiciels de technologie de reconnaissance faciale à analyser des images de mauvaise qualité (seulement un mégapixel) est due à l’apprentissage profond (deep learning), un type d’IA qui imite le fonctionnement du cerveau humain pour traiter de vastes ensembles de données par le biais de réseaux neuronaux artificiels.

Le progrès des algorithmes de la technologie de reconnaissance faciale repose sur l’accumulation de photos de visages de personnes, qui sont rassemblées dans de vastes bases de données. Ces bases de données sont construites à partir d’une série de sources qui varient en fonction de qui les utilise et dans quel but. Certaines sont compilées à partir de listes de surveillance de la police ou de délinquants connus. D’autres proviennent de personnes qui téléchargent des photos sur des plateformes ou des applications. C’est le cas de la fonction « tagger un ami » de Facebook, qui est utilisée pour former l’algorithme de reconnaissance faciale de l’entreprise, ainsi que des applications de stockage de photos comme Ever. D’autres, comme Labeled Faces in the Wild ou MegaFace, sont composées de photos qui sont récupérées sur Internet sans le consentement ou même à l’insu de ceux qu’elles représentent. Les universitaires et les entreprises privées utilisent ces bases de données ouvertes pour former les algorithmes qui sous-tendent la technologie de reconnaissance faciale. Presque toutes les grandes entreprises technologiques développent leur propre système : Facebook a DeepFace, Google a FaceNet, et Amazon a Rekognition, pour n’en citer que quelques-uns. Chacune investit massivement dans ce que le directeur général de Microsoft, Satya Nadella, a appelé la « course vers le bas » pour développer les systèmes technologiques de reconnaissance faciale les plus puissants à vendre aux gouvernements, qui les déploient à des fins de contrôle et de surveillance.

La menace ultime pour la vie privée

Alors que de nombreuses sociétés se sont habituées à des mécanismes de surveillance comme la vidéosurveillance et autres caméras dans les espaces publics, les lecteurs de plaques d’immatriculation automatisés, les sonnettes équipées de caméras et les drones, la reconnaissance faciale marque une atteinte beaucoup plus profonde à la vie privée, en raison de sa capacité à identifier en temps réel des faits psychiques uniques sur les individus. En automatisant la surveillance de masse de manière à – comme l’écrivent Woodrow Hartzog et Evan Selinger dans un éditorial du New Yorker – « surmonter les contraintes biologiques sur le nombre d’individus que chacun peut reconnaître en temps réel », elle prive les citoyens de la liberté de se promener dans les rues, à travers les villes, autour des supermarchés et dans les pôles de transport sans être surveillés par les gouvernements ou les entreprises – à des fins dont ils n’ont pas connaissance. A ce rythme, nous sommes sur la voie de l’élimination de tout endroit où les citoyens ne sont pas surveillés, prévient David Paris de l’organisation australienne Digital Rights Watch.

Contrairement au pouvoir que nous avons sur nos données personnelles en ligne, il n’existe « aucun paramètre de confidentialité pour se promener dans la rue ou naviguer dans un centre commercial ». Et vous ne pouvez pas effacer votre visage », explique Paris. Le fait que la technologie de reconnaissance faciale enregistre notre visage signifie que son utilisation soumet les personnes honnêtes à une « file d’attente perpétuelle » qui nie le principe démocratique fondamental de la présomption d’innocence, et l’exigence connexe de suspicion raisonnable de culpabilité que les autorités compétentes doivent généralement prouver pour obtenir un mandat de surveillance.

À cet égard, la technologie de reconnaissance faciale modifie la nature de la démocratie. Pendant ce temps, l’action gouvernementale visant à susciter le débat et la discussion sur l’éthique et les implications de son utilisation a été inégale et figée dans le monde entier. À moins que les entreprises n’adoptent un moratoire volontaire sur le développement et la vente de la technologie de reconnaissance faciale, les mesures prises sont essentiellement des mesures de rattrapage alors que la technologie continue de proliférer – et comme le souligne l’ACLU de Californie du Nord, « une fois que de puissants systèmes de surveillance comme ceux-ci auront été construits et déployés, il sera extrêmement difficile de réparer les dégâts ».

Préjudices passés, menaces futures

Outre l’empiètement sur la vie privée et l’atteinte aux principes démocratiques, les préjudices réels et potentiels de la technologie de reconnaissance faciale sont multiples : des préjugés et de la discrimination aux abus des gouvernements et des mauvais acteurs. Selon Kate Crawford, co-directrice d’AI Now, « ces outils sont dangereux lorsqu’ils échouent et nocifs lorsqu’ils fonctionnent ». En ce qui concerne les dangers des biais algorithmiques, de nombreuses études ont prouvé que, bien que la technologie de reconnaissance faciale soit très précise lorsqu’il s’agit d’identifier les hommes blancs (un taux d’erreur d’identification de 1%, selon une étude du MIT), Microsoft, IBM et Face++, se sont avérés plus susceptibles de mal identifier les personnes transgenres et non binaires, ainsi que les personnes de couleur, et en particulier les femmes de couleur.

Les systèmes de reconnaissance faciale sont racistes

En 2018, l’ACLU a mis en évidence ce problème en utilisant Amazon Rekognition pour comparer les membres du Congrès avec une base de données de 25 000 photos de criminels. L’expérience a donné lieu à un nombre disproportionné de fausses correspondances pour les membres du Congrès de couleur – 40 %, alors que les personnes de couleur ne représentent que 20 % des membres du Congrès. Comme l’a écrit Joy Buolamwini, fondatrice de la Ligue pour la justice algorithmique – qui sensibilise et lutte contre les préjugés et la discrimination dans les technologies – « celui qui code le système intègre ses opinions ». Selon le projet The Perpetual Line Up de la faculté de droit de Georgetown, cela est aggravé par le fait que « les taux d’arrestation disproportionnés, les systèmes qui s’appuient sur des bases de données de photos de suspects incluent probablement un nombre disproportionné d’Afro-Américains ». Comme pour beaucoup d’autres formes d’intelligence artificielle, l’effet anormalement négatif que la technologie a sur les Afro-Américains et les autres communautés de couleur ne fait que s’accentuer à mesure que l’adoption de la technologie progresse avec un minimum de responsabilité.

Aux États-Unis, les forces de l’ordre ont une longue tradition – et généralement acceptée – de glaner des données biométriques, telles que les empreintes digitales et l’ADN, sur les suspects. Mais la reconnaissance faciale permet aux forces de police d’accéder aux données biométriques de milliers de personnes qui ne sont pas des suspects criminels – le tout sans contrôle du Congrès ou de la justice. En juillet 2019, le Washington Post a révélé que le FBI et l’Immigration and Customs Enforcement (ICE) avaient tous deux scanné des permis de conduire pour créer des bases de données étendues, qui ont ensuite été utilisées pour rechercher des suspects dans des crimes de moindre importance comme les petits larcins. Le potentiel d’abus de ces systèmes est élevé – et ils ont été exploités. Comme l’a révélé un rapport du Georgetown Law’s Center on Privacy and Technology, la police de New York s’est livrée à des abus généralisés de son système de reconnaissance faciale, notamment en modifiant des images et en téléchargeant un portrait de célébrité dans sa base de données de photos afin d’appréhender un homme décrit par un témoin comme ressemblant à cette célébrité. Son crime a été de voler une bière.

Comme l’affirme l’ACLU, la technologie de reconnaissance faciale « représente une menace particulière pour les communautés déjà injustement ciblées dans le climat politique actuel ». Les systèmes de reconnaissance faciale développés par les technologies controversées de Palantir ont été utilisés par les forces de police américaines comme un puissant outil de surveillance dans la guerre du président Trump contre l’immigration, utilisé pour identifier les immigrants sans papiers à des fins d’expulsion et de poursuites. Cela s’ajoute à ce que nous savons maintenant de la base de données d’images gargantuesques et des incroyables capacités de Clearview AI et de son partenariat avec les forces de l’ordre américaines.

En Chine, où la quasi-totalité des 1,4 milliard de citoyens du pays sont inclus dans les bases de données de technologie de reconnaissance faciale, le parti communiste chinois utilise cette technologie pour suivre ceux qu’il considère comme une menace pour son régime. Elle a notamment été utilisée pour surveiller la population musulmane ouïghoure dans la région du Xinjiang. Les fabricants chinois de technologie de reconnaissance faciale exportent leurs développements plus loin. En 2018, la start-up CloudWalk, basée à Guangzhou, a reçu 301 millions de dollars de l’État pour établir un programme de technologie de reconnaissance faciale de masse au Zimbabwe – un pays dans lequel la Chine a beaucoup investi – au nom de la résolution des problèmes de sécurité publique.

Les systèmes de technologie de reconnaissance faciale ont leurs propres problèmes de sécurité – des problèmes qui ont de graves implications, étant donné que les visages, contrairement aux mots de passe, ne peuvent pas être modifiés sans recourir à la chirurgie plastique. Début 2019, le chercheur en sécurité Victor Gevers a découvert que l’une des bases de données utilisées par le gouvernement chinois pour traquer les Ouïghours, appartenant à une société appelée SenseNets, était restée ouverte sur Internet pendant des mois. Gevers a déclaré : « Cette base de données contient plus de 2.565.724 enregistrements de personnes avec des informations personnelles telles que le numéro de carte d’identité, la date de délivrance et d’expiration, le sexe, la nation, l’adresse, l’anniversaire, la photo d’identité, l’employeur et les endroits où elles sont passées au cours des dernières 24 heures avec des traqueurs ». Quelques mois plus tard, l’Agence américaine des douanes et des frontières a révélé que sa base de données contenant des photos de voyageurs et de plaques d’immatriculation – qui avait été gérée par un sous-traitant, Perceptics, avait été piratée. S’adressant à Fast Company à ce sujet, David Maass, de l’Electronic Frontier Foundation, a déclaré que le gouvernement américain aurait dû être en mesure de prévoir le piratage, « étant donné que le système biométrique de l’Inde avait été piraté juste un an plus tôt ». Selon Maass, le piratage a mis en évidence la crainte que la sécurité des bases de données de la technologie de reconnaissance faciale ne soit pas suffisamment réglementée. « Nous avons également vu les autorités compétentes accorder leur confiance aux fournisseurs, pour lesquels la sécurité publique et la cybersécurité ne sont pas nécessairement des préoccupations majeures », a-t-il déclaré.

Où sont les régulateurs ?

Les problèmes de biais, d’abus et de failles de sécurité décrits ci-dessus ont proliféré en l’absence de réglementation gouvernementale fédérale, nationale ou supranationale – ce qui a permis à la technologie de reconnaissance faciale de fonctionner sans les contraintes de transparence, de proportionnalité ou de responsabilité démocratique. Cela signifie que la réglementation de la technologie et des bases de données photographiques qu’elle traite a été largement laissée à des sociétés privées (Amazon propose son propre cadre réglementaire que la société espère voir adopter par les législateurs, par exemple), alimenté par des incitations commerciales, ou des services de police sans encadrement indépendant. « Nous avons sauté quelques étapes fondamentales du débat », a déclaré Silkie Carlo, du groupe de défense de la vie privée Big Brother Watch, au New York Times. « Les décideurs politiques sont arrivés très tard dans la discussion et ne comprennent pas pleinement les implications et la vue d’ensemble ». Dans le monde entier, l’opinion publique sur la question varie. Alors qu’en Chine – selon l’Académie chinoise des sciences – 83 % de la population approuve le « bon usage » de la reconnaissance faciale, dirigée par le gouvernement, ce chiffre tombe à 56 % aux États-Unis, selon le Pew Research Center.

Au Royaume-Uni, une enquête menée en 2019 par l’Institut Ada Lovelace a révélé que 76 % sont contre l’utilisation de la technologie de reconnaissance faciale par les entreprises à des fins commerciales, comme dans les centres commerciaux, et que 55 % des Britanniques souhaitent que le gouvernement réglemente l’utilisation de la technologie de reconnaissance faciale dans les services de police. Les forces de police du Royaume-Uni ont testé cette technologie au cours des dernières années, notamment pour la surveillance de manifestations pacifiques – un cas d’utilisation que la Haute Cour de Londres a approuvé comme étant conforme aux lois sur les droits de l’homme et la protection des données en septembre 2019. Pourtant, comme le souligne le rapport 2019 du London Policing Ethics Panel sur la reconnaissance faciale en temps réel, la technologie de reconnaissance faciale a un effet dissuasif sur les droits de réunion et de parole. 38 % des 16-24 ans ont déclaré qu’ils seraient plus enclins à se tenir à l’écart des événements surveillés par la police à l’aide de la technologie de reconnaissance faciale. « Les gens craignent la normalisation de la surveillance, mais sont plus enclins à l’accepter lorsqu’ils voient un intérêt public s’exprimer », a déclaré Olivia Varley-Winter, de l’Institut Ada Lovelace, à The Privacy Issue. « S’il existe un risque de sécurité défini, les gens ont tendance à accepter davantage son utilisation. Il s’agit d’avoir le choix, et la possibilité de s’en écarter. La connaissance de la technologie est très faible. Il n’y a pas eu de sensibilisation proactive – nous commençons tout juste à avoir ce débat dans les médias. Nous avons besoin d’un dialogue qui ne soit pas seulement le fait des personnes qui veulent voir la technologie de reconnaissance faciale utilisée », a-t-elle déclaré.

Dans le monde entier, la demande de dialogue et d’action se fait chaque jour plus forte : le public, les défenseurs de la vie privée et les organisations de défense des droits civils, les universitaires, les politiciens et même certaines forces de police ont exprimé leur résistance à l’utilisation incontrôlée de la technologie de reconnaissance faciale à des fins policières et commerciales. Certaines collectivités locales aux États-Unis en tiennent compte. La Californie et le Massachusetts connaissent un élan croissant – au moment de la publication, San Francisco, Oakland et Berkeley, ainsi que Somerville, Brookline et Cambridge, ont tous interdit l’utilisation de la technologie de reconnaissance faciale par leurs administrations locales, y compris dans la police. Mutale Nkonde, conseiller politique de Data and Society AI, s’attend à ce que le débat et l’action au niveau des gouvernements locaux continuent à se développer. Dans de nombreux États, la législation Community Control Our Police Surveillance (CCOPS) est en cours d’adoption par les municipalités afin de responsabiliser la police quant à l’utilisation de cette technologie. Des villes américaines comme Portland et Cambridge débattent de l’interdiction de l’utilisation de la technologie de reconnaissance faciale par le secteur privé, et quarante des plus grands festivals de musique du monde se sont engagés à ne pas utiliser la technologie de reconnaissance faciale.

Faire face à l’intelligence artificielle : Un appel à l’action

En attendant qu’une législation nationale sur la technologie de reconnaissance faciale soit rigoureusement débattue et rédigée, les appels à l’arrêt de l’utilisation de la technologie de reconnaissance faciale prennent de l’ampleur dans tous les secteurs. La Commission européenne envisage d’interdire la reconnaissance faciale dans les lieux publics pour une période allant jusqu’à cinq ans, selon un projet de livre blanc de 2020. Aux États-Unis, une coalition de 30 organisations de la société civile, représentant 15 millions de membres, demande une interdiction nationale de l’utilisation de la technologie de reconnaissance faciale par les forces de l’ordre. Pourtant, Varley-Winter soutient que « les interdictions catégoriques risquent d’être des approches réactionnaires, des solutions provisoires. Afin de prévenir cette éventualité, l’Institut Ada Lovelace appelle à un moratoire comme approche plus prospective de la réglementation qui permet une considération et une délibération proportionnées », a-t-elle déclaré à The Privacy Issue. « S’il existe des moyens de faire fonctionner la technologie de reconnaissance faciale pour les personnes et la société, il est important que nous découvrions ce qu’ils sont – mais l’industrie, les décideurs politiques et la société en général ont besoin de temps pour le faire d’une manière inclusive et réfléchie ».

Varley-Winter souligne que la mise en place par l’Écosse d’un groupe consultatif indépendant sur l’utilisation des données biométriques en mai 2017 est un exemple positif de l’action gouvernementale en la matière. En mai 2019, le projet de loi sur les données biométriques a été présenté au Parlement écossais, dans le but de « garantir un contrôle indépendant de l’acquisition, de la conservation, de l’utilisation et de l’élimination des données biométriques existantes, émergentes et futures dans le contexte de la justice pénale en Ecosse », a-t-elle déclaré. « Le projet de loi créerait un nouveau commissaire écossais à la biométrie, avec un accent particulier sur les considérations éthiques et les droits de l’homme découlant de l’utilisation des données biométriques, et sur la maximisation des avantages des technologies biométriques ». Varley-Winter a ajouté que l’approche consistant à établir un processus d’examen indépendant centré sur les droits de l’homme est un « modèle prometteur que d’autres gouvernements pourraient envisager ».

Aux États-Unis, Kate Crawford, de l’AI Now Institutes, a également appelé à un moratoire volontaire sur l’utilisation de la technologie de reconnaissance faciale, exhortant ses fabricants à suivre les traces d’Axon, « le premier fournisseur mondial de caméras de surveillance des corps de police », qui, en 2019, a cessé de vendre aux forces de police des caméras équipées de la technologie de reconnaissance faciale, en raison du risque qu’elle puisse « exacerber les inégalités existantes dans le maintien de l’ordre, par exemple en pénalisant les communautés noires ou LGBTQ ». Dans un éditorial pour Nature, elle cite quatre principes que l’Institut AI Now a développés pour un cadre de travail potentiel : (1) une interdiction de financement ou de déploiement des systèmes de reconnaissance faciale tant qu’ils n’ont pas été approuvés et que de solides protections juridiques n’ont pas été mises en place ; (2) une législation exigeant la participation du public avant leur utilisation, ainsi que des examens rigoureux de la technologie de reconnaissance faciale pour des raisons de partialité, de respect de la vie privée et de droits civils ; (3) une dérogation du gouvernement aux restrictions sur la recherche ou la surveillance des systèmes de reconnaissance faciale ; et (4) une plus grande protection des employés des entreprises technologiques en matière de dénonciation. Au Royaume-Uni, le projet de loi sur la technologie de reconnaissance faciale automatisée, rédigé par la commission spéciale de la Chambre des Lords sur l’intelligence artificielle à la fin de 2019, est en cours d’examen au Parlement au moment de sa publication.

Sur la base des recommandations ci-dessus – et en tenant compte des sept exigences clés du groupe d’experts de haut niveau de l’Union européenne sur l’IA pour une IA digne de confiance – la question du respect de la vie privée appelle ce qui suit :

1. Que les gouvernements mènent une vaste consultation publique et un débat sur l’utilisation de la technologie de reconnaissance faciale, en veillant à ce qu’un large éventail de voix aient la possibilité d’être entendues et soient prises en compte ;

2. Sur la base de ce processus de consultation publique, que les législateurs donnent la priorité à l’adoption d’une législation réglementant l’utilisation de la technologie de reconnaissance faciale dans les secteurs privé et public, notamment :

– Que l’utilisation de la technologie de reconnaissance faciale par la police soit strictement conforme aux principes de transparence et de proportionnalité ;
– Que l’utilisation de la technologie de reconnaissance faciale soit régulièrement vérifiée par un commissaire ou un conseil de surveillance indépendant ;
– que les personnes soient clairement et suffisamment informées avant d’être soumises à la technologie de reconnaissance faciale et qu’elles soient par conséquent en mesure de donner leur consentement ou, à défaut, de le révoquer ;
– Que des recherches indépendantes soient menées sur le biais algorithmique et ses effets sur les communautés vulnérables ; et

3. Qu’un moratoire volontaire sur la vente et l’achat de la technologie de reconnaissance faciale par les entreprises qui participent à son développement et à son utilisation, soit instauré jusqu’à ce qu’une telle réglementation soit adoptée – comme l’a demandé l’ACLU Massachusetts, parmi d’autres acteurs de la société civile.

Dans un article du Financial Times, la directrice de l’Institut Ada Lovelace, Carly Kind, cite l’exemple de la manière dont un moratoire réussi a empêché la discrimination et l’exploitation dans le secteur des assurances en Grande-Bretagne. En 1998, les assureurs britanniques ont volontairement mis en place une interdiction de deux ans sur l’utilisation des tests génétiques pour les polices d’assurance santé ou d’assurance vie, dont les futurs propriétaires de maison ont besoin pour obtenir un prêt hypothécaire au Royaume-Uni. En raison d’une lacune dans la loi, il aurait été légal pour les compagnies d’assurance d’obliger leurs clients à partager les résultats des tests génétiques, qu’ils auraient ensuite pu utiliser pour augmenter les primes ou refuser la couverture. Au lieu de cela, l’Association des assureurs britanniques a adopté un moratoire, qui a été prolongé et finalement officialisé dans un accord officiel avec le gouvernement, liant 97 % du secteur.

Bien que le rythme du débat public et de l’élaboration des lois puisse toujours être en retard sur la vitesse inhérente au développement des nouvelles technologies, l’exemple du moratoire volontaire des assureurs britanniques est la preuve que des changements radicaux dans le secteur peuvent être mis en œuvre efficacement pour prévenir les violations des droits et limiter les préjudices potentiels. Étant donné l’échelle mondiale et le rythme de développement de la technologie de reconnaissance faciale, l’appel à l’action est plus que jamais d’actualité. Cependant, face à une technologie qui prolifère rapidement et qui non seulement érode la démocratie et les libertés civiles, mais qui est aussi régulièrement utilisée comme arme contre les communautés vulnérables, il ne faut rien de moins qu’une action réglementaire audacieuse.

L’article est soumis à une licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Pas de Modification 4.0 International (CC BY-NC-ND 4.0)

The Privacy Issue

2 Comments »

Quitter la version mobile
%%footer%%