HOLD-UP le documentaire censuré en version intégrale

affiche-film-hold-up-full-scaled
https://tprod.fr/project/hold-up/

La pandémie de la Covid-19 a donné lieu à des échanges contradictoires entre médecins, spécialistes, professeurs, hommes politiques et experts, le tout orchestré et alimenté par le feu nourri des médias. Les scientifiques se sont ainsi retrouvés discrédités avec notamment l’affaire du Lancet. Le Conseil scientifique, censé piloter cette pandémie, est ouvertement accusé d’incompétence et d’arrogance, preuves à l’appui. Et nous dans tout ça ? Que penser ? Que faire avec toutes ces informations ? Qui croire ?

Ce sont les questions auxquelles le documentaire HOLD-UP tente de répondre en partant à la rencontre de soignants, chercheurs, experts, juristes offrant une autre lecture sur cette crise sans précédent et dénonçant une batterie de mesures gouvernementales jugées inefficaces pour la plupart.

La censure n’a pas sa place ici, nous assumons de publier ce documentaire qui permet de s’interroger et de se poser les bonnes questions. Ce documentaire montre également les enjeux et ce qui se joue ici et maintenant : Quel sera le monde après la COVID-19 ? Dans quel monde voulez-vous vivre demain ?

Nous nous dirigeons vers un bouleversement systémique du monde d’un ancien monde vers un monde nouveau, provenant de la combinaison d’une nouvelle révolution techno-scientifique. Un monde digital, mondialisé, aux connexions ultra rapides. Les technologies qui sont d’un intérêt particulier pour les transhumanistes comme l’intelligence artificielle, associées aux données de masse (big data), la biométrie (reconnaissance de l’iris, reconnaissance vocale, reconnaissance du réseau veineux, reconnaissance faciale), l’IoT, les nanotechnologies, la robotique, la blockchain, la cryptomonnaie…. préparent la quatrième révolution industrielle à l’aube du Grand Reset.

Cela fera bientôt 6 ans que nous publions sur ces technologies perturbatrices. La plupart des gens le prennent à la légère puisqu’ils pensent que cela ne les affecte pas, mais la vérité est toute autre. Ces technologies anéantissent totalement les marchés existants et les remplacent par de nouveaux, plus avancés technologiquement. Les gens semblent encore être totalement inconscients des dangers qui les attendent. La technologie de reconnaissance faciale est hors de contrôle et les implications sont profondes. Vous pensez sérieusement que le cybercontrôle en Chine et l’omni-surveillance de sa population pour écraser la dissidence restera en Chine ?

La pandémie COVID-19 a redéfini et reconfiguré la nature et la condition humaine.

Klaus Schwab du WEF a promu le Great Reset comme un moyen de “maîtriser la quatrième révolution industrielle”, un terme qu’il a inventé et qui, a-t-il déclaré en janvier 2016, “affectera l’essence même de notre expérience humaine”.

“The theme of the World Economic Forum Annual Meeting 2016 in Davos is Mastering the Fourth Industrial Revolution. The Fourth Industrial Revolution will bring change at a speed, scale and force unlike anything we’ve seen before. It will affect the very essence of our human experience”.

Schwab a alors décrit la quatrième révolution industrielle comme “une fusion des technologies qui brouille les lignes entre les sphères physique, numérique et biologique”.

Donc, on vous le rappelle, ces technologies comprennent le génie génétique comme l’édition du génome avec CRISPR, l’intelligence artificielle, la robotique, l’Internet des objets (IoT), l’impression 3D, l’informatique quantique…ect.

La quatrième révolution industrielle n’est rien d’autre que la mise en œuvre du transhumanisme au niveau mondial.

Il y a deux mois, nous avons publié le rapport Kaspersky qui visait à clarifier les points de vue des citoyens de plusieurs pays sur la perspective du biohacking (transhumanisme). Et l’année dernière, le rapport Gatner sur les 10 principales tendances technologiques pour 2020 comprenant l’augmentation humaine (le transhumanisme).

Nous sommes à la croisée des chemins.

Vous avez le droit de vous interroger. Vous avez le droit de vous posez des questions. Vous avez le droit d’être intelligent. Vous êtes à même de comprendre, ne remettez pas en cause votre propre capacité de compréhension. C’est ce que nous avons essayer de faire ici depuis 6 ans, en publiant une information accessible au plus grand nombre tout en fournissant plusieurs pistes de réflexion.

Le Grand Reset et la quatrième révolution industrielle

Alors que l’intérêt pour les technologies de la quatrième révolution industrielle a connu un pic à la suite de la COVID-19, moins de 9 % des entreprises utilisent actuellement des technologies avancées telles que l’apprentissage machine, la robotique ou même les écrans tactiles. De quoi les entreprises ont-elles besoin pour accélérer l’adoption des technologies et comment peuvent-elles éviter les problèmes qui découlent d’un manque de gouvernance ?

pour augmenter le volume ↑

iHuman – L’intelligence artificielle et nous

L’intelligence artificielle va-t-elle remplacer l’humanité ?

Credit : https://upnorthfilm.no/film/ihuman/

Ce documentaire prend la mesure de l’emprise des algorithmes sur nos vies.

“La création d’une intelligence artificielle serait le plus grand événement de l’histoire de l’humanité. Mais il pourrait être aussi le dernier”, disait Stephen Hawking. Le célèbre cosmologiste avait prévu la croissance infinie de l’informatique mais partageait avec certains pionniers la crainte qu’elle ne devienne incontrôlable. Aujourd’hui, l’IA promet d’aider à guérir des maladies, de faire face aux changements climatiques ou de combattre la pauvreté. Mais elle menace aussi d’influer insidieusement sur nos comportements, de mettre à mal l’idée même de sphère privée ou d’aider les dictatures à asseoir leur pouvoir. En proie à une surveillance algorithmique, notre identité peut dorénavant se réduire… à des données.

Toute-puissance

L’IA sera vite dépassée. On parle aujourd’hui d’une intelligence artificielle générale (IAG), capable de s’adapter et d’apprendre seule, qui égalerait, voire dépasserait les capacités humaines. De quoi allécher les firmes qui font commerce des données numériques (les célèbres GAFAM). Le documentaire dresse l’état des lieux de l’IA en donnant la parole à ceux qui en débattent (sociologues, avocats des droits de l’homme, scientifiques ou journalistes d’investigation) mais aussi à ceux qui l’inventent, comme Jürgen Schmidhuber et Ilya Sutskever, deux grands chercheurs et initiateurs, à la posture ambivalente : conscients de la toute-puissance de leur création mais déterminés à poursuivre leurs travaux.


Source

Un système lit les ondes de votre cerveau

Un nouveau système d’interface neuronale directe représente une avancée importante dans l’interprétation de l’activité neurale des personnes.

Après avoir lu les ondes cérébrales de personnes à qui l’on avait demandé de se concentrer sur l’image d’une personne, un algorithme d’intelligence artificielle a généré des images basées sur les visages qu’elles regardaient, selon Psychology Today. Bien que cela ne signifie pas que les ordinateurs vont bientôt lire vos pensées, il s’agit d’une évolution importante de la technologie neuro-adaptative.

La recherche proprement dite, publiée dans la revue Nature Scientific Reports, a comporté un certain nombre d’étapes pour entraîner puis tester l’algorithme.

Tout d’abord, on a montré aux participants une série de visages et on leur a demandé de se concentrer sur ceux qui correspondent à un certain descriptif tout en portant un appareil qui analyse leurs ondes cérébrales, selon le document. Ces données cérébrales ont ensuite été utilisées pour entraîner l’algorithme sur les signaux correspondant à différentes caractéristiques, de sorte qu’au cours des tests, il puisse ensuite générer un nouveau visage qui corresponde à n’importe quel critère auquel un participant pensait sans le communiquer explicitement.

Les caractéristiques individuelles étaient assez générales, comme “jeune”, “sourire” et “masculin”, de sorte que le système n’interprétait pas une image faciale complète des participants, mais relevait plutôt une caractéristique spécifique, puis générait un nouveau visage qui correspondait au profil.

C’est une évolution fascinante des interfaces cerveau-ordinateur, car elle signifie que les machines peuvent désormais générer de toutes nouvelles informations – sous la forme d’un visage humain réaliste – à partir d’une simple pensée humaine.

Réglementation de la biométrie : Approches globales et questions urgentes

L’AI Now Institute a publié un recueil d’études de cas sur les approches réglementaires de la technologie de reconnaissance biométrique, les leçons tirées et les futures actions de sensibilisation

Dans un contexte de surveillance publique accrue, l’intérêt pour la réglementation des technologies biométriques telles que la reconnaissance faciale et vocale s’est considérablement accru dans le monde entier, sous l’impulsion de la recherche et de la défense des intérêts des communautés. Il se dégage de ce moment un sentiment croissant que des technologies comme la reconnaissance faciale ne sont pas inévitables, et peut-être même pas nécessaires ou utiles.

“Regulating Biometrics: Global approaches and urgent questions”, par Amba Kak, présente huit études de cas détaillées d’universitaires, avocats et experts politiques qui examinent les tentatives actuelles de réglementation des technologies biométriques et donnent un aperçu des promesses et des limites de ces approches. Dans quels domaines la réglementation est-elle capable de déterminer si et comment les technologies biométriques sont utilisées, et dans quels domaines est-elle insuffisante ? En examinant ces questions, ces auteurs experts éclairent les domaines d’engagement, de défense et de réglementation futurs.

Ces essais brossent un tableau du paysage mondial complexe de la réglementation de la biométrie, en mettant en évidence les nombreuses approches adoptées par les partisans de la biométrie, qui réclament un contrôle accru de ces technologies, ainsi que la manière dont les gouvernements ont utilisé la loi comme outil pour étendre ou consolider l’utilisation de la biométrie.

Projet de loi australien sur les services de rapprochement des identités (p.44)

Jake Goldenfein (Faculté de droit de Melbourne) et Monique Mann (Université Deakin) suivent les manœuvres institutionnelles et politiques qui ont conduit l’Australie à créer une grande base de données centralisée de reconnaissance faciale (“The Capability”) à l’usage de divers acteurs gouvernementaux. Ils examinent les échecs de la réglementation pour remettre en cause de manière significative la construction de ce système, voire pour façonner son architecture technique ou institutionnelle.

L’économie (et la pratique réglementaire) que la biométrie inspire : Une étude du projet Aadhaar (p.52)

Nayantara Ranganathan (avocate et chercheuse indépendante, Inde) explique comment le droit et la politique autour du projet indien d’identification biométrique (“Aadhaar”) ont finalement servi à construire des données biométriques comme ressource pour l’extraction de données de valeur par des entreprises privées. Elle explore comment la réglementation a été influencée par les logiques et les cultures du projet qu’elle cherchait à réglementer.

Une première tentative de réglementation des données biométriques dans l’Union européenne (p.62)

Els Kindt (KU Leuven) fournit un compte-rendu détaillé de l’approche du Règlement général sur la protection des données (RGPD) de l’Union européenne en matière de réglementation des données biométriques. Comme de nombreux pays sont sur le point de mettre en œuvre des lois nationales rédigées de manière similaire, elle identifie les lacunes potentielles et souligne les domaines clés pour la réforme.

Réflexion sur la politique biométrique du Comité international de la Croix-Rouge : Réduire au minimum les bases de données centralisées (p.70)

Ben Hayes (Agence AWO, conseiller juridique consultant auprès du Comité international de la Croix-Rouge [CICR]) et Massimo Marelli (chef du Bureau de la protection des données du CICR) expliquent le processus décisionnel du CICR pour formuler sa première politique en matière de biométrie, qui visait à éviter la création de bases de données et à minimiser les risques pour les populations vulnérables dans les contextes humanitaires.

Utilisation par la police de la reconnaissance faciale en live au Royaume-Uni (p.78)

Peter Fussey (Université d’Essex) et Daragh Murray (Université d’Essex), principaux auteurs de l’étude empirique indépendante du procès de la police métropolitaine de Londres sur la reconnaissance faciale en live (LFR-Live Facial Recognition), expliquent comment les normes juridiques et les outils de régulation existants n’ont pas réussi à empêcher la prolifération d’un système dont les effets néfastes ont été démontrés. Ils tirent ainsi des enseignements plus larges pour la réglementation de la LFR au Royaume-Uni et des technologies similaires ailleurs.

Une taxonomie des approches législatives pour la reconnaissance faciale aux États-Unis (p.86)

Jameson Spivack et Clare Garvie (Georgetown Center on Privacy and Technology) écrivent sur les dizaines de lois d’interdiction et de moratoires sur l’utilisation de la reconnaissance faciale par la police aux États-Unis, la plupart d’entre elles menées par des avocats et des organisations communautaires. Les auteurs fournissent une taxonomie détaillée qui va au-delà des grandes catégories d’interdiction et de moratoire, et réfléchissent aux leçons tirées de leur mise en œuvre.

BIPA : La plus importante loi biométrique sur la protection de la vie privée aux États-Unis ? (p.96)

Woodrow Hartzog (Northeastern University) explore les promesses et les pièges de la loi sur la confidentialité des informations biométriques (BIPA) de l’État de l’Illinois et, plus largement, du droit des particuliers à engager leurs propres actions contre des entreprises privées. Il s’interroge sur les limites inévitables d’une loi centrée sur le “consentement éclairé”, un système qui donne l’illusion d’un contrôle tout en justifiant des pratiques douteuses que les gens n’ont pas assez de temps ou de ressources pour comprendre et agir.

Réglementation biométrique ascendante : La réponse de la Communauté à l’utilisation de la surveillance faciale dans les écoles (p.104)

Stefanie Coyle (NYCLU) et Rashida Richardson (Rutgers Law School ; AI Now Institute, NYU) examinent la décision controversée d’un district scolaire de Lockport, New York, de mettre en place un système de reconnaissance faciale et d’objets pour surveiller les élèves. Elles mettent en lumière la réponse de la communauté qui a suscité un débat national et a conduit à une législation à l’échelle de l’État réglementant l’utilisation des technologies biométriques dans les écoles.

Lire le rapport complet (PDF)

Un projet de loi américain vise à interdire l’utilisation de la reconnaissance faciale par la police

Les législateurs américains ont présenté un projet de loi, The Facial Recognition and Biometric Technology Moratorium Act, qui interdirait l’utilisation de la technologie de reconnaissance faciale par les agences fédérales de maintien de l’ordre.

Plus précisément, il rendrait illégal pour toute agence fédérale ou tout fonctionnaire “d’acquérir, de posséder, d’accéder ou d’utiliser” la technologie de surveillance biométrique aux États-Unis. Il exigerait également que les services de police des États et des collectivités locales instaurent des interdictions similaires afin de pouvoir bénéficier d’un financement fédéral.

La proposition de loi est arrivée à un stade où l’utilisation de la technologie de reconnaissance faciale par la police fait l’objet d’une attention accrue dans le cadre des protestations qui ont suivi l’assassinat de George Floyd fin mai. Des études ont montré à plusieurs reprises que la technologie est moins précise pour les Noirs, et au début de cette semaine, le New York Times a rapporté qu’un homme noir innocent du Michigan avait été arrêté après avoir été mal identifié par un logiciel de reconnaissance faciale.

L’activisme fonctionne

La décision de restreindre l’utilisation de la technologie de reconnaissance faciale est en partie due à la pression exercée par les entreprises technologiques elles-mêmes, après avoir été soumises au lobbying des militants pendant des années.

Il y a deux semaines, Amazon a annoncé qu’elle imposerait un moratoire d’un an sur l’utilisation par la police de son système de reconnaissance faciale, Rekognition, après qu’IBM ait décidé de mettre fin à son système de reconnaissance faciale à usage général. Le lendemain, Microsoft a annoncé qu’il cesserait de vendre son système aux services de police jusqu’à ce que la loi fédérale réglemente la technologie.

Il appartient maintenant aux législateurs de décider s’ils peuvent obtenir un soutien suffisant pour l’adopter.

On en sait plus sur les algorithmes de Palantir

UCIPT, CNET, Fortune, MIT

BNP Paribas va lancer une CB biométrique en France

Selon Le Parisien, BNP Paribas devrait lancer une nouvelle carte bancaire biométrique incluant les technologies de Fingerprint Cards et Thales. Les détenteurs de cette carte n’auront plus besoin de taper leur code. La carte de paiement biométrique sera proposée aux détenteurs des cartes Premier ou Gold de la banque.

Jean-Marie Dragon, responsable monétique et paiements innovants chez BNP Paribas, a déclaré au Parisien qu’un premier lot de 10 000 à 15 000 cartes biométriques Visa Premier sera proposé cet automne. Le coût des cartes n’a pas été divulgué.

crédit: Le Parisien

D’autres banques française se lancent dans l’aventure de la carte bancaire biométrique : le Crédit Agricole Touraine et Poitou prévoit de lancer des cartes de paiement à empreintes digitales avant la fin de l’année et des tests sont toujours en cours à la Société Générale.

Les paiements par carte représentent 60 % de toutes les transactions en France selon l’Observatoire CB du Groupement Cartes bancaires, et la demande pour la technologie sans contact n’a fait qu’augmenter avec les inquiétudes concernant la transmission du COVID-19 à travers les surfaces partagées.

Johan Carlström, président du conseil d’administration et ancien PDG de Fingerprint Cards, a déclaré que le rapport Nilson prévoit que 29 milliards de cartes de paiement seront en circulation d’ici la fin 2023. Avec un délai de remplacement de deux à trois ans, cela signifie que le marché potentiel des cartes de paiement biométriques pourrait dépasser les 10 milliards par an, et Carlström affirme que la plupart, sinon la totalité, des cartes de paiement utiliseront la biométrie à terme.

Reconnaissance faciale : La crise de la vie privée

La technologie de reconnaissance faciale est hors de contrôle – et les implications sont profondes. Les autorités de réglementation doivent agir maintenant pour en réduire les effets néfastes.

Votre visage est ce qui vous rend unique. C’est ce qui vous donne votre apparence distincte, vous permet d’exprimer votre humeur, vos émotions et vos réactions, et vous permet de communiquer. Au cours des dernières décennies, votre visage est devenu un outil qui vous permet de faire beaucoup plus. Il peut déverrouiller votre téléphone, vous permettre d’embarquer dans un avion, de traverser les frontières et de payer votre café. Tout cela est dû à l’essor de la technologie de reconnaissance faciale, un type d’intelligence artificielle qui utilise un apprentissage approfondi (deep learning) pour quantifier les identificateurs uniques des visages individuels, qui sont ensuite analysés et comparés aux bases de données de photos. Bien que la technologie de reconnaissance faciale présente des avantages distincts – tels que la prévention de la criminalité et de la fraude, l’efficacité et la commodité – les risques qui accompagnent son utilisation généralisée signalent la fin de la vie privée telle que nous la connaissons. Pourtant, les gouvernements du monde entier ont été lents à lancer un débat public et à promulguer des réglementations relatives à son utilisation. Pendant ce temps, la technologie de reconnaissance faciale a proliféré tant dans le secteur public que dans le secteur privé, ce qui a entraîné la normalisation d’une surveillance constante et immuable qui est appelée à devenir le modèle par défaut pour notre avenir : un modèle dans lequel – sans une action urgente du gouvernement – notre capacité à nous déplacer dans la vie sans surveillance cessera d’exister.

Comment la technologie de reconnaissance faciale est-elle devenue courante ?

Autrefois sujet de fiction dystopique, la technologie de reconnaissance faciale en est venue à s’infiltrer dans la vie quotidienne du monde entier au cours de la dernière décennie. En Chine, le leader mondial de la technologie de reconnaissance faciale, ses objectifs vont de la mise en place de lunettes de reconnaissance faciale pour la police, au paiement avec le sourire, en passant par la capture des personnes qui jettent leurs déchets. En septembre 2019, l’autorité nationale indienne en matière d’identification, Aadhaar, a rendu obligatoire pour les fournisseurs de services de télécommunications de vérifier que 10 % de leurs clients utilisent la technologie de reconnaissance faciale, et en octobre 2019, le gouvernement français a annoncé son intention de l’utiliser dans un nouveau système national d’identification, Alicem. La Russie a installé cette technologie sur 5 000 caméras de vidéosurveillance à Moscou et expérimente un système de paiement par reconnaissance faciale dans les gares.

Aux États-Unis, la technologie de reconnaissance faciale est utilisée – et parfois abusivement – par les forces de l’ordre, les patrouilles frontalières et un nombre croissant des plus grands magasins du pays (dont Walmart et Target) au nom de la prévention des vols. Un article de Kashmir Hill paru en 2020 dans le New York Times a révélé un autre partenariat public-privé dans le domaine de la surveillance par reconnaissance faciale. Il décrit cette fois une société financée par Peter Thiel, Clearview AI, qui fait correspondre les visages des images téléchargées sur des “millions” de sites web, dont Facebook, Venmo et YouTube, à une base de données privée d’environ trois milliards de photos. L’intelligence artificielle que Clearview AI a développée une technologie qui peut également faire correspondre des visages par le biais de photos imparfaites, comme celles des caméras de surveillance. Un sergent de police a déclaré : “Une personne peut porter un chapeau ou des lunettes, ou il peut s’agir d’une photo de profil ou d’une vue partielle de son visage”. Clearview AI offre des services de reconnaissance faciale à près de 600 services de police américains et dispose d’une bibliothèque d’images sept fois plus importante que celle du FBI.

Au Royaume-Uni, la police métropolitaine de Londres et la police du sud du Pays de Galles ont procédé à des essais de technologie de reconnaissance faciale lors de matchs sportifs et pour surveiller les manifestations pacifiques. Cette dernière instance, malgré une opposition véhémente et une inexactitude avérée, a été confirmée comme constitutionnelle par la Haute Cour en septembre 2019. À Londres (la deuxième ville la plus surveillée au monde après Pékin, avec environ 420 000 caméras de vidéosurveillance qui sont de plus en plus modernisées pour inclure des capacités de technologie de reconnaissance faciale), les promoteurs immobiliers l’ont utilisé pour surveiller les personnes qui marchent dans King’s Cross et les faire correspondre aux bases de données fournies par la police, bien que cette pratique ait maintenant été abandonnée. Cette technologie est même utilisée pour déterminer qui sera le prochain à servir dans un bar londonien, et des supermarchés, dont Tesco et Sainsbury’s, se préparent à l’utiliser pour vérifier l’âge des clients. Partout où nous allons, la technologie de reconnaissance faciale apparaît dans la paume de nos mains, de l’option “tagger un ami” de Facebook à la fonction de déverrouillage de l’iPhone d’Apple. On prévoit que 64 % des smartphones utiliseront cette technologie en 2020. Tout cela représente une industrie mondiale d’un milliard de dollars – une industrie qui devrait passer de 3,2 milliards de dollars en 2019 à 7 milliards de dollars d’ici 2024.

La demande intersectorielle en matière de technologie de reconnaissance faciale connaît une courbe ascendante exponentielle dans le monde entier. Les facteurs qui alimentent cette croissance ininterrompue sont au nombre de trois. Premièrement, à l’exception d’une poignée de villes aux États-Unis, la technologie de reconnaissance faciale est actuellement soumise à très peu de réglementations, et dépourvue de normes applicables à l’ensemble du secteur. Deuxièmement, les systèmes de suivi de la technologie de reconnaissance faciale sont bon marché (moins de 100 dollars) et facilement accessibles “à toute personne disposant d’une connexion internet et d’une carte de crédit”, comme l’a prouvé une expérience du New York Times en avril 2019. Troisièmement, l’intelligence artificielle qui sous-tend la technologie de reconnaissance faciale est intelligente et apprend à un rythme de plus en plus rapide. La capacité des logiciels de technologie de reconnaissance faciale à analyser des images de mauvaise qualité (seulement un mégapixel) est due à l’apprentissage profond (deep learning), un type d’IA qui imite le fonctionnement du cerveau humain pour traiter de vastes ensembles de données par le biais de réseaux neuronaux artificiels.

Le progrès des algorithmes de la technologie de reconnaissance faciale repose sur l’accumulation de photos de visages de personnes, qui sont rassemblées dans de vastes bases de données. Ces bases de données sont construites à partir d’une série de sources qui varient en fonction de qui les utilise et dans quel but. Certaines sont compilées à partir de listes de surveillance de la police ou de délinquants connus. D’autres proviennent de personnes qui téléchargent des photos sur des plateformes ou des applications. C’est le cas de la fonction “tagger un ami” de Facebook, qui est utilisée pour former l’algorithme de reconnaissance faciale de l’entreprise, ainsi que des applications de stockage de photos comme Ever. D’autres, comme Labeled Faces in the Wild ou MegaFace, sont composées de photos qui sont récupérées sur Internet sans le consentement ou même à l’insu de ceux qu’elles représentent. Les universitaires et les entreprises privées utilisent ces bases de données ouvertes pour former les algorithmes qui sous-tendent la technologie de reconnaissance faciale. Presque toutes les grandes entreprises technologiques développent leur propre système : Facebook a DeepFace, Google a FaceNet, et Amazon a Rekognition, pour n’en citer que quelques-uns. Chacune investit massivement dans ce que le directeur général de Microsoft, Satya Nadella, a appelé la “course vers le bas” pour développer les systèmes technologiques de reconnaissance faciale les plus puissants à vendre aux gouvernements, qui les déploient à des fins de contrôle et de surveillance.

La menace ultime pour la vie privée

Alors que de nombreuses sociétés se sont habituées à des mécanismes de surveillance comme la vidéosurveillance et autres caméras dans les espaces publics, les lecteurs de plaques d’immatriculation automatisés, les sonnettes équipées de caméras et les drones, la reconnaissance faciale marque une atteinte beaucoup plus profonde à la vie privée, en raison de sa capacité à identifier en temps réel des faits psychiques uniques sur les individus. En automatisant la surveillance de masse de manière à – comme l’écrivent Woodrow Hartzog et Evan Selinger dans un éditorial du New Yorker – “surmonter les contraintes biologiques sur le nombre d’individus que chacun peut reconnaître en temps réel”, elle prive les citoyens de la liberté de se promener dans les rues, à travers les villes, autour des supermarchés et dans les pôles de transport sans être surveillés par les gouvernements ou les entreprises – à des fins dont ils n’ont pas connaissance. A ce rythme, nous sommes sur la voie de l’élimination de tout endroit où les citoyens ne sont pas surveillés, prévient David Paris de l’organisation australienne Digital Rights Watch.

Contrairement au pouvoir que nous avons sur nos données personnelles en ligne, il n’existe “aucun paramètre de confidentialité pour se promener dans la rue ou naviguer dans un centre commercial”. Et vous ne pouvez pas effacer votre visage”, explique Paris. Le fait que la technologie de reconnaissance faciale enregistre notre visage signifie que son utilisation soumet les personnes honnêtes à une “file d’attente perpétuelle” qui nie le principe démocratique fondamental de la présomption d’innocence, et l’exigence connexe de suspicion raisonnable de culpabilité que les autorités compétentes doivent généralement prouver pour obtenir un mandat de surveillance.

À cet égard, la technologie de reconnaissance faciale modifie la nature de la démocratie. Pendant ce temps, l’action gouvernementale visant à susciter le débat et la discussion sur l’éthique et les implications de son utilisation a été inégale et figée dans le monde entier. À moins que les entreprises n’adoptent un moratoire volontaire sur le développement et la vente de la technologie de reconnaissance faciale, les mesures prises sont essentiellement des mesures de rattrapage alors que la technologie continue de proliférer – et comme le souligne l’ACLU de Californie du Nord, “une fois que de puissants systèmes de surveillance comme ceux-ci auront été construits et déployés, il sera extrêmement difficile de réparer les dégâts”.

Préjudices passés, menaces futures

Outre l’empiètement sur la vie privée et l’atteinte aux principes démocratiques, les préjudices réels et potentiels de la technologie de reconnaissance faciale sont multiples : des préjugés et de la discrimination aux abus des gouvernements et des mauvais acteurs. Selon Kate Crawford, co-directrice d’AI Now, “ces outils sont dangereux lorsqu’ils échouent et nocifs lorsqu’ils fonctionnent”. En ce qui concerne les dangers des biais algorithmiques, de nombreuses études ont prouvé que, bien que la technologie de reconnaissance faciale soit très précise lorsqu’il s’agit d’identifier les hommes blancs (un taux d’erreur d’identification de 1%, selon une étude du MIT), Microsoft, IBM et Face++, se sont avérés plus susceptibles de mal identifier les personnes transgenres et non binaires, ainsi que les personnes de couleur, et en particulier les femmes de couleur.

Les systèmes de reconnaissance faciale sont racistes

En 2018, l’ACLU a mis en évidence ce problème en utilisant Amazon Rekognition pour comparer les membres du Congrès avec une base de données de 25 000 photos de criminels. L’expérience a donné lieu à un nombre disproportionné de fausses correspondances pour les membres du Congrès de couleur – 40 %, alors que les personnes de couleur ne représentent que 20 % des membres du Congrès. Comme l’a écrit Joy Buolamwini, fondatrice de la Ligue pour la justice algorithmique – qui sensibilise et lutte contre les préjugés et la discrimination dans les technologies – “celui qui code le système intègre ses opinions”. Selon le projet The Perpetual Line Up de la faculté de droit de Georgetown, cela est aggravé par le fait que “les taux d’arrestation disproportionnés, les systèmes qui s’appuient sur des bases de données de photos de suspects incluent probablement un nombre disproportionné d’Afro-Américains”. Comme pour beaucoup d’autres formes d’intelligence artificielle, l’effet anormalement négatif que la technologie a sur les Afro-Américains et les autres communautés de couleur ne fait que s’accentuer à mesure que l’adoption de la technologie progresse avec un minimum de responsabilité.

Aux États-Unis, les forces de l’ordre ont une longue tradition – et généralement acceptée – de glaner des données biométriques, telles que les empreintes digitales et l’ADN, sur les suspects. Mais la reconnaissance faciale permet aux forces de police d’accéder aux données biométriques de milliers de personnes qui ne sont pas des suspects criminels – le tout sans contrôle du Congrès ou de la justice. En juillet 2019, le Washington Post a révélé que le FBI et l’Immigration and Customs Enforcement (ICE) avaient tous deux scanné des permis de conduire pour créer des bases de données étendues, qui ont ensuite été utilisées pour rechercher des suspects dans des crimes de moindre importance comme les petits larcins. Le potentiel d’abus de ces systèmes est élevé – et ils ont été exploités. Comme l’a révélé un rapport du Georgetown Law’s Center on Privacy and Technology, la police de New York s’est livrée à des abus généralisés de son système de reconnaissance faciale, notamment en modifiant des images et en téléchargeant un portrait de célébrité dans sa base de données de photos afin d’appréhender un homme décrit par un témoin comme ressemblant à cette célébrité. Son crime a été de voler une bière.

Comme l’affirme l’ACLU, la technologie de reconnaissance faciale “représente une menace particulière pour les communautés déjà injustement ciblées dans le climat politique actuel”. Les systèmes de reconnaissance faciale développés par les technologies controversées de Palantir ont été utilisés par les forces de police américaines comme un puissant outil de surveillance dans la guerre du président Trump contre l’immigration, utilisé pour identifier les immigrants sans papiers à des fins d’expulsion et de poursuites. Cela s’ajoute à ce que nous savons maintenant de la base de données d’images gargantuesques et des incroyables capacités de Clearview AI et de son partenariat avec les forces de l’ordre américaines.

En Chine, où la quasi-totalité des 1,4 milliard de citoyens du pays sont inclus dans les bases de données de technologie de reconnaissance faciale, le parti communiste chinois utilise cette technologie pour suivre ceux qu’il considère comme une menace pour son régime. Elle a notamment été utilisée pour surveiller la population musulmane ouïghoure dans la région du Xinjiang. Les fabricants chinois de technologie de reconnaissance faciale exportent leurs développements plus loin. En 2018, la start-up CloudWalk, basée à Guangzhou, a reçu 301 millions de dollars de l’État pour établir un programme de technologie de reconnaissance faciale de masse au Zimbabwe – un pays dans lequel la Chine a beaucoup investi – au nom de la résolution des problèmes de sécurité publique.

Les systèmes de technologie de reconnaissance faciale ont leurs propres problèmes de sécurité – des problèmes qui ont de graves implications, étant donné que les visages, contrairement aux mots de passe, ne peuvent pas être modifiés sans recourir à la chirurgie plastique. Début 2019, le chercheur en sécurité Victor Gevers a découvert que l’une des bases de données utilisées par le gouvernement chinois pour traquer les Ouïghours, appartenant à une société appelée SenseNets, était restée ouverte sur Internet pendant des mois. Gevers a déclaré : “Cette base de données contient plus de 2.565.724 enregistrements de personnes avec des informations personnelles telles que le numéro de carte d’identité, la date de délivrance et d’expiration, le sexe, la nation, l’adresse, l’anniversaire, la photo d’identité, l’employeur et les endroits où elles sont passées au cours des dernières 24 heures avec des traqueurs”. Quelques mois plus tard, l’Agence américaine des douanes et des frontières a révélé que sa base de données contenant des photos de voyageurs et de plaques d’immatriculation – qui avait été gérée par un sous-traitant, Perceptics, avait été piratée. S’adressant à Fast Company à ce sujet, David Maass, de l’Electronic Frontier Foundation, a déclaré que le gouvernement américain aurait dû être en mesure de prévoir le piratage, “étant donné que le système biométrique de l’Inde avait été piraté juste un an plus tôt”. Selon Maass, le piratage a mis en évidence la crainte que la sécurité des bases de données de la technologie de reconnaissance faciale ne soit pas suffisamment réglementée. “Nous avons également vu les autorités compétentes accorder leur confiance aux fournisseurs, pour lesquels la sécurité publique et la cybersécurité ne sont pas nécessairement des préoccupations majeures”, a-t-il déclaré.

Où sont les régulateurs ?

Les problèmes de biais, d’abus et de failles de sécurité décrits ci-dessus ont proliféré en l’absence de réglementation gouvernementale fédérale, nationale ou supranationale – ce qui a permis à la technologie de reconnaissance faciale de fonctionner sans les contraintes de transparence, de proportionnalité ou de responsabilité démocratique. Cela signifie que la réglementation de la technologie et des bases de données photographiques qu’elle traite a été largement laissée à des sociétés privées (Amazon propose son propre cadre réglementaire que la société espère voir adopter par les législateurs, par exemple), alimenté par des incitations commerciales, ou des services de police sans encadrement indépendant. “Nous avons sauté quelques étapes fondamentales du débat”, a déclaré Silkie Carlo, du groupe de défense de la vie privée Big Brother Watch, au New York Times. “Les décideurs politiques sont arrivés très tard dans la discussion et ne comprennent pas pleinement les implications et la vue d’ensemble”. Dans le monde entier, l’opinion publique sur la question varie. Alors qu’en Chine – selon l’Académie chinoise des sciences – 83 % de la population approuve le “bon usage” de la reconnaissance faciale, dirigée par le gouvernement, ce chiffre tombe à 56 % aux États-Unis, selon le Pew Research Center.

Au Royaume-Uni, une enquête menée en 2019 par l’Institut Ada Lovelace a révélé que 76 % sont contre l’utilisation de la technologie de reconnaissance faciale par les entreprises à des fins commerciales, comme dans les centres commerciaux, et que 55 % des Britanniques souhaitent que le gouvernement réglemente l’utilisation de la technologie de reconnaissance faciale dans les services de police. Les forces de police du Royaume-Uni ont testé cette technologie au cours des dernières années, notamment pour la surveillance de manifestations pacifiques – un cas d’utilisation que la Haute Cour de Londres a approuvé comme étant conforme aux lois sur les droits de l’homme et la protection des données en septembre 2019. Pourtant, comme le souligne le rapport 2019 du London Policing Ethics Panel sur la reconnaissance faciale en temps réel, la technologie de reconnaissance faciale a un effet dissuasif sur les droits de réunion et de parole. 38 % des 16-24 ans ont déclaré qu’ils seraient plus enclins à se tenir à l’écart des événements surveillés par la police à l’aide de la technologie de reconnaissance faciale. “Les gens craignent la normalisation de la surveillance, mais sont plus enclins à l’accepter lorsqu’ils voient un intérêt public s’exprimer”, a déclaré Olivia Varley-Winter, de l’Institut Ada Lovelace, à The Privacy Issue. “S’il existe un risque de sécurité défini, les gens ont tendance à accepter davantage son utilisation. Il s’agit d’avoir le choix, et la possibilité de s’en écarter. La connaissance de la technologie est très faible. Il n’y a pas eu de sensibilisation proactive – nous commençons tout juste à avoir ce débat dans les médias. Nous avons besoin d’un dialogue qui ne soit pas seulement le fait des personnes qui veulent voir la technologie de reconnaissance faciale utilisée”, a-t-elle déclaré.

Dans le monde entier, la demande de dialogue et d’action se fait chaque jour plus forte : le public, les défenseurs de la vie privée et les organisations de défense des droits civils, les universitaires, les politiciens et même certaines forces de police ont exprimé leur résistance à l’utilisation incontrôlée de la technologie de reconnaissance faciale à des fins policières et commerciales. Certaines collectivités locales aux États-Unis en tiennent compte. La Californie et le Massachusetts connaissent un élan croissant – au moment de la publication, San Francisco, Oakland et Berkeley, ainsi que Somerville, Brookline et Cambridge, ont tous interdit l’utilisation de la technologie de reconnaissance faciale par leurs administrations locales, y compris dans la police. Mutale Nkonde, conseiller politique de Data and Society AI, s’attend à ce que le débat et l’action au niveau des gouvernements locaux continuent à se développer. Dans de nombreux États, la législation Community Control Our Police Surveillance (CCOPS) est en cours d’adoption par les municipalités afin de responsabiliser la police quant à l’utilisation de cette technologie. Des villes américaines comme Portland et Cambridge débattent de l’interdiction de l’utilisation de la technologie de reconnaissance faciale par le secteur privé, et quarante des plus grands festivals de musique du monde se sont engagés à ne pas utiliser la technologie de reconnaissance faciale.

Faire face à l’intelligence artificielle : Un appel à l’action

En attendant qu’une législation nationale sur la technologie de reconnaissance faciale soit rigoureusement débattue et rédigée, les appels à l’arrêt de l’utilisation de la technologie de reconnaissance faciale prennent de l’ampleur dans tous les secteurs. La Commission européenne envisage d’interdire la reconnaissance faciale dans les lieux publics pour une période allant jusqu’à cinq ans, selon un projet de livre blanc de 2020. Aux États-Unis, une coalition de 30 organisations de la société civile, représentant 15 millions de membres, demande une interdiction nationale de l’utilisation de la technologie de reconnaissance faciale par les forces de l’ordre. Pourtant, Varley-Winter soutient que “les interdictions catégoriques risquent d’être des approches réactionnaires, des solutions provisoires. Afin de prévenir cette éventualité, l’Institut Ada Lovelace appelle à un moratoire comme approche plus prospective de la réglementation qui permet une considération et une délibération proportionnées”, a-t-elle déclaré à The Privacy Issue. “S’il existe des moyens de faire fonctionner la technologie de reconnaissance faciale pour les personnes et la société, il est important que nous découvrions ce qu’ils sont – mais l’industrie, les décideurs politiques et la société en général ont besoin de temps pour le faire d’une manière inclusive et réfléchie”.

Varley-Winter souligne que la mise en place par l’Écosse d’un groupe consultatif indépendant sur l’utilisation des données biométriques en mai 2017 est un exemple positif de l’action gouvernementale en la matière. En mai 2019, le projet de loi sur les données biométriques a été présenté au Parlement écossais, dans le but de “garantir un contrôle indépendant de l’acquisition, de la conservation, de l’utilisation et de l’élimination des données biométriques existantes, émergentes et futures dans le contexte de la justice pénale en Ecosse”, a-t-elle déclaré. “Le projet de loi créerait un nouveau commissaire écossais à la biométrie, avec un accent particulier sur les considérations éthiques et les droits de l’homme découlant de l’utilisation des données biométriques, et sur la maximisation des avantages des technologies biométriques”. Varley-Winter a ajouté que l’approche consistant à établir un processus d’examen indépendant centré sur les droits de l’homme est un “modèle prometteur que d’autres gouvernements pourraient envisager”.

Aux États-Unis, Kate Crawford, de l’AI Now Institutes, a également appelé à un moratoire volontaire sur l’utilisation de la technologie de reconnaissance faciale, exhortant ses fabricants à suivre les traces d’Axon, “le premier fournisseur mondial de caméras de surveillance des corps de police”, qui, en 2019, a cessé de vendre aux forces de police des caméras équipées de la technologie de reconnaissance faciale, en raison du risque qu’elle puisse “exacerber les inégalités existantes dans le maintien de l’ordre, par exemple en pénalisant les communautés noires ou LGBTQ”. Dans un éditorial pour Nature, elle cite quatre principes que l’Institut AI Now a développés pour un cadre de travail potentiel : (1) une interdiction de financement ou de déploiement des systèmes de reconnaissance faciale tant qu’ils n’ont pas été approuvés et que de solides protections juridiques n’ont pas été mises en place ; (2) une législation exigeant la participation du public avant leur utilisation, ainsi que des examens rigoureux de la technologie de reconnaissance faciale pour des raisons de partialité, de respect de la vie privée et de droits civils ; (3) une dérogation du gouvernement aux restrictions sur la recherche ou la surveillance des systèmes de reconnaissance faciale ; et (4) une plus grande protection des employés des entreprises technologiques en matière de dénonciation. Au Royaume-Uni, le projet de loi sur la technologie de reconnaissance faciale automatisée, rédigé par la commission spéciale de la Chambre des Lords sur l’intelligence artificielle à la fin de 2019, est en cours d’examen au Parlement au moment de sa publication.

Sur la base des recommandations ci-dessus – et en tenant compte des sept exigences clés du groupe d’experts de haut niveau de l’Union européenne sur l’IA pour une IA digne de confiance – la question du respect de la vie privée appelle ce qui suit :

1. Que les gouvernements mènent une vaste consultation publique et un débat sur l’utilisation de la technologie de reconnaissance faciale, en veillant à ce qu’un large éventail de voix aient la possibilité d’être entendues et soient prises en compte ;

2. Sur la base de ce processus de consultation publique, que les législateurs donnent la priorité à l’adoption d’une législation réglementant l’utilisation de la technologie de reconnaissance faciale dans les secteurs privé et public, notamment :

– Que l’utilisation de la technologie de reconnaissance faciale par la police soit strictement conforme aux principes de transparence et de proportionnalité ;
– Que l’utilisation de la technologie de reconnaissance faciale soit régulièrement vérifiée par un commissaire ou un conseil de surveillance indépendant ;
– que les personnes soient clairement et suffisamment informées avant d’être soumises à la technologie de reconnaissance faciale et qu’elles soient par conséquent en mesure de donner leur consentement ou, à défaut, de le révoquer ;
– Que des recherches indépendantes soient menées sur le biais algorithmique et ses effets sur les communautés vulnérables ; et

3. Qu’un moratoire volontaire sur la vente et l’achat de la technologie de reconnaissance faciale par les entreprises qui participent à son développement et à son utilisation, soit instauré jusqu’à ce qu’une telle réglementation soit adoptée – comme l’a demandé l’ACLU Massachusetts, parmi d’autres acteurs de la société civile.

Dans un article du Financial Times, la directrice de l’Institut Ada Lovelace, Carly Kind, cite l’exemple de la manière dont un moratoire réussi a empêché la discrimination et l’exploitation dans le secteur des assurances en Grande-Bretagne. En 1998, les assureurs britanniques ont volontairement mis en place une interdiction de deux ans sur l’utilisation des tests génétiques pour les polices d’assurance santé ou d’assurance vie, dont les futurs propriétaires de maison ont besoin pour obtenir un prêt hypothécaire au Royaume-Uni. En raison d’une lacune dans la loi, il aurait été légal pour les compagnies d’assurance d’obliger leurs clients à partager les résultats des tests génétiques, qu’ils auraient ensuite pu utiliser pour augmenter les primes ou refuser la couverture. Au lieu de cela, l’Association des assureurs britanniques a adopté un moratoire, qui a été prolongé et finalement officialisé dans un accord officiel avec le gouvernement, liant 97 % du secteur.

Bien que le rythme du débat public et de l’élaboration des lois puisse toujours être en retard sur la vitesse inhérente au développement des nouvelles technologies, l’exemple du moratoire volontaire des assureurs britanniques est la preuve que des changements radicaux dans le secteur peuvent être mis en œuvre efficacement pour prévenir les violations des droits et limiter les préjudices potentiels. Étant donné l’échelle mondiale et le rythme de développement de la technologie de reconnaissance faciale, l’appel à l’action est plus que jamais d’actualité. Cependant, face à une technologie qui prolifère rapidement et qui non seulement érode la démocratie et les libertés civiles, mais qui est aussi régulièrement utilisée comme arme contre les communautés vulnérables, il ne faut rien de moins qu’une action réglementaire audacieuse.

L’article est soumis à une licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Pas de Modification 4.0 International (CC BY-NC-ND 4.0)

The Privacy Issue

Le ministère russe teste la reconnaissance de la démarche

Le ministère de l’intérieur russe veut installer un système de surveillance biométrique d’ici la fin 2021 qui permettra d’identifier les criminels et les suspects des réseaux de surveillance urbains grâce à la technologie de reconnaissance faciale, vocale, de l’iris et même de la démarche et des tatouages des parties visibles du corps, selon RBC.ru.

La revue s’est entretenue avec Danila Nikolaev, directeur général de Russian Biometric Society, qui a participé au développement du Federal Information System for Biometric Accounting (FISBU). Le projet a été confirmé par Vladimir Ovchinsky, conseiller au ministère de l’intérieur, et il est toujours en phase de développement. Le système sera développé dans le cadre du programme “Ville sûre” de Moscou et sera financé par le budget de ce programme. Les tests seront effectués au sein de la “sandbox” réglementaire du pays pour les technologies d’intelligence artificielle. Le projet en question a été soumis à la Douma d’État le 7 février pour renforcer la sécurité.

Les autorités de Moscou se préparent à introduire un régime juridique expérimental pour le développement de l’intelligence artificielle avec la participation de grandes sociétés informatiques (Kaspersky Lab, Yandex, entre autres) à partir du 1er juillet 2020 pour une durée de 5 ans.

Le ministère de l’intérieur est intéressé par l’exploration de la reconnaissance de la démarche pour identifier les criminels, et la démarche fait partie des diverses formes de reconnaissance testées, selon le rapport, mais Nikolaev indique que cette modalité n’a pas encore été incluse dans la liste des capacités de la FISBU.

Le co-fondateur de 3Divi, Dmitry Morozov, explique à la RBC que la reconnaissance corporelle est un moyen prometteur d’identifier un suspect, en particulier lorsque le visage de la personne n’est pas visible par une caméra vidéo, bien que le directeur technique de Vokord, Alexei Kadeishvili, remarque qu’elle ne permet pas d’obtenir un degré élevé de précision dans une correspondance, comme le fait l’ADN.

Gennady Puchkov, chercheur à la Special Technology and Communications Research and Production Association du ministère de l’intérieur russe, a confirmé en octobre 2019 que le système biométrique était en cours de développement et que le logiciel d’analyse des données de l’intelligence artificielle était déjà en phase de mise en œuvre. Il a également suggéré qu’à l’avenir, on pourrait envisager de construire un logiciel pour détecter l’état émotionnel et mental des personnes.

Selon Nikolaev, les termes de référence n’ont pas encore été approuvés, mais le système biométrique peut également être utilisé pour communiquer avec les systèmes d’autres départements. Les empreintes digitales, les cheveux et la salive des scènes de crime seront passés dans le système et une liste de suspects sera fournie. Une évaluation supplémentaire sera effectuée par un expert médico-légal et, à condition que le système dispose de toutes les informations nécessaires, une photo sera téléchargée et comparée avec la reconnaissance faciale.

Selon des sources internes, le projet a d’abord nécessité un investissement important car les droits intellectuels sur le système et les algorithmes seraient remis à l’État.

RBC.ru., BiometricUpdate