Reconnaissance faciale : La crise de la vie privée

La technologie de reconnaissance faciale est hors de contrôle – et les implications sont profondes. Les autorités de réglementation doivent agir maintenant pour en réduire les effets néfastes.

Votre visage est ce qui vous rend unique. C’est ce qui vous donne votre apparence distincte, vous permet d’exprimer votre humeur, vos émotions et vos réactions, et vous permet de communiquer. Au cours des dernières décennies, votre visage est devenu un outil qui vous permet de faire beaucoup plus. Il peut déverrouiller votre téléphone, vous permettre d’embarquer dans un avion, de traverser les frontières et de payer votre café. Tout cela est dû à l’essor de la technologie de reconnaissance faciale, un type d’intelligence artificielle qui utilise un apprentissage approfondi (deep learning) pour quantifier les identificateurs uniques des visages individuels, qui sont ensuite analysés et comparés aux bases de données de photos. Bien que la technologie de reconnaissance faciale présente des avantages distincts – tels que la prévention de la criminalité et de la fraude, l’efficacité et la commodité – les risques qui accompagnent son utilisation généralisée signalent la fin de la vie privée telle que nous la connaissons. Pourtant, les gouvernements du monde entier ont été lents à lancer un débat public et à promulguer des réglementations relatives à son utilisation. Pendant ce temps, la technologie de reconnaissance faciale a proliféré tant dans le secteur public que dans le secteur privé, ce qui a entraîné la normalisation d’une surveillance constante et immuable qui est appelée à devenir le modèle par défaut pour notre avenir : un modèle dans lequel – sans une action urgente du gouvernement – notre capacité à nous déplacer dans la vie sans surveillance cessera d’exister.

Comment la technologie de reconnaissance faciale est-elle devenue courante ?

Autrefois sujet de fiction dystopique, la technologie de reconnaissance faciale en est venue à s’infiltrer dans la vie quotidienne du monde entier au cours de la dernière décennie. En Chine, le leader mondial de la technologie de reconnaissance faciale, ses objectifs vont de la mise en place de lunettes de reconnaissance faciale pour la police, au paiement avec le sourire, en passant par la capture des personnes qui jettent leurs déchets. En septembre 2019, l’autorité nationale indienne en matière d’identification, Aadhaar, a rendu obligatoire pour les fournisseurs de services de télécommunications de vérifier que 10 % de leurs clients utilisent la technologie de reconnaissance faciale, et en octobre 2019, le gouvernement français a annoncé son intention de l’utiliser dans un nouveau système national d’identification, Alicem. La Russie a installé cette technologie sur 5 000 caméras de vidéosurveillance à Moscou et expérimente un système de paiement par reconnaissance faciale dans les gares.

Aux États-Unis, la technologie de reconnaissance faciale est utilisée – et parfois abusivement – par les forces de l’ordre, les patrouilles frontalières et un nombre croissant des plus grands magasins du pays (dont Walmart et Target) au nom de la prévention des vols. Un article de Kashmir Hill paru en 2020 dans le New York Times a révélé un autre partenariat public-privé dans le domaine de la surveillance par reconnaissance faciale. Il décrit cette fois une société financée par Peter Thiel, Clearview AI, qui fait correspondre les visages des images téléchargées sur des “millions” de sites web, dont Facebook, Venmo et YouTube, à une base de données privée d’environ trois milliards de photos. L’intelligence artificielle que Clearview AI a développée une technologie qui peut également faire correspondre des visages par le biais de photos imparfaites, comme celles des caméras de surveillance. Un sergent de police a déclaré : “Une personne peut porter un chapeau ou des lunettes, ou il peut s’agir d’une photo de profil ou d’une vue partielle de son visage”. Clearview AI offre des services de reconnaissance faciale à près de 600 services de police américains et dispose d’une bibliothèque d’images sept fois plus importante que celle du FBI.

Au Royaume-Uni, la police métropolitaine de Londres et la police du sud du Pays de Galles ont procédé à des essais de technologie de reconnaissance faciale lors de matchs sportifs et pour surveiller les manifestations pacifiques. Cette dernière instance, malgré une opposition véhémente et une inexactitude avérée, a été confirmée comme constitutionnelle par la Haute Cour en septembre 2019. À Londres (la deuxième ville la plus surveillée au monde après Pékin, avec environ 420 000 caméras de vidéosurveillance qui sont de plus en plus modernisées pour inclure des capacités de technologie de reconnaissance faciale), les promoteurs immobiliers l’ont utilisé pour surveiller les personnes qui marchent dans King’s Cross et les faire correspondre aux bases de données fournies par la police, bien que cette pratique ait maintenant été abandonnée. Cette technologie est même utilisée pour déterminer qui sera le prochain à servir dans un bar londonien, et des supermarchés, dont Tesco et Sainsbury’s, se préparent à l’utiliser pour vérifier l’âge des clients. Partout où nous allons, la technologie de reconnaissance faciale apparaît dans la paume de nos mains, de l’option “tagger un ami” de Facebook à la fonction de déverrouillage de l’iPhone d’Apple. On prévoit que 64 % des smartphones utiliseront cette technologie en 2020. Tout cela représente une industrie mondiale d’un milliard de dollars – une industrie qui devrait passer de 3,2 milliards de dollars en 2019 à 7 milliards de dollars d’ici 2024.

La demande intersectorielle en matière de technologie de reconnaissance faciale connaît une courbe ascendante exponentielle dans le monde entier. Les facteurs qui alimentent cette croissance ininterrompue sont au nombre de trois. Premièrement, à l’exception d’une poignée de villes aux États-Unis, la technologie de reconnaissance faciale est actuellement soumise à très peu de réglementations, et dépourvue de normes applicables à l’ensemble du secteur. Deuxièmement, les systèmes de suivi de la technologie de reconnaissance faciale sont bon marché (moins de 100 dollars) et facilement accessibles “à toute personne disposant d’une connexion internet et d’une carte de crédit”, comme l’a prouvé une expérience du New York Times en avril 2019. Troisièmement, l’intelligence artificielle qui sous-tend la technologie de reconnaissance faciale est intelligente et apprend à un rythme de plus en plus rapide. La capacité des logiciels de technologie de reconnaissance faciale à analyser des images de mauvaise qualité (seulement un mégapixel) est due à l’apprentissage profond (deep learning), un type d’IA qui imite le fonctionnement du cerveau humain pour traiter de vastes ensembles de données par le biais de réseaux neuronaux artificiels.

Le progrès des algorithmes de la technologie de reconnaissance faciale repose sur l’accumulation de photos de visages de personnes, qui sont rassemblées dans de vastes bases de données. Ces bases de données sont construites à partir d’une série de sources qui varient en fonction de qui les utilise et dans quel but. Certaines sont compilées à partir de listes de surveillance de la police ou de délinquants connus. D’autres proviennent de personnes qui téléchargent des photos sur des plateformes ou des applications. C’est le cas de la fonction “tagger un ami” de Facebook, qui est utilisée pour former l’algorithme de reconnaissance faciale de l’entreprise, ainsi que des applications de stockage de photos comme Ever. D’autres, comme Labeled Faces in the Wild ou MegaFace, sont composées de photos qui sont récupérées sur Internet sans le consentement ou même à l’insu de ceux qu’elles représentent. Les universitaires et les entreprises privées utilisent ces bases de données ouvertes pour former les algorithmes qui sous-tendent la technologie de reconnaissance faciale. Presque toutes les grandes entreprises technologiques développent leur propre système : Facebook a DeepFace, Google a FaceNet, et Amazon a Rekognition, pour n’en citer que quelques-uns. Chacune investit massivement dans ce que le directeur général de Microsoft, Satya Nadella, a appelé la “course vers le bas” pour développer les systèmes technologiques de reconnaissance faciale les plus puissants à vendre aux gouvernements, qui les déploient à des fins de contrôle et de surveillance.

La menace ultime pour la vie privée

Alors que de nombreuses sociétés se sont habituées à des mécanismes de surveillance comme la vidéosurveillance et autres caméras dans les espaces publics, les lecteurs de plaques d’immatriculation automatisés, les sonnettes équipées de caméras et les drones, la reconnaissance faciale marque une atteinte beaucoup plus profonde à la vie privée, en raison de sa capacité à identifier en temps réel des faits psychiques uniques sur les individus. En automatisant la surveillance de masse de manière à – comme l’écrivent Woodrow Hartzog et Evan Selinger dans un éditorial du New Yorker – “surmonter les contraintes biologiques sur le nombre d’individus que chacun peut reconnaître en temps réel”, elle prive les citoyens de la liberté de se promener dans les rues, à travers les villes, autour des supermarchés et dans les pôles de transport sans être surveillés par les gouvernements ou les entreprises – à des fins dont ils n’ont pas connaissance. A ce rythme, nous sommes sur la voie de l’élimination de tout endroit où les citoyens ne sont pas surveillés, prévient David Paris de l’organisation australienne Digital Rights Watch.

Contrairement au pouvoir que nous avons sur nos données personnelles en ligne, il n’existe “aucun paramètre de confidentialité pour se promener dans la rue ou naviguer dans un centre commercial”. Et vous ne pouvez pas effacer votre visage”, explique Paris. Le fait que la technologie de reconnaissance faciale enregistre notre visage signifie que son utilisation soumet les personnes honnêtes à une “file d’attente perpétuelle” qui nie le principe démocratique fondamental de la présomption d’innocence, et l’exigence connexe de suspicion raisonnable de culpabilité que les autorités compétentes doivent généralement prouver pour obtenir un mandat de surveillance.

À cet égard, la technologie de reconnaissance faciale modifie la nature de la démocratie. Pendant ce temps, l’action gouvernementale visant à susciter le débat et la discussion sur l’éthique et les implications de son utilisation a été inégale et figée dans le monde entier. À moins que les entreprises n’adoptent un moratoire volontaire sur le développement et la vente de la technologie de reconnaissance faciale, les mesures prises sont essentiellement des mesures de rattrapage alors que la technologie continue de proliférer – et comme le souligne l’ACLU de Californie du Nord, “une fois que de puissants systèmes de surveillance comme ceux-ci auront été construits et déployés, il sera extrêmement difficile de réparer les dégâts”.

Préjudices passés, menaces futures

Outre l’empiètement sur la vie privée et l’atteinte aux principes démocratiques, les préjudices réels et potentiels de la technologie de reconnaissance faciale sont multiples : des préjugés et de la discrimination aux abus des gouvernements et des mauvais acteurs. Selon Kate Crawford, co-directrice d’AI Now, “ces outils sont dangereux lorsqu’ils échouent et nocifs lorsqu’ils fonctionnent”. En ce qui concerne les dangers des biais algorithmiques, de nombreuses études ont prouvé que, bien que la technologie de reconnaissance faciale soit très précise lorsqu’il s’agit d’identifier les hommes blancs (un taux d’erreur d’identification de 1%, selon une étude du MIT), Microsoft, IBM et Face++, se sont avérés plus susceptibles de mal identifier les personnes transgenres et non binaires, ainsi que les personnes de couleur, et en particulier les femmes de couleur.

Les systèmes de reconnaissance faciale sont racistes

En 2018, l’ACLU a mis en évidence ce problème en utilisant Amazon Rekognition pour comparer les membres du Congrès avec une base de données de 25 000 photos de criminels. L’expérience a donné lieu à un nombre disproportionné de fausses correspondances pour les membres du Congrès de couleur – 40 %, alors que les personnes de couleur ne représentent que 20 % des membres du Congrès. Comme l’a écrit Joy Buolamwini, fondatrice de la Ligue pour la justice algorithmique – qui sensibilise et lutte contre les préjugés et la discrimination dans les technologies – “celui qui code le système intègre ses opinions”. Selon le projet The Perpetual Line Up de la faculté de droit de Georgetown, cela est aggravé par le fait que “les taux d’arrestation disproportionnés, les systèmes qui s’appuient sur des bases de données de photos de suspects incluent probablement un nombre disproportionné d’Afro-Américains”. Comme pour beaucoup d’autres formes d’intelligence artificielle, l’effet anormalement négatif que la technologie a sur les Afro-Américains et les autres communautés de couleur ne fait que s’accentuer à mesure que l’adoption de la technologie progresse avec un minimum de responsabilité.

Aux États-Unis, les forces de l’ordre ont une longue tradition – et généralement acceptée – de glaner des données biométriques, telles que les empreintes digitales et l’ADN, sur les suspects. Mais la reconnaissance faciale permet aux forces de police d’accéder aux données biométriques de milliers de personnes qui ne sont pas des suspects criminels – le tout sans contrôle du Congrès ou de la justice. En juillet 2019, le Washington Post a révélé que le FBI et l’Immigration and Customs Enforcement (ICE) avaient tous deux scanné des permis de conduire pour créer des bases de données étendues, qui ont ensuite été utilisées pour rechercher des suspects dans des crimes de moindre importance comme les petits larcins. Le potentiel d’abus de ces systèmes est élevé – et ils ont été exploités. Comme l’a révélé un rapport du Georgetown Law’s Center on Privacy and Technology, la police de New York s’est livrée à des abus généralisés de son système de reconnaissance faciale, notamment en modifiant des images et en téléchargeant un portrait de célébrité dans sa base de données de photos afin d’appréhender un homme décrit par un témoin comme ressemblant à cette célébrité. Son crime a été de voler une bière.

Comme l’affirme l’ACLU, la technologie de reconnaissance faciale “représente une menace particulière pour les communautés déjà injustement ciblées dans le climat politique actuel”. Les systèmes de reconnaissance faciale développés par les technologies controversées de Palantir ont été utilisés par les forces de police américaines comme un puissant outil de surveillance dans la guerre du président Trump contre l’immigration, utilisé pour identifier les immigrants sans papiers à des fins d’expulsion et de poursuites. Cela s’ajoute à ce que nous savons maintenant de la base de données d’images gargantuesques et des incroyables capacités de Clearview AI et de son partenariat avec les forces de l’ordre américaines.

En Chine, où la quasi-totalité des 1,4 milliard de citoyens du pays sont inclus dans les bases de données de technologie de reconnaissance faciale, le parti communiste chinois utilise cette technologie pour suivre ceux qu’il considère comme une menace pour son régime. Elle a notamment été utilisée pour surveiller la population musulmane ouïghoure dans la région du Xinjiang. Les fabricants chinois de technologie de reconnaissance faciale exportent leurs développements plus loin. En 2018, la start-up CloudWalk, basée à Guangzhou, a reçu 301 millions de dollars de l’État pour établir un programme de technologie de reconnaissance faciale de masse au Zimbabwe – un pays dans lequel la Chine a beaucoup investi – au nom de la résolution des problèmes de sécurité publique.

Les systèmes de technologie de reconnaissance faciale ont leurs propres problèmes de sécurité – des problèmes qui ont de graves implications, étant donné que les visages, contrairement aux mots de passe, ne peuvent pas être modifiés sans recourir à la chirurgie plastique. Début 2019, le chercheur en sécurité Victor Gevers a découvert que l’une des bases de données utilisées par le gouvernement chinois pour traquer les Ouïghours, appartenant à une société appelée SenseNets, était restée ouverte sur Internet pendant des mois. Gevers a déclaré : “Cette base de données contient plus de 2.565.724 enregistrements de personnes avec des informations personnelles telles que le numéro de carte d’identité, la date de délivrance et d’expiration, le sexe, la nation, l’adresse, l’anniversaire, la photo d’identité, l’employeur et les endroits où elles sont passées au cours des dernières 24 heures avec des traqueurs”. Quelques mois plus tard, l’Agence américaine des douanes et des frontières a révélé que sa base de données contenant des photos de voyageurs et de plaques d’immatriculation – qui avait été gérée par un sous-traitant, Perceptics, avait été piratée. S’adressant à Fast Company à ce sujet, David Maass, de l’Electronic Frontier Foundation, a déclaré que le gouvernement américain aurait dû être en mesure de prévoir le piratage, “étant donné que le système biométrique de l’Inde avait été piraté juste un an plus tôt”. Selon Maass, le piratage a mis en évidence la crainte que la sécurité des bases de données de la technologie de reconnaissance faciale ne soit pas suffisamment réglementée. “Nous avons également vu les autorités compétentes accorder leur confiance aux fournisseurs, pour lesquels la sécurité publique et la cybersécurité ne sont pas nécessairement des préoccupations majeures”, a-t-il déclaré.

Où sont les régulateurs ?

Les problèmes de biais, d’abus et de failles de sécurité décrits ci-dessus ont proliféré en l’absence de réglementation gouvernementale fédérale, nationale ou supranationale – ce qui a permis à la technologie de reconnaissance faciale de fonctionner sans les contraintes de transparence, de proportionnalité ou de responsabilité démocratique. Cela signifie que la réglementation de la technologie et des bases de données photographiques qu’elle traite a été largement laissée à des sociétés privées (Amazon propose son propre cadre réglementaire que la société espère voir adopter par les législateurs, par exemple), alimenté par des incitations commerciales, ou des services de police sans encadrement indépendant. “Nous avons sauté quelques étapes fondamentales du débat”, a déclaré Silkie Carlo, du groupe de défense de la vie privée Big Brother Watch, au New York Times. “Les décideurs politiques sont arrivés très tard dans la discussion et ne comprennent pas pleinement les implications et la vue d’ensemble”. Dans le monde entier, l’opinion publique sur la question varie. Alors qu’en Chine – selon l’Académie chinoise des sciences – 83 % de la population approuve le “bon usage” de la reconnaissance faciale, dirigée par le gouvernement, ce chiffre tombe à 56 % aux États-Unis, selon le Pew Research Center.

Au Royaume-Uni, une enquête menée en 2019 par l’Institut Ada Lovelace a révélé que 76 % sont contre l’utilisation de la technologie de reconnaissance faciale par les entreprises à des fins commerciales, comme dans les centres commerciaux, et que 55 % des Britanniques souhaitent que le gouvernement réglemente l’utilisation de la technologie de reconnaissance faciale dans les services de police. Les forces de police du Royaume-Uni ont testé cette technologie au cours des dernières années, notamment pour la surveillance de manifestations pacifiques – un cas d’utilisation que la Haute Cour de Londres a approuvé comme étant conforme aux lois sur les droits de l’homme et la protection des données en septembre 2019. Pourtant, comme le souligne le rapport 2019 du London Policing Ethics Panel sur la reconnaissance faciale en temps réel, la technologie de reconnaissance faciale a un effet dissuasif sur les droits de réunion et de parole. 38 % des 16-24 ans ont déclaré qu’ils seraient plus enclins à se tenir à l’écart des événements surveillés par la police à l’aide de la technologie de reconnaissance faciale. “Les gens craignent la normalisation de la surveillance, mais sont plus enclins à l’accepter lorsqu’ils voient un intérêt public s’exprimer”, a déclaré Olivia Varley-Winter, de l’Institut Ada Lovelace, à The Privacy Issue. “S’il existe un risque de sécurité défini, les gens ont tendance à accepter davantage son utilisation. Il s’agit d’avoir le choix, et la possibilité de s’en écarter. La connaissance de la technologie est très faible. Il n’y a pas eu de sensibilisation proactive – nous commençons tout juste à avoir ce débat dans les médias. Nous avons besoin d’un dialogue qui ne soit pas seulement le fait des personnes qui veulent voir la technologie de reconnaissance faciale utilisée”, a-t-elle déclaré.

Dans le monde entier, la demande de dialogue et d’action se fait chaque jour plus forte : le public, les défenseurs de la vie privée et les organisations de défense des droits civils, les universitaires, les politiciens et même certaines forces de police ont exprimé leur résistance à l’utilisation incontrôlée de la technologie de reconnaissance faciale à des fins policières et commerciales. Certaines collectivités locales aux États-Unis en tiennent compte. La Californie et le Massachusetts connaissent un élan croissant – au moment de la publication, San Francisco, Oakland et Berkeley, ainsi que Somerville, Brookline et Cambridge, ont tous interdit l’utilisation de la technologie de reconnaissance faciale par leurs administrations locales, y compris dans la police. Mutale Nkonde, conseiller politique de Data and Society AI, s’attend à ce que le débat et l’action au niveau des gouvernements locaux continuent à se développer. Dans de nombreux États, la législation Community Control Our Police Surveillance (CCOPS) est en cours d’adoption par les municipalités afin de responsabiliser la police quant à l’utilisation de cette technologie. Des villes américaines comme Portland et Cambridge débattent de l’interdiction de l’utilisation de la technologie de reconnaissance faciale par le secteur privé, et quarante des plus grands festivals de musique du monde se sont engagés à ne pas utiliser la technologie de reconnaissance faciale.

Faire face à l’intelligence artificielle : Un appel à l’action

En attendant qu’une législation nationale sur la technologie de reconnaissance faciale soit rigoureusement débattue et rédigée, les appels à l’arrêt de l’utilisation de la technologie de reconnaissance faciale prennent de l’ampleur dans tous les secteurs. La Commission européenne envisage d’interdire la reconnaissance faciale dans les lieux publics pour une période allant jusqu’à cinq ans, selon un projet de livre blanc de 2020. Aux États-Unis, une coalition de 30 organisations de la société civile, représentant 15 millions de membres, demande une interdiction nationale de l’utilisation de la technologie de reconnaissance faciale par les forces de l’ordre. Pourtant, Varley-Winter soutient que “les interdictions catégoriques risquent d’être des approches réactionnaires, des solutions provisoires. Afin de prévenir cette éventualité, l’Institut Ada Lovelace appelle à un moratoire comme approche plus prospective de la réglementation qui permet une considération et une délibération proportionnées”, a-t-elle déclaré à The Privacy Issue. “S’il existe des moyens de faire fonctionner la technologie de reconnaissance faciale pour les personnes et la société, il est important que nous découvrions ce qu’ils sont – mais l’industrie, les décideurs politiques et la société en général ont besoin de temps pour le faire d’une manière inclusive et réfléchie”.

Varley-Winter souligne que la mise en place par l’Écosse d’un groupe consultatif indépendant sur l’utilisation des données biométriques en mai 2017 est un exemple positif de l’action gouvernementale en la matière. En mai 2019, le projet de loi sur les données biométriques a été présenté au Parlement écossais, dans le but de “garantir un contrôle indépendant de l’acquisition, de la conservation, de l’utilisation et de l’élimination des données biométriques existantes, émergentes et futures dans le contexte de la justice pénale en Ecosse”, a-t-elle déclaré. “Le projet de loi créerait un nouveau commissaire écossais à la biométrie, avec un accent particulier sur les considérations éthiques et les droits de l’homme découlant de l’utilisation des données biométriques, et sur la maximisation des avantages des technologies biométriques”. Varley-Winter a ajouté que l’approche consistant à établir un processus d’examen indépendant centré sur les droits de l’homme est un “modèle prometteur que d’autres gouvernements pourraient envisager”.

Aux États-Unis, Kate Crawford, de l’AI Now Institutes, a également appelé à un moratoire volontaire sur l’utilisation de la technologie de reconnaissance faciale, exhortant ses fabricants à suivre les traces d’Axon, “le premier fournisseur mondial de caméras de surveillance des corps de police”, qui, en 2019, a cessé de vendre aux forces de police des caméras équipées de la technologie de reconnaissance faciale, en raison du risque qu’elle puisse “exacerber les inégalités existantes dans le maintien de l’ordre, par exemple en pénalisant les communautés noires ou LGBTQ”. Dans un éditorial pour Nature, elle cite quatre principes que l’Institut AI Now a développés pour un cadre de travail potentiel : (1) une interdiction de financement ou de déploiement des systèmes de reconnaissance faciale tant qu’ils n’ont pas été approuvés et que de solides protections juridiques n’ont pas été mises en place ; (2) une législation exigeant la participation du public avant leur utilisation, ainsi que des examens rigoureux de la technologie de reconnaissance faciale pour des raisons de partialité, de respect de la vie privée et de droits civils ; (3) une dérogation du gouvernement aux restrictions sur la recherche ou la surveillance des systèmes de reconnaissance faciale ; et (4) une plus grande protection des employés des entreprises technologiques en matière de dénonciation. Au Royaume-Uni, le projet de loi sur la technologie de reconnaissance faciale automatisée, rédigé par la commission spéciale de la Chambre des Lords sur l’intelligence artificielle à la fin de 2019, est en cours d’examen au Parlement au moment de sa publication.

Sur la base des recommandations ci-dessus – et en tenant compte des sept exigences clés du groupe d’experts de haut niveau de l’Union européenne sur l’IA pour une IA digne de confiance – la question du respect de la vie privée appelle ce qui suit :

1. Que les gouvernements mènent une vaste consultation publique et un débat sur l’utilisation de la technologie de reconnaissance faciale, en veillant à ce qu’un large éventail de voix aient la possibilité d’être entendues et soient prises en compte ;

2. Sur la base de ce processus de consultation publique, que les législateurs donnent la priorité à l’adoption d’une législation réglementant l’utilisation de la technologie de reconnaissance faciale dans les secteurs privé et public, notamment :

– Que l’utilisation de la technologie de reconnaissance faciale par la police soit strictement conforme aux principes de transparence et de proportionnalité ;
– Que l’utilisation de la technologie de reconnaissance faciale soit régulièrement vérifiée par un commissaire ou un conseil de surveillance indépendant ;
– que les personnes soient clairement et suffisamment informées avant d’être soumises à la technologie de reconnaissance faciale et qu’elles soient par conséquent en mesure de donner leur consentement ou, à défaut, de le révoquer ;
– Que des recherches indépendantes soient menées sur le biais algorithmique et ses effets sur les communautés vulnérables ; et

3. Qu’un moratoire volontaire sur la vente et l’achat de la technologie de reconnaissance faciale par les entreprises qui participent à son développement et à son utilisation, soit instauré jusqu’à ce qu’une telle réglementation soit adoptée – comme l’a demandé l’ACLU Massachusetts, parmi d’autres acteurs de la société civile.

Dans un article du Financial Times, la directrice de l’Institut Ada Lovelace, Carly Kind, cite l’exemple de la manière dont un moratoire réussi a empêché la discrimination et l’exploitation dans le secteur des assurances en Grande-Bretagne. En 1998, les assureurs britanniques ont volontairement mis en place une interdiction de deux ans sur l’utilisation des tests génétiques pour les polices d’assurance santé ou d’assurance vie, dont les futurs propriétaires de maison ont besoin pour obtenir un prêt hypothécaire au Royaume-Uni. En raison d’une lacune dans la loi, il aurait été légal pour les compagnies d’assurance d’obliger leurs clients à partager les résultats des tests génétiques, qu’ils auraient ensuite pu utiliser pour augmenter les primes ou refuser la couverture. Au lieu de cela, l’Association des assureurs britanniques a adopté un moratoire, qui a été prolongé et finalement officialisé dans un accord officiel avec le gouvernement, liant 97 % du secteur.

Bien que le rythme du débat public et de l’élaboration des lois puisse toujours être en retard sur la vitesse inhérente au développement des nouvelles technologies, l’exemple du moratoire volontaire des assureurs britanniques est la preuve que des changements radicaux dans le secteur peuvent être mis en œuvre efficacement pour prévenir les violations des droits et limiter les préjudices potentiels. Étant donné l’échelle mondiale et le rythme de développement de la technologie de reconnaissance faciale, l’appel à l’action est plus que jamais d’actualité. Cependant, face à une technologie qui prolifère rapidement et qui non seulement érode la démocratie et les libertés civiles, mais qui est aussi régulièrement utilisée comme arme contre les communautés vulnérables, il ne faut rien de moins qu’une action réglementaire audacieuse.

L’article est soumis à une licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Pas de Modification 4.0 International (CC BY-NC-ND 4.0)

The Privacy Issue

Quelle forme de complicité a rendu Facebook possible ?

L’exemple de Facebook1 permet de remonter à la racine d’une « responsabilité du clic » associant le réflexe corporel – celui de cliquer, commun à toute l’économie du net – et le succès fulgurant d’une révolution globale non pas tant numérique (comme on se plaît à le dire) que politique. Facebook peut être considéré comme un exemple princeps de ce que Foucault nommait les « techniques du corps », exemple dont la valeur repose ici sur sa portée contre-intuitive, puisque l’Internet est réputé réaliser le triomphe de « l’immatériel ». Ainsi, la mystification est totale. La focalisation imaginaire sur la production des biens physiques – telles une voiture ou une paire de chaussures – fait volontiers oublier aux militants écologistes combien les réseaux ont accaparé un potentiel de croissance économique exponentielle qu’eux-mêmes hésitent à intégrer dans leur critique, en raison d’un désir de propager leur propre audience par ces moyens-là, désormais déclarés incontournables. Cette croissance est destinée à devenir ubiquitaire avec l’implantation du réseau 5G (de cinquième génération) et la généralisation de l’Internet des objets, ce qui montre à rebours que le capitalisme n’a pas dit son dernier mot sur les objets matériels : il s’agit par là de créer de toutes pièces une nouvelle phase d’accumulation qui ne laissera aucun geste quotidien en dehors de son emprise jusqu’à s’implanter dans le corps humain. Il s’agit de coloniser sans reste toute chose et tout être, et même les flux de pensée, avec notre consentement imperceptible, au nom de l’argument selon lequel il n’y a rien de mal à promouvoir des technologies si pratiques et si rapides. La croissance économique se présente ainsi sous les espèces d’une communication inoffensive, qu’il convient seulement de « faciliter » dans l’intérêt de tous, au service de bonnes causes, alors qu’elle vise à absorber l’ensemble des sphères non économiques dans sa progression dévorante. Ce faisant, elle parachève l’intégration de toute critique dans l’escarcelle de sa propre valorisation. Elle réussit à éliminer son propre dehors en contribuant à l’inanité de toute opposition politique – ceci dans la mesure même où elle prétend faciliter la diffusion de causes politiques. L’argument selon lequel on doit à Facebook (et d’autres réseaux sociaux) le départ et la diffusion de contestations sociales doit être analysé à l’aune de la croissance de Facebook lui-même, qui, pendant qu’on poussait les représentants de l’État à la démission, engrangeait les bénéfices cachés de ces révoltes : nous avons insensiblement changé de maîtres. La critique de la croissance peut ainsi en rester à la critique fétichiste des objets physiques en éludant les progrès d’une infrastructure de la communication prétendument acceptée pour la bonne cause. Ce faisant, elle nourrit un capitalisme à qui elle demande en même temps de décroître ou de disparaître. Cela démontre par les faits l’inconséquence d’une critique qui ne va pas jusqu’à considérer sérieusement l’affirmation de MacLuhan sur l’identité du message et du média. Que ne faut-il de naïveté ou d’idéologie pour penser qu’une bonne idée se suffit tellement à elle-même qu’elle n’a pas à s’interroger sur ses voies de médiatisation !

Facebook offre un cas d’espèce qui permet de définir un certain type d’enrôlement subjectif et d’éclairer la nature de certains compromis apparemment sans retour. La rumeur qui parlait d’une candidature de Zuckerberg aux élections américaines est à prendre au sérieux, même si la réputation de l’entreprise est désormais entachée : nous savons que le scénario d’un président milliardaire sans expérience politique est possible, aussi le scénario d’un milliardaire de la Silicon Valley président des États-Unis n’est pas à exclure. Comme chacun sait, Mark Zuckerberg a dû répondre en 2018 devant le Sénat américain et le Parlement européen du scandale de la vente des données personnelles à Cambridge Analytica, c’est-à-dire pour avoir transgressé le respect de la vie privée des utilisateurs et avoir permis que soient influencés les résultats des présidentielles Américaines. Mais la dénonciation aussi irrégulière qu’inefficace du monopole des GAFAM2 semble incapable de mener à une poursuite juridique à l’aide des seules lois antitrust américaines, en raison de l’intérêt pour le bien commun dont se targuent les géants du monde numérique : investissement dans la recherche scientifique (qui est cependant bien davantage qu’une recherche désintéressée puisqu’elle porte un vaste projet de société) et accession des particuliers à une multitude de services « gratuits ». Ces lois américaines qui surent dans le passé conduire au démantèlement d’entreprises aussi influentes que la Standard Oil ne s’appliquent plus à la situation actuelle. C’est pourquoi un auteur libéral comme Luc Ferry n’a rien de mieux à proposer aux Européens que de créer leur propre GAFAM. Leur monopole et leur ascension politique a déjà réussi la paralysie du monde politique, au point que la seule « alternative » aux GAFAM américains serait des équivalents européens, ce que les Chinois ont bien compris avant tout le monde avec leurs BATX3. L’arrogance européenne consistant à considérer par provision l’Europe comme naturellement porteuse de valeurs plus hautes – capable de transcender les horreurs américaines et chinoises – est une fois encore sans limites. Mais la menace que font peser les GAFAM sur l’économie et la politique elles-mêmes est la raison pour laquelle ces entreprises sont désormais dans le viseur de tout le spectre politique de droite comme de gauche, y compris américain : elles sont déclarées contrevenir aux règles minimales du libre-échange et inquiètent donc non pas tant pour leurs vertus capitalistes que pour leur nature anticapitaliste4, comme un tricheur à qui on rappelle les règles du jeu, sauf que c’est désormais le tricheur qui fait les règles. Il n’est donc pas étonnant qu’une libérale comme Margrethe Vestager, commissaire européenne à la concurrence (et, depuis le 1er décembre 2019, vice-présidente de la commission européenne en charge du numérique), ait fait de la lutte contre les GAFAM son plus grand défi. Comment en sommes-nous arrivés à une situation où des entreprises en situation de monopole mondial sont devenues à ce point capables de dicter les règles du jeu politique ? Il est possible d’étudier toute la stratégie commerciale de ces firmes pour en tirer des conclusions sur leurs ambitions politiques, dont le transhumanisme est le fleuron idéologique. Mais cette approche ne suffit pas : elle n’explique pas la protestation persistante des utilisateurs même les plus gauchistes et les plus anticapitalistes en faveur de Facebook « malgré leur répugnance », et ceci en dépit des nombreux signaux d’une modification sournoise et fondamentale de la vie politique que Facebook et d’autres ont déjà enclenchée et bientôt remportée. Il n’est que de voir le nombre de lieux qui se disent anticapitalistes et alternatifs, dont le compte Facebook est mieux mis à jour que leur site Internet : ce qui contribue de fait soit à forcer le sympathisant à ouvrir un compte Facebook pour accéder aux contenus, soit à l’exclure de ces mêmes contenus s’il persiste à refuser de se joindre à la communauté Facebook. On conviendra que c’est là un comble pour toute pensée critique. Qu’on en juge par les propos sans fards de Peter Thiel, fondateur de PayPal, actionnaire de Facebook, transhumaniste, libertarien élitiste et adversaire résolu de la démocratie : « Nous sommes engagés dans une course à mort entre la politique et la technologie. Le sort de notre monde dépend d’un seul individu, d’une personne, qui sera capable de bâtir et diffuser des outils technologiques favorisant la liberté et permettant un monde plus sûr pour l’épanouissement du capitalisme5. » Les États, pour rester dans la course, sont sur une pente glissante : la France des droits de l’homme n’a pas craint de faire passer sans débat parlementaire en 2016 un méga-fichier (Titres électroniques sécurisés) qui centralise les informations personnelles et biométriques de tous les Français. L’Europe met à l’essai « à des fins de recherche » un système de contrôle aux frontières européennes (iBorderCtrl) financé par la Commission européenne, qui utilise les technologies de reconnaissance faciale, un détecteur de mensonges et le recueil des données – tout ceci au nom du confort des usagers et de la sécurité collective qui seront les critères décisifs pour l’éventuelle adoption ultérieure de ce système de contrôle. Nous sommes insensiblement, une étape après l’autre, dépossédés du droit de ne pas être traçabilisés et personne ne sait à quoi peut servir dans un avenir incertain la constitution de tels fichiers (dont l’exemple de la Chine donne un certain avant-goût). Il n’y a aucune raison de penser qu’ils ne vont pas continuer de s’étendre en volume et en applications, toujours pour la bonne cause. « On vous protège », affirme désormais péremptoirement le métro parisien pour justifier les caméras de surveillance. Le progrès technologique est vu ici comme un développement autonome, naturel, cosmique en somme, contre lequel seules des interdictions puissantes auraient peut-être une chance de nous sauver du désastre. Il n’y a pas de choix ; il n’y a que des permissions ou des interdictions, des évitements ou des facilitations d’un phénomène qui, pour ainsi dire, se passe sans nous (dans la droite continuation du fétichisme du progrès). Pendant ce temps, nous continuons de nous enfoncer mollement dans la consommation numérique comme dans un sommeil de nos facultés critiques. Je prie le lecteur d’imaginer sur quelle pente nous mène ce faisceau de tendances qui concourent, mises ensemble, à transformer la planète en lieu invivable et sans échappatoire et l’humanité à un troupeau d’enfants qu’on dresse, qu’on surveille, qu’on protège et qu’on évalue.

Or tout se passe ainsi comme si nous avions (presque) tous voté pour Facebook et que nous considérions cette dictature d’un genre nouveau (sans doute difficile à décrypter aux habitudes héritées de l’histoire des dictatures) comme la seule option possible, rapportée à une inoffensive évolution des pratiques – du moins aussi longtemps que quelqu’un d’en haut ne nous en aura pas libérés, comme des enfants pris au piège. C’est dans ce contexte qu’il convient de replacer la demande répétée aux institutions européennes de nous libérer des GAFAM. Se peut-il que tout le monde s’en serve, mais que personne n’en veuille ? Voulons-nous ce que nous désirons, pour reprendre une formule de Lacan ? Personne ne se risque à dire sur quel modèle économique l’Europe pourrait sortir des GAFAM, étant donné qu’une version européenne des GAFAM fondée sur le même modèle économique n’aurait évidemment rien d’émancipateur, sauf à supposer qu’un label européen serait naturellement plus moral qu’un label étranger, comme tend à le croire le vieux chauvinisme européen. Quoi qu’il en soit, les politiques nationales et européennes sont dans l’impasse et leurs représentants sont détestés à la mesure de l’attente exorbitante à leur endroit. Que dire ici des utilisateurs de Facebook ? Ils ne semblent à tout le moins pas faire grand cas ni de leurs données personnelles, ni des projets qu’elles permettent de financer, ni des influences qu’on exerce sur eux. Pourquoi en effet poursuivre les entreprises si le public en redemande ? La même personne qui ne se déclare pas prête à quitter Facebook peut à la fois critiquer la viduité de la plus grande partie des communications échangées sur Facebook, jouer tout de même les « infiltrés » et en appeler à la lutte active contre les GAFAM6. De manière caractéristique, cette argumentation manie soumission et fausse critique sans rien trancher sur le fond. À côté de l’argument pratique, il se développe en particulier une série de « justification par l’infiltration » : être présent sur Facebook permettrait justement d’observer Facebook, voire permettrait de répandre à grande échelle des informations critiques, de lancer des mouvements ou d’accéder soi-même à des informations inaccessibles ailleurs (alors même que tant d’informations sont notoirement des fake news et que tant d’autres sont censurées). Voyons plutôt ce que déclarait l’une des collaboratrices de Facebook au souvenir de l’introduction des News Feed en 2006 :

« Nous nous sommes réveillés avec des centaines de milliers de gens indignés. Pendant la nuit, des groupes Facebook comme “je déteste newsfeed”, “Ruchi [la collaboratrice en question] est le diable” s’étaient constitués. Des reporters journalistiques et des étudiants étaient campés devant les bureaux. Nous avons dû nous faufiler discrètement par la sortie arrière pour quitter le bureau. Des tas de gens nous demandaient de fermer définitivement News Feed. Et la plupart des autres entreprises auraient exactement fait cela, en particulier si 10 % de leurs usagers menaçaient de boycotter le produit. Mais nous ne l’avons pas fait… En fait, News Feed a marché. Au milieu de tout ce bazar, de toute cette indignation, nous avons remarqué quelque chose d’inhabituel. Bien que chacun prétendait le détester, l’activité avait doublé7. »

La mesure de l’action plutôt que celle de l’opinion aura ici été déterminante : non pas ce que vous dîtes, mais ce que vous faites. C’est bien le coup de clic qui aura été décisif, cette sorte de réflexe inscrit dans la peau des utilisateurs de l’ère numérique. Cela porte un nom en théorie néoclassique : ce sont les préférences révélées8. L’écart entre l’indignation affichée des utilisateurs et le succès réel de la chose (« News Feed a marché… l’activité avait doublé ») justifie la poursuite de l’entreprise, ressort ultime de son ascension. Le compromis passé à ce moment-là ouvre une voie qui, semble-t-il, est sans retour : une fois que ce cap fut franchi, Facebook devint en quelques années toujours plus puissant et politiquement hors d’atteinte. Les conditions d’installation initiales furent comme frappées de refoulement. Le compromis originel devient illisible dans ce que Freud nomme les phénomènes de déplacement ou de condensation : le destin du compromis est d’avoir effacé ses propres traces. Il n’empêche que le monde numérique est plein de repentis, tel le fondateur de WhatsApp qui, après avoir revendu l’application à Facebook investit désormais dans la protection des données, laquelle ne change rien au modèle économique de Facebook : elle renforce au contraire sa légitimité écornée. L’opinion d’une gauche imbue d’elle-même selon laquelle nous ne voulons pas de ce modèle de société est contredite par l’ascension arrogante de ce même modèle assise sur une complicité généralisée. Se peut-il alors que les gens ne reçoivent pas autre chose en fait que ce qu’ils veulent vraiment ? Leur véritable désir est-il celui, pur, qui précèderait le moment de corruption, ou bien celui révélé par l’offre qu’ils acceptent gracieusement ? Cette spirale rétroactive ne se ferme sur aucune ontologie subjective susceptible d’endosser l’entière responsabilité du circuit de l’offre et de la demande. Leur vrai désir n’est certainement ni l’un ni l’autre : le désir n’a pas de substance. Lacan a dit que le désir de l’homme, c’est le désir de l’Autre : toutes les gesticulations sur mon désir insatisfait ne valent pas un instant de considération si mon adresse constitue un ralliement secret à cet Autre incarné dans le discours du moment – en attendant le prochain discours. À charge donc pour le critique d’incarner un autre discours. Le moment fictif de corruption (celui où un utilisateur se met à agir d’une manière qu’il réprouve ou prétend réprouver) est lui-même ce point évanouissant d’une subjectivité impossible à objectiver à la fin autrement que dans la somme de ses actes. L’autre sujet, celui de l’inconscient, celui qui articule la structure « je sais bien, mais quand même… », n’est justement pas lisible dans l’ordre du monde algorithmique. Que vous ayez un doute, une mauvaise conscience ou un repentir ne compte pas pour les big data, qui ne font que totaliser des actes. Il s’ensuit que ce réseau social est probablement l’entreprise la plus populiste au monde, à savoir qu’il accorde une certaine fonction politique à la multitude dont il révèle ou façonne une préférence en supplantant imperceptiblement dans son creuset algorithmique toutes les formes connues d’organisation politique.

Mark Zuckerberg ne cesse de protester ingénument (lui aussi) du fait qu’il n’avait aucune autre intention que celle de lancer un réseau efficace et enrichissant pour les utilisateurs. Il nous semble décidément n’avoir à faire qu’à une humanité exclusivement soucieuse de générosité et de partage. Mais l’histoire de Facebook montre que la bonne intention dérape à un endroit de sa collusion obscure avec l’Autre au cours de son processus de multiplication. N’est-ce pas à juste raison que Zuckerberg ne manque jamais de remercier les utilisateurs de l’avancement de son grand projet universel ?

« À un moment, il [Mark Zuckerberg] décida que le principe universel qui vaut ici, c’est celui de l’acte d’engagement. Ce à quoi nous devrions vraiment prêter attention, ce dont il s’assurera que nous y prêtions attention, ce sont les choses qui génèrent de l’engagement. […] Le behaviourisme est ancré dans Facebook. Facebook n’en a pas fait mystère. Facebook est constamment en train d’ajuster ses algorithmes pour essayer de commuter nos états émotionnels positifs, qu’on appelle habituellement le bonheur. C’est l’une des raisons pour lesquelles Facebook mesure le bonheur du mieux qu’il peut, ou du moins c’est ce que pensent ses administrateurs. Voilà pourquoi ils ont conduit des études sur le changement de l’humeur (et cela leur causa des problèmes). C’est le genre d’ingénierie sociale qu’ils veulent mettre en place. C’est l’une des raisons pour lesquelles ils essayent d’appliquer le principe de mesure hédoniste à toutes les espèces9. »

Or Zuckerberg n’a pas mieux à promettre que ses investissements dans le domaine de la connexion télépathique universelle et la disparition de toutes les maladies de la terre, projets qui en d’autres temps seraient passés pour ceux d’un dangereux psychopathe. Lorsqu’il dévoile son projet d’interface cerveau-ordinateur, qui serait capable de transformer le flux des pensées en données partageables et en interaction directe avec les objets connectés, il n’a aucune raison de douter qu’une telle technologie trouvera des utilisateurs, conformément aux principes qui ont fait leurs preuves jusqu’à présent : « Je suppose que ce serait quelque chose que quelqu’un choisirait d’utiliser comme produit10. » Le fantasme de symbiose technologique tire son ressort de la promesse de surmonter la division du sujet par la fusion de l’environnement et de l’individu – en quoi notre civilisation s’avance dangereusement au bord de l’abîme de la responsabilité. Ceci dit indépendamment de la faisabilité de ce projet, qui reste bien sûr incertaine.

Et tandis que la seule solution, mais la plus improbable d’après certains critiques, serait de quitter massivement Facebook, on argue en face qu’il est peine perdue de quitter Facebook (les données étant récoltées partout ailleurs, autant dire qu’il est trop tard) et qu’on ne voit pas comment garder contact avec famille et amis, organiser un événement d’envergure ou lancer un mouvement contestataire sans un service équivalent à celui de Facebook11. Si une étude déplorait un quart de fermeture de comptes Facebook par les utilisateurs américains lors du deuxième trimestre 2018 (mais seulement environ 1 % de baisse d’utilisation active en Europe), Facebook n’est pas menacé et détient suffisamment d’autres services par ailleurs. Chacun sait que lorsque les utilisateurs sont lassés d’un service, il suffit – c’est de bonne guerre capitaliste – d’en proposer un nouveau. Ce point de fuite est caractéristique d’une incapacité croissante des peuples et des individus à dire non, le refus ponctuel étant de toute façon immédiatement réorienté vers une nouvelle offre. Il faut donc le dire : Mark Zuckerberg a dû répondre des opérations de son entreprise, mais les utilisateurs sont à la fin lavés de toute responsabilité. Eux n’ont que de bonnes raisons, ludiques ou sérieuses, et toujours déclarées « pratiques », de rester utilisateurs d’un réseau qui, en vérité produit une accumulation capitaliste exponentielle grâce à leurs données personnelles et met en œuvre une révolution politique. Or ce n’est pas le règlement général sur la protection des données (RGPD) qui change quoi que ce soit à cette politique ; ce dernier parachève la perversion en permettant la récolte des données… avec votre consentement obligatoire, même si celui-ci est obtenu en un clic négligeant. Même si la case cochée par défaut n’est plus légale, on peut se demander quel utilisateur lit à chaque fois l’intégralité des conditions d’utilisation et s’embête d’un long détour pour refuser son accord. De plus le RGPD ne s’applique qu’en cas d’identification personnelle des données, mais ne s’applique pas à leur recueil anonyme à des fins statistiques (certains types de cookies), ce qui égare l’utilisateur. Il s’ajoute à cela un certain nombre de détournements des conditions d’utilisation qui ont été dénoncées en France par l’association la Quadrature du Net. La tactique du plus malin caractérise le recueil du consentement qui n’est pas du tout aussi « univoque » que le prétend le RGPD. En pratique, c’est une demande fastidieuse répétée à chaque nouveau site, renouvelable régulièrement, soumise à des conditions d’utilisation et à des paramétrages qui n’intéressent pas le profane. Le consentement s’obtient en harassant l’utilisateur par une demande répétée faîte dans des conditions qui dérangent sa navigation. Or le consentement obtenu de cette manière est d’ores et déjà l’argument imparable de Facebook dans les plus récentes accusations de collecte de données qui se poursuivent en contournant le règlement européen par le biais d’applications mobiles, faisant de l’utilisateur un « complice12 » par sa négligence même à vérifier les conditions d’utilisation au moment de l’installation d’une application. Nous retrouvons au cœur de la question de la responsabilité la notion de consentement qui est tout sauf « univoque », contrairement à ce que prétend le RGDP. C’est plutôt en se fondant sur une équivoque fondamentale du consentement que Facebook peut continuer à déployer son modèle commercial. Comment Facebook cesserait-il, du reste, de collecter des données, puisque tout son modèle politique et commercial est bâti là-dessus ? Pourquoi fait-on mine tous les quatre matins de redécouvrir la même chose et de s’en offusquer ? Seule l’interdiction pure et simple de l’utilisation commerciale des données mettrait en péril le monopole, voire l’existence de Facebook. Au risque d’avoir un tiers de l’humanité en révolte pour défendre leur réseau social ?

Le mythe d’un Facebook générateur de rassemblement horizontal et de révolutions sociales (printemps arabes, gilets jaunes) oublie que ces révolutions sont retombées comme des crêpes, débouchant ici sur de nouvelles dictatures, là sur des réclamations populistes qui ne démontrent aucunement la capacité des citoyens à concevoir et organiser une nouvelle société, car une nouvelle organisation demande, comme disaient les surréalistes, de changer la vie et non pas seulement de répandre des mots d’ordre sur les réseaux. On ne pourra changer la vie qu’en reprenant la main sur les circuits de production et de décision politique. La « communauté globale » que promeut Facebook pour faire face aux défis globaux (tels le terrorisme, la crise des réfugiés ou le changement climatique13) ne démontre que l’ambition de son fondateur, pas seulement de renvoyer à la société son miroir supposé, mais aussi d’être à la source d’un changement mégalomane de société auquel chacun de nous a renoncé à toute petite échelle (à l’échelle de changer la vie). C’est ainsi qu’un enchaînement d’effets de masse conduit un fantasme ordinaire (qui ne voudrait sauver le monde ?) mais réprimé vers un effroyable degré de réalisation parfaitement combiné à l’apathie générale. Il repose sur la réorientation de toute activité de changement politique vers une émotion cliquée.

Chacun s’émut d’apprendre que « la démocratie est menacée » lorsqu’une frange d’électeurs fut subrepticement influencée pendant la campagne politique de Donald Trump : mais qui met en doute la psychologie behavioriste rudimentaire qui fonde cette affaire, selon laquelle il suffit d’envoyer un message ciblé à la bonne frange d’électeurs et au bon moment pour faire tourner le vent politique ? L’idée fondamentale est que les électeurs, comme les consommateurs, sont des sortes d’animaux manipulables à volonté, et non des sujets responsables de leur vote, quelque légère ou versatile que soit leur opinion. C’est une vision qui n’est ici pas un instant mise en doute : l’homme est un animal qui répond à des signaux. Il n’est donc pas responsable de ce qu’il fait et il convient uniquement de s’assurer de lui trouver un maître pas trop mauvais ou de vérifier les signaux qui lui sont envoyés, au cas où ils seraient malveillants, racistes, sexistes ou encore simplement faux. Il faut protéger la petite tête influençable du citoyen. Il y a beaucoup plus de souci à se faire sur cette définition animalière de l’homme réagissant au premier stimulus venu (comme si rien ne venait de lui et qu’il n’avait aucune responsabilité dans sa réponse) que sur les politiques d’un Trump ou d’un Zuckerberg qui du reste ont été portés au sommet par les peuples – l’un par le vote politique, l’autre par le vote économique. Deux formes de choix social qui ont bien en commun certains principes et certains paradoxes, notamment celui de ne jamais pouvoir refléter le désir supposé de l’individu, et donc de pouvoir donner lieu à des résultats collectifs aberrants, qui relancent, à rebours, l’insondable question de leur rapport à l’individu. Ce dernier évitera ainsi de se demander ce qu’il a à voir avec un résultat collectif dont il croyait ne pas vouloir. L’individu, citoyen ou utilisateur, préférera rejeter en bloc les élites et les représentants, accusés d’avoir menti sur la marchandise, plutôt que de remonter à la racine du compromis passé avec les forces qui le dépossèdent de son pouvoir d’agir. L’exemple de Facebook et d’autres plateformes à l’ascension fulgurante met en évidence par quel compromis imperceptible nous mettons le pied dans un engrenage qui ne tarde pas à apparaître ensuite comme une machine écrasante sur laquelle l’individu n’a plus aucune emprise. Facebook représente en ce sens le récapitulatif fulgurant de toute l’histoire du capitalisme.


Notes :

1Cet article correspond au treizième chapitre de l’ouvrage paru le 5 décembre 2019, reproduit ici avec de légères modifications avec l’accord de l’éditeur : Sandrine Aumercier, Tous écoresponsables ? Capitalisme vert et responsabilité inconsciente, Libre & Solidaire, 2019.

2Google, Amazon, Facebook, Apple, Microsoft

3Baidu, Alibaba, Tencent, Xiaomi.

4Larry Elliott, « Is it Time to Break Up the Tech Giants Such as Facebook ? », The Guardian, 25 mars 2018.

5Fabien Benoit, « Peter Thiel, l’homme qui voulait achever la démocratie », Usbek et Rica, 17 juin 2018.

6 Olivier Erztscheid, « Pourquoi je ne quitte pas (encore) Facebook », Libération, 24 avril 2018.

7 Ruchi Sanghvi, post Facebook, 06 septembre 2016, cité par Andrea Huspeni, « Mark Zuckerberg Reveals the 5 Strategies that Helped Facebook Grow at an Insane Rate », Entrepreneur, 25 mai 2017.

8Olivier Mongin, « Les préférences révélées et la formation de la théorie du consommateur », in Revue économique, vol. 51, n° 5, septembre 2000.

9Alexis C. Madrigal, « Were We Destined to Live in Facebook’s World ? », Entretien avec Siva Vaidhyanathan, The Atlantic, 24 juillet 2018.

11Brian X. Cjen, « Want to #DeleteFacebook ? You Can Try », New York Times, 21 mars 2018.

12Hatim Boumhaouad, « Exploitation des données personnelles par Facebook : l’usager est-il complice ? », The Conversation, 7 avril 2019.

13Alexis C. Madrigal, « The Education of Mark Zuckerberg », in The Atlantic, 20 novembre 2017.

Demain, l’intelligence artificielle au pouvoir ?

Biohacking : implant de puce sur scène pour créer un cyborg humain

Déploiement de la reconnaissance faciale dans les écoles publiques

Les écoles publiques de l’État australien de Victoria nécessiteront l’approbation des parents, des élèves et du ministère de l’Éducation pour utiliser la technologie de reconnaissance faciale, selon un rapport publié par The Age.

Le ministère de l’Éducation a créé de nouvelles règles après qu’un examen eut révélé que l’utilisation et le stockage de données biométriques présentaient un risque. Le ministre de l’Éducation de Victoria, James Merlino, a critiqué le gouvernement fédéral australien pour avoir octroyé à LoopLearn une subvention de 500 000 $ afin de commercialiser sa solution de reconnaissance faciale pour les écoles.

“Je reste préoccupé par le déploiement de cette initiative. Le fait que Scott Morrison prenne en charge ce système de style Big Brother dans notre salle de classe ne change rien à cela”, déclare Merlino. “Les enseignants sont les mieux placés pour enregistrer l’assiduité des élèves, pas les robots.”

Le consentement à l’utilisation de la reconnaissance faciale doit être explicite et éclairé, et le ministère de l’Éducation n’accordera sa bénédiction à aucun déploiement qu’une fois que l’école aura procédé à une évaluation rigoureuse de la protection de la vie privé, selon le rapport.

La technologie de LoopLearn est en cours d’essais dans des écoles privées victoriennes. Des essais avaient été prévus pour des écoles publiques, mais ces projets pilotes ont été sabordés. La start-up basée à Melbourne affirme que son service permet aux enseignants d’économiser jusqu’à 2,5 heures par semaine, soit 30 minutes par jour, en supprimant la nécessité pour eux de prendre les présences.

Les images des élèves sont supprimées après la mise en correspondance et la société a suivi les instructions du département pour les écoles, selon Zoe Milne, cofondatrice de LoopLearn.

“Après avoir suivi ce processus à plusieurs reprises, nous n’avons pas encore trouvé de parent qui se sent mal à l’aise avec LoopLearn après avoir expliqué les protections et la confidentialité du système, ainsi que les avantages importants que notre technologie apporte pour garantir la sécurité de leurs enfants” déclare Milne.

Le Commissaire aux informations de l’État, Sven Bluemmel, avait précédemment déclaré à The Age que la perte de la vie privée l’emportait sur les avantages de la technologie, en demandant : “Voulons-nous que nos enfants se sentent comme s’il était normal d’être constamment surveillés ?”

The Age, The Australian Financial Review, Herald Sun, Startup daily

Google, Apple, Facebook : les nouveaux maitres du monde

Ils s’appellent Bill Gates, Mark Zuckerberg, Sergey Brin ou encore Larry Page : ces Américains, dont certains n’ont pas encore 40 ans, comptent parmi les hommes les plus riches et les plus puissants de la planète. Leurs points communs ? Ils ont créé le monde d’aujourd’hui grâce à une révolution technologique sans précédent : Internet et les réseaux sociaux. Anciens ados visionnaires devenus les dirigeants des plus grandes entreprises du secteur – Google, Facebook, Apple, Microsoft –, ils possèdent aujourd’hui un pouvoir d’un genre nouveau. Celui de contrôler les communications de toute la planète et de stocker les informations privées de tout un chacun. Un pouvoir très convoité, qui a pu les entraîner parfois dans des liaisons dangereuses avec les services secrets ou les gouvernements, notamment américains.

Ce documentaire raconte l’épopée de ces hommes souvent en marge de leurs contemporains mais qui ont réussi à changer le monde à grands coups de projets dignes de la science-fiction et qui, aujourd’hui, sont devenus plus forts que les États. Jusqu’où va le pouvoir des géants du numérique ?


Google gagne un procès pour sa technologie de reconnaissance faciale

Les entreprises de technologie peuvent désormais être plus libres pour utiliser la technologie de reconnaissance faciale sans votre consentement.

Google a remporté une victoire juridique lui permettant de surveiller de près les utilisateurs de ses produits.

Un juge du district américain de Chicago a rejeté une action en justice intentée contre le géant de l’Internet, alléguant que Google avait violé le droit des utilisateurs à la vie privée en utilisant une technologie de reconnaissance faciale sans leur consentement. (Rivera v. Google, 16-cv-02714, U.S. District Court, Northern District of Illinois (Chicago)).

La poursuite, initialement engagée en 2016, résultait de la loi sur la confidentialité des informations biométriques de l’Illinois, l’une des lois de sécurité biométrique les plus strictes du pays. Les entreprises de technologie doivent obtenir l’autorisation explicite des citoyens de l’Illinois pour pouvoir effectuer des analyses biométriques de leurs corps.

La loi impose des défis similaires à Facebook et à Snapchat, mais la victoire de Google pourrait ouvrir une nouvelle ère dans l’utilisation et le développement de la technologie de reconnaissance faciale.

Le juge Edmond E. Chang a cité l’absence de «préjudice concret». Sur le plan juridique, il s’agit d’un préjudice physique ou contraire à la réputation d’une personne. En résumé, la conclusion de Chang était que, bien que ne demandant pas la permission, l’utilisation des photos du demandeur par Google n’entraînait pas de préjudice physique ni d’atteinte à leur réputation et était donc légale.

Les poursuites contre Facebook et Snapchat sont toujours en cours, mais la victoire de Google pourrait fournir aux avocats des munitions pour la défense des deux autres géants de la technologie.

Big Brother

La technologie de reconnaissance faciale peut être au centre des débats de plus en plus courants sur l’intersection des technologies de pointe et des droits à la vie privée. Néanmoins, le développement se poursuit malgré les imperfections de la technologie et les avertissements d’autres dirigeants techniques qui appellent à des directives juridiques plus strictes.

2024 pourrait devenir 1984 sans réglementation biométrique

La technologie de reconnaissance faciale devient de plus en plus courante dans la vie quotidienne, dans les aéroports et même dans les concerts. Pourtant, alors que nous continuons à décider qui a quel droit sur nos données et pourquoi, les grandes entreprises de technologie agissent rapidement pour décider de leur avenir.

Bloomberg, The Verge

Pour une éthique de la recherche en IA à l’échelle mondiale

Ces dernières années les progrès ont été spectaculaires en matière d’intelligence artificielle et donnent lieu à des inventions qu’on n’aurait pas pensées possibles. Ordinateurs et robots sont capables d’apprendre à améliorer leur travail et même de prendre des décisions – ce qui se fait bien entendu par le truchement d’un algorithme et sans conscience individuelle. Mais, tout de même, on ne peut manquer de se poser des questions. Est-ce qu’une machine peut penser ?

De quoi est capable l’intelligence artificielle au stade actuel de son évolution ? Jusqu’où va son autonomie ? Qu’en est-il de la décision humaine ?

Plus qu’une quatrième révolution industrielle, l’intelligence artificielle est en train de provoquer une révolution culturelle. Elle est indéniablement appelée à transformer notre futur, mais nous ne savons pas encore de quelle façon. C’est pourquoi elle fascine et effraie.

Le Courrier a mené l’enquête et présente au lecteur ce qu’il faut retenir de ce nouvel objet de recherche qui se situe à la frontière de l’informatique, de l’ingénierie et de la philosophie. Au passage, il remet quelques pendules à l’heure. Car, soyons clairs, en l’état actuel des choses l’intelligence artificielle ne pense pas. Et nous sommes très loin de pouvoir télécharger toutes les composantes d’un être humain dans un ordinateur !

Un robot obéit à un ensemble de routines qui permettent son interaction avec nous autres humains mais, pour autant, en-dehors du cadre bien précis au sein duquel il est censé interagir, il ne peut pas nouer de véritable relation sociale.

Qui a besoin de la démocratie quand on a des données ?

Il n’empêche que, d’ores et déjà, certaines des applications de l’intelligence artificielle sont contestables : collecte de données qui empiètent sur la vie privée, algorithmes de reconnaissance faciale supposés identifier des comportements hostiles ou imprégnés de préjugés raciaux, drones militaires et armes létales autonomes… Les problèmes éthiques que l’intelligence artificielle soulève et ne manquera pas de poser demain – avec une gravité accrue – sont nombreux.

Tandis que la recherche avance à toute allure, pour ce qui est des aspects techniques de l’intelligence artificielle, elle piétine, quand il s’agit de ses aspects éthiques. Certes, de nombreux chercheurs s’en inquiètent et certains pays ont entamé une réflexion sérieuse sur la question, mais aucun cadre légal n’existe à ce jour pour orienter la recherche future à l’échelle mondiale.

« Il est de notre responsabilité de mener un débat universel et éclairé, afin d’entrer dans cette nouvelle ère les yeux grands ouverts, sans sacrifier les valeurs qui sont les nôtres, et permettre d’aboutir à un socle commun de principes éthiques », déclare dans ce numéro du Courrier la Directrice générale de l’UNESCO, Audrey Azoulay (voir pp. 36-39).

Un instrument normatif international est indispensable au développement responsable de l’intelligence artificielle : une tâche à laquelle l’UNESCO est en train de s’atteler et que ce numéro du Courrier s’efforce de soutenir, en proposant des pistes de réflexion.

Le Courrier de l’UNESCO • juillet-septembre 2018

Intelligence artificielle: promesses et menaces

[su_document url=”https://iatranshumanisme.com/wp-content/uploads/2018/10/265211f.pdf” width=”840″ height=”800″]

Prédire les crimes

Des programmes informatiques sont aujourd’hui capables d’anticiper la survenue d’actes criminels.

Une aide précieuse pour la justice ou un risque réel pour nos libertés ?

Un logiciel capable de prédire le lieu et l’instant où un individu s’apprêtera à commettre un délit ne relève plus de la science-fiction. Dans certaines villes comme Chicago, Londres ou Munich, ces programmes sont en effet devenus réalité. Accompagnant l’évolution des sociétés modernes vers le tout-sécuritaire, la police expérimente de plus en plus ces nouveaux outils technologiques. Grâce à un algorithme capable d’analyser l’énorme masse de données personnelles que nous produisons et laissons en permanence sur le numérique, ces logiciels spécialisés peuvent en effet établir des listes d’individus susceptibles d’être mêlés à des actes répréhensibles.

Mais l’utilisation des nouvelles technologies à des fins prédictives pose un grand nombre de questions éthiques et morales. Sommes-nous prêts à abandonner notre liberté au nom de la sécurité ? Peut-on réellement faire confiance à un algorithme pour trier les individus et déterminer aujourd’hui qu’ils deviendront des criminels demain ? Fascinant et glaçant, ce documentaire part à la rencontre de professionnels qui utilisent déjà ces méthodes, mais donne également la parole à des victimes de ces logiciels, citoyens sans histoires que les ordinateurs ont identifiés un jour comme de potentiels criminels.

Hitachi : une IA capable de prédire les crimes avant qu’ils se produisent
On en sait plus sur les algorithmes de Palantir. Le département de police de Los Angeles a une nouvelle formule de surveillance, alimentée par Palantir
Des projets Chinois à la Minority Report utiliseront l’IA pour prédire des crimes
Tout votre historique de navigation sur Internet est maintenant en vente

Palantir Technologies

Palantir Technologies Inc. développe et construit des plates-formes de fusion de données pour l’intégration, la gestion et la sécurisation de tout type de données à grande échelle. Il propose Palantir Gotham, une plate-forme pour intégrer, gérer, sécuriser, et analyser les données de l’entreprise; et la plate-forme Palantir Metropolis pour enquête quantitative à grande échelle qui intègre à travers de multiples sources de données, rassemblant des informations disparates dans un environnement unifié d’analyse quantitative. La société apporte une réponse contre la fraude, marchés de capitaux, gestion de cas, intervention de crises, cyber-sécurité, défense,  préparation aux catastrophes, intervention de la maladie, livraison de soins de santé, menaces internes, analyse d’assurance, intelligence/renseignement, application de la loi, veille juridique, palantir verus, pharma R & D, supervision de trader et des solutions personnalisées.

L’entreprise travaille pour la communauté du renseignement des États-Unis, notamment pour la NSA, la CIA et le FBI, ainsi que pour différents acteurs du système de défense américain, comme les US Marines, l’US Air force et les Opérations spéciales. Elle s’est diversifiée dans les secteurs de la finance, de l’assurance, de la santé et des biens de consommation courante. Elle met par ailleurs sa technologie à disposition d’ONG comme Community solutions.

La société a été constituée en 2003 et est basée à Palo Alto, en Californie. Elle fait partie des valeurs sures de la Silicon Valley. Depuis sa création, l’entreprise a levé en tout et pour tout 2,3 milliards de dollars et sa valorisation pourrait prochainement atteindre 20 milliards de dollars. Parmi les investisseurs figure la CIA, qui y a injecté 2 millions de dollars au moment de son lancement. L’agence centrale de renseignement est alors séduite par le projet de Palantir : utiliser les algorithmes informatiques afin de déjouer d’éventuelles attaques terroristes. (ndlr)

Le cofondateur de Palantir, Peter Thiel, est également le co-fondateur de PayPal.

pour en savoir plus : Techcrunch

L’algorithme PredPol

PredPol est basé sur une décennie de recherches académiques détaillées sur les causes de la formation de schémas criminels. Cette recherche a permis de relier plusieurs aspects clés du comportement des délinquants à une structure mathématique utilisée qui permet de prédire l’évolution des schémas criminels au jour le jour. Qu’est-ce que PredPol et ce que PredPol n’est PAS ?

Pour en savoir plus : The PredPol Algorithm

Qui a besoin de la démocratie quand on a des données ?

Adrien Basdevant : Nos données valent de l’or

Quel est le point commun entre notre ordinateur, notre téléphone portable, notre carte de transport ou encore les réseaux sociaux ? Ils fournissent tous des données sur nous et sur nos habitudes. Le traitement des données, personnelles mais aussi industrielles et financières, est l’un des enjeux du siècle. Il existe même un marché secondaire de données, licite ou illicite.

L’Empire des données