iHuman – L’intelligence artificielle et nous

L’intelligence artificielle va-t-elle remplacer l’humanité ?

Credit : https://upnorthfilm.no/film/ihuman/

Ce documentaire prend la mesure de l’emprise des algorithmes sur nos vies.

“La création d’une intelligence artificielle serait le plus grand événement de l’histoire de l’humanité. Mais il pourrait être aussi le dernier”, disait Stephen Hawking. Le célèbre cosmologiste avait prévu la croissance infinie de l’informatique mais partageait avec certains pionniers la crainte qu’elle ne devienne incontrôlable. Aujourd’hui, l’IA promet d’aider à guérir des maladies, de faire face aux changements climatiques ou de combattre la pauvreté. Mais elle menace aussi d’influer insidieusement sur nos comportements, de mettre à mal l’idée même de sphère privée ou d’aider les dictatures à asseoir leur pouvoir. En proie à une surveillance algorithmique, notre identité peut dorénavant se réduire… à des données.

Toute-puissance

L’IA sera vite dépassée. On parle aujourd’hui d’une intelligence artificielle générale (IAG), capable de s’adapter et d’apprendre seule, qui égalerait, voire dépasserait les capacités humaines. De quoi allécher les firmes qui font commerce des données numériques (les célèbres GAFAM). Le documentaire dresse l’état des lieux de l’IA en donnant la parole à ceux qui en débattent (sociologues, avocats des droits de l’homme, scientifiques ou journalistes d’investigation) mais aussi à ceux qui l’inventent, comme Jürgen Schmidhuber et Ilya Sutskever, deux grands chercheurs et initiateurs, à la posture ambivalente : conscients de la toute-puissance de leur création mais déterminés à poursuivre leurs travaux.


Source

La Chine est en train de bâtir une base de données génétiques sur chaque homme du pays

Surveillance génomique

La police chinoise recueille des échantillons de sang auprès des quelque 700 millions d’hommes et garçons du pays – dans le but exprès de constituer une base de données génétiques nationale de leur ADN.

Le gouvernement chinois collecterait ces codes génétiques depuis 2017, selon de nouvelles recherches. La police se rend chez les gens et même dans les écoles pour faire des prises de sang et compiler des informations génétiques.

Une fois que ce travail sera terminé, l’État sera en mesure de traquer les hommes ou les jeunes garçons de la famille en se basant sur leurs gènes, selon le New York Times, ce qui renforcera considérablement les pouvoirs de surveillance déjà omniprésents de la Chine et en fera un panoptique génétique de type Gattaca.

Plus alarmant encore, une société américaine, Thermo Fisher, aide la Chine dans cette tâche – la société pharmaceutique a vendu à la Chine les kits de tests ADN sur mesure que la police utilise pour collecter des échantillons après avoir négocié activement le contrat, rapporte le NYT. Après que le gouvernement américain ait critiqué la décision de Thermo Fisher, la société a poursuivi ses activités.

Les responsables politiques en Chine invoquent la loi et l’ordre pour justifier la croissance de leur base de données génétiques, en faisant valoir que l’effort de surveillance aidera les enquêtes criminelles. Mais les défenseurs des droits de l’homme – et même certains fonctionnaires en Chine – s’inquiètent des conséquences sur la vie privée en forçant tout le monde à donner son code génétique.

« La capacité des autorités à découvrir qui est le plus intimement lié à qui, étant donné le contexte de la répression exercée sur des familles entières en raison de l’activisme d’une personne, va avoir un effet effrayant sur la société dans son ensemble », a déclaré Maya Wang, chercheuse de Human Rights Watch, au NYT.

Une fois que la Chine aura atteint les 70 millions d’échantillons, soit dix pour cent de la population masculine du pays, elle sera théoriquement en mesure de relier toute personne du pays à ses proches sur la base de son ADN.

Les scientifiques s’insurgent contre la collecte d’ADN de la Chine

Selon Nature News, des scientifiques et des militants font maintenant pression contre ce plan qui, selon eux, permettrait à la Chine de violer les droits de l’homme et de persécuter sa population.

“Vous pouvez penser à des pratiques abusives si vous êtes créatif”, a déclaré Itsik Pe’er, biologiste en informatique de l’université de Columbia, à Nature News. “La police fait ce qu’elle veut.”

Le ministère chinois de la sécurité publique n’a fait aucun commentaire sur la manière dont la base de données génétiques va être utilisée – ou si l’on peut craindre des abus dépassant le cadre des enquêtes criminelles.

Mais même si les données génétiques sont utilisées exactement comme on le prétend, cela expose les populations, en particulier les groupes minoritaires, au risque de violence étatique. Au lieu de traquer des criminels, les experts avertissent que cela renforcera la capacité de la Chine à surveiller sa population et à écraser la dissidence.

“Cette collecte n’a rien à voir avec le crime”, a déclaré Maya Wang, chercheuse à Human Rights Watch basée à Hong Kong, à Nature News, “elle porte sur l’oppression”.

Voici une avalanche d’applications coronavirus qui traquent vos mouvements

Alors que la pandémie de covid-19 fait rage, les technologues du monde entier se sont empressés de créer des applications, des services et des systèmes pour tracer les contacts : identifier et notifier tous ceux qui entrent en contact avec un porteur. Certaines sont légères et temporaires, tandis que d’autres sont envahissantes et invasives. Certains services sont produits localement par de petits groupes de codeurs, tandis que d’autres sont de vastes opérations mondiales.

Malgré l’avalanche de services, nous en savons très peu sur eux ou sur la manière dont ils pourraient affecter la société. Quelle est l’ampleur de leur utilisation pour réussir ? Quelles données vont-elles être collectées et avec qui sont-elles partagées ? Comment ces informations seront-elles utilisées dans le futur ? Des mesures ont-elles été mises en place pour prévenir les abus ? Il n’y a pas toujours des réponses claires. Les citoyens de différents pays observent des niveaux de surveillance et de transparence radicalement différents.

Pour aider à surveiller cette situation qui évolue rapidement, une équipe du MIT a lancé le Covid Tracing Tracker – une base de données permettant de recueillir les détails de toutes les applications. A ce jour, 23 sont documentées. La base sera mise à jour au fur et à mesure.

La plupart des applications de traçage automatique des contacts n’utilisent pas l’IA. Elles s’appuient plutôt sur le Bluetooth, un signal sans fil de faible puissance qui peut mesurer (dans une certaine mesure) si deux propriétaires de téléphone ont été en contact.

Mais l’IA est fortement liée à des discussions sur le traçage des contacts, de deux manières importantes. D’une part, l’IA pourrait potentiellement aider ces applications à mieux protéger la vie privée des gens. D’autre part, elle pourrait également exposer davantage la vie privée, si elle était utilisée pour analyser les données collectées et extrapoler des informations personnelles comme le sexe ou le statut socio-économique qu’ils n’avaient pas l’intention de partager.

Liberté, Égalité, Singularité

À l’heure de la globalisation, les frontières ne disparaissent pas qu’entre les pays. Longtemps confinée aux domaines de la science, de l’industrie et du divertissement, la technologie envahit désormais des territoires considérés jusque-là comme essentiellement humains : les relations intimes, la psychologie, l’art, l’éducation et même… la politique. La conquête se fait sur plusieurs fronts simultanément : la sécurité, l’économie, le droit, l’environnement, la santé, mais aussi sur le plan électoral lui-même, et tout cela à grand renfort de big data. Cette évolution, qui soulève pourtant de nombreuses questions éthiques, ne semble pas inquiéter les citoyens et les citoyennes de nos chères démocraties, probablement usées par des décennies de scandales et de crises à répétition. En effet, dans un sondage réalisé le 21 mars 2019 par l’Université IE de Madrid, on apprend que « 25% des Européens seraient prêts à laisser des algorithmes gouverner plutôt que des hommes politiques pour prendre les bonnes décisions (…) Un chiffre qui monte à 30% en Allemagne, en Italie, en Irlande, au Royaume-Uni et même à 43% aux Pays-Bas »… Saint George (Orwell), priez pour nous.

Big data, big brother, big control

Les temps changent et, avec eux, les pratiques politiques. Enfin, les outils évoluent, mais les objectifs des puissants restent, eux, désespérément identiques au fil des siècles. Parmi ces objectifs, la clé de voûte du pouvoir : le contrôle. Et c’est ce que le big data permet aujourd’hui, dans des proportions inédites. Nous sommes scrutés sous toutes les coutures, nos actions sont observées, mesurées et enregistrées sans que nous en ayons conscience : caméras de surveillance dans les rues, reconnaissance faciale, géolocalisation, analyse de nos habitudes de consommation via nos cartes de paiement, de nos préférences culturelles et de nos orientations politiques sur les réseaux sociaux… Nous savons même désormais avec certitude que nous sommes écoutés par nos téléphones portables, nos tablettes et nos ordinateurs. Bien sûr, pour le moment cette collecte de données se fait officiellement à titre anonyme et pour des motivations commerciales. Mais il est clair que leur exploitation ne se limite pas à un usage mercantile et que ces pratiques ont d’ores et déjà des visées politiques, comme l’a démontré récemment le scandale Cambridge Analytica. Ajoutons à ce tableau le développement de nouvelles techniques comme le facial coding, qui consiste à décrypter les émotions sur le visage d’une personne, ou encore le déploiement du nudge, discipline qui vise à influer sur le comportement du consommateur (ou de l’électeur) par des moyens subtils et donc à guider sournoisement ses choix, et nous voyons se dessiner les contours d’une société où les notions de vie privée et de liberté ne seront bientôt plus qu’un lointain souvenir. Or, cette liberté est l’un des fondements de la démocratie et si les avancées technologiques la mettent en péril, alors il ne s’agit plus de progrès, mais d’une terrible régression. Le journaliste et essayiste Philippe Vion-Dury, auteur de La nouvelle servitude volontaire, le confirme : « Les entreprises de la Silicon Valley sont porteuses d’un véritable projet politique. Leurs algorithmes mettent sous leur coupe ceux qui s’y soumettent, volontairement. Aveuglant les consommateurs et les États par l’éclat de leur spectaculaire réussite économique, ces entreprises sont en train d’accumuler des sommes incalculables de données, grâce auxquelles elles ambitionnent de tout mesurer, tout contrôler, tout prévoir. Ou quand les mathématiques deviennent totalitaires. »

Power of equality

Les algorithmes sont-ils égalitaires, par nature ? Dans un rapport de la Human Technology Fondation intitulé « Intelligence artificielle, solidarité et assurances en Europe et au Canada » et daté du 20 janvier 2020, des acteurs majeurs du monde de l’assurance dressent un constat clair : « La montée en puissance des technologies et de l’IA nous force à réfléchir à ces pratiques et à leur futur. Ainsi, le recours, par les assureurs, aux objets connectés qui fournissent des informations précieuses sur le comportement de l’assuré, peut entrer en conflit avec le droit fondamental des personnes de mener leur existence selon leur propre conception de la vie bonne. En outre, l’hypersegmentation, qui aboutirait, à son point limite à la personnalisation complète des tarifs, pourrait remettre en question le principe de mutualisation entre les assurés. » En d’autres termes, l’IA et le big data pourraient accroître les inégalités en faisant payer davantage les citoyens dont on jugera le mode de vie « non conforme ». Les algorithmes pourraient devenir, si l’on n’y prend garde, des outils au service d’une discrimination sans précédent. Et ce qui est valable dans le monde de l’assurance, l’est tout autant dans les domaines de la culture, de l’éducation, de l’orientation religieuse, politique ou même sexuelle… Qui établira ce qui est conforme et ce qui ne l’est pas ? Quels seront les intérêts défendus par les instances en charge de telles décisions ? C’est là que l’État, en tant que représentant de l’intérêt général, a plus que jamais son rôle à jouer. Oui, mais voilà… Pour certains militants radicaux de la big tech, l’État, c’est justement la bête à abattre. Curtis Yarvin, ingénieur quadragénaire de la Silicon Valley et membre du mouvement néo-réactionnaire NRx, déclare : « Les États doivent devenir des entreprises lourdement armées et ultra rentables, qui aboliront le pouvoir de la presse, écraseront les universités, vendront les écoles publiques et transféreront les « populations décivilisées » dans des enclaves sécurisées pour les rééduquer ». Pour David Golumbia, professeur à la Virginia Commonwealth University, ce mépris pour la démocratie ferait partie de l’ADN même des fondateurs de la Valley : « Des gens comme Peter Thiel ou Elon Musk, pour ne citer qu’eux, dont le mépris est encore plus flagrant, sont célébrés comme des héros par les néo-réactionnaires ». Derrière les outils technologiques, il est donc bien question d’idéologie politique.

Make America tech again

Comme tout courant de pensée, l’idéologie techno-futuriste a ses penseurs. D’aucuns diraient ses gourous. Malgré une posture anti-politique de façade, certains ne cachent pas leurs ambitions dans ce domaine, à l’instar de Peter Thiel. Le cofondateur de Paypal et de Palantir Technologies, une société spécialisée dans le big data, a soutenu la candidature de Donald Trump à la présidentielle américaine de 2016 et est resté, depuis, l’un de ses proches conseillers. Pour le très libertarien Thiel, « le sort de notre monde dépend d’un seul individu, d’une personne, qui sera capable de bâtir et diffuser des outils technologiques favorisant la liberté et permettant un monde plus sûr pour l’épanouissement du capitalisme »… Cette personne serait-elle Elon Musk ? Avec son entreprise Neuralink, le patron de Tesla entend augmenter l’être humain grâce à des interfaces homme-machine implantées directement dans le cerveau et ce, afin d’augmenter la mémoire, de piloter des logiciels par la pensée ou encore de bénéficier d’un moteur de recherche cérébral… De quoi donner des sueurs froides à la CNIL, dans une France encore très attachée à la protection des données et aux libertés individuelles. Catherine Vidal, neurobiologiste et membre du comité d’éthique de l’Inserm, estime qu’« une vigilance éthique accrue s’impose face au développement spectaculaire des technologies de manipulations cérébrales qui dépassent désormais le cadre de la médecine, avec des applications commerciales destinées à la population en bonne santé (…) Les stimulations (électriques ou magnétiques) peuvent altérer le fonctionnement normal du cerveau, ses capacités de plasticité, et porter atteinte à l’autonomie du patient en interférant avec ses pensées, ses émotions, son libre arbitre ». Mais si la plupart des chercheurs français se montrent prudents quant à l’impact des neurotechnologies sur la société, les américains sont plus décomplexés, voire carrément débridés. Parmi eux, le pape transhumaniste Ray Kurzweil qui considère que « l’existence humaine ne dépend pas d’un corps biologique » et que « la biologie elle-même n’est qu’un ensemble de nanomachines ». Pour le directeur de l’ingénierie de Google, « les machines dépasseront nos capacités » très bientôt et nous n’aurions d’autres choix, pauvres humains limités que nous sommes, que de fusionner avec une super intelligence artificielle pour survivre. Une vision que partage le leader du parti transhumaniste Zoltan Istvan, candidat aux élections présidentielles de 2020, qui fait campagne « pour mettre fin à l’idée de la mort ». Dans son programme, quelques grands classiques ultralibéraux et technophiles : fin de l’impôt sur le revenu et de l’IRS (l’administration fiscale américaine), réduction du nombre de fonctionnaires grâce aux robots et aux nouvelles technologies, lutte contre le réchauffement climatique avec la géo-ingénierie, développement des utérus artificiels… Mais aussi, en toute logique, des mesures orientées plus radicalement vers le transhumanisme. « Le gouvernement ne devrait pas être en mesure de limiter ce que nous pouvons faire à notre corps, quelles que soient les normes culturelles, les préjugés religieux ou l’orientation politique », déclare le candidat sur son site de campagne. Si Istvan souhaite accéder à la fonction suprême, c’est pour « interdire les lois qui entravent la recherche de la santé et de la longévité pour les citoyens, notamment les interdictions sur l’édition génétique, le clonage et d’autres sciences radicales (…), déréglementer autant que possible l’innovation scientifique et technologique (…), explorer des options telles que donner aux criminels le choix du reconditionnement cérébral plutôt que de l’exécution (…), jeter les bases de droits civils pour de futurs êtres avancés comme les robots conscients, les cyborgs et les êtres vivants génétiquement créés »… Le Docteur Frankenstein est sorti de son laboratoire pour convertir le monde à la religion scientiste. Le président américain ne prêtera-t-il bientôt plus serment sur la Bible lors de son investiture, mais sur l’ouvrage du médecin philosophe Julien Offray de La Mettrie, L’Homme Machine ? Amérique, pays de tous les extrêmes.

Opération Crossroads 2020

« Il est évident que la guerre, peut-être même les civilisations, sont arrivées à un point critique grâce à cette arme révolutionnaire ». Telles sont les paroles du vice-amiral William Blandy, chef de l’opération Crossroads (« À la croisée des chemins »), une série d’essais nucléaires qui eurent lieu dans l’atoll de Bikini, au cours de l’été 1946, et dont le but était de valider la puissance destructrice des bombes A sur des navires et des sous-marins situés aux alentours. À la croisée des chemins, c’est probablement là que nous nous situons actuellement, avec le développement spectaculaire des neurotechnologies, de l’intelligence artificielle et du transhumanisme. Les enjeux de ces progrès sont, tout comme ceux liés à l’invention de la bombe atomique, planétaires et historiques. Nous parlons bel et bien ici, sans exagération, de l’avenir de l’humanité. À nos pieds, s’étendent deux voies, deux visions politiques, deux futurs possibles. L’une de ces routes nous mènerait vers un monde imprégné de scientisme, dans lequel la technologie serait mise au service d’une minorité recherchant toujours plus de richesses et de pouvoir, au détriment d’une population de plus en plus déclassée et soumise. Laurie Pycroft, chercheur en neurochirurgie à l’Université d’Oxford, analyse parfaitement ce risque : « Des neurotechnologies de pointe dont l’usage serait large pourraient offrir des modes de manipulation politique inimaginables jusqu’ici (…) Ce qui nous inquiète, c’est que si les mesures de sécurité appropriées ne sont pas mises en place, les patients pourraient être victimes de sévères effets secondaires, et leurs pensées pourraient être ciblées par des cyberattaques (…)L’attraction que pourrait générer la manipulation des souvenirs chez certains dirigeants politiques me semble évidente ! Modifier la mémoire ou changer notre point de vue sur un sujet est l’un des principaux objectifs de n’importe quel propagandiste. » Si le corps a déjà commencé à être envahi par la société de consommation, à travers la chirurgie esthétique et le transhumanisme, la conscience était restée jusque-là un territoire imprenable. Mais aujourd’hui, ce dernier bastion de la liberté humaine est menacé et pourrait bien être colonisé avec une efficacité redoutable, si nous n’y prenons pas garde. Les capitaines de la big tech eux-mêmes multiplient les déclarations chocs, comme pour se préserver de leur propre hubris. Brad Smith, le président de Microsoft, déclarait en 2018 au Web Summit de Lisbonne : « Pour la première fois, le monde est au seuil de technologies qui donneraient à un gouvernement la possibilité de suivre n’importe qui, n’importe où (…) Il pourrait savoir exactement où vous allez, où vous êtes allé et où vous étiez hier. Et cela a de profondes ramifications potentielles, même pour les libertés civiles fondamentales sur lesquelles reposent les sociétés démocratiques. Avant de nous réveiller et de constater que l’année 2024 ressemble à l’ouvrage « 1984 », déterminons le genre de monde que nous voulons créer, quels sont les garde-fous et les limites des entreprises et des gouvernements dans l’utilisation de ces technologies. » Nous devons, en effet, déterminer le monde dans lequel nous voulons vivre. La crise du Covid-19 nous le rappelle de manière brutale : le marché et ses lois ne nous guident pas vers un monde meilleur, et aujourd’hui sa main invisible doit être désinfectée chaque jour avec du gel hydroalcoolique, sous peine de mort. Pourtant, certaines autorités tentent actuellement de renforcer leur pouvoir – et celui de l’économie néolibérale – en proposant des mesures radicales de surveillance numérique, au prétexte de vouloir protéger les populations… Mais gardons espoir, car il existe une deuxième voie. Nous pouvons bâtir un autre avenir, un monde dans lequel la technologie ne tiendra pas un rôle oppressif, mais libérateur. Une société low tech où le numérique régulera la surconsommation, au lieu de l’aggraver ; où la technologie apportera un soutien à chaque citoyen, quel que soit son niveau social ; où la priorité ne sera pas la rentabilité d’un médicament, mais son efficacité ; où l’épanouissement des salariés prévaudra sur le niveau des dividendes ; où les tâches pénibles et dangereuses seront assurées par des robots, au bénéfice de l’homme ; où les solutions énergétiques durables ne seront pas enterrées parce qu’elles menacent les intérêts de certaines industries polluantes ; où chaque être humain mangera à sa faim, où qu’il soit sur Terre ; où le besoin de sécurité ne sera pas assuré par des politiques de surveillance liberticides, mais par la disparition des inégalités… Un nouvel Éden, où le progrès technique sera au service de l’humanité tout entière. Cette société est possible, ce n’est pas une utopie. Mais pour la faire advenir, nous avons des choix à faire. Des choix politiques, au sens le plus philosophique du terme.

In Google We Trust

Depuis son adoption par le Congrès en 1956, « In God We Trust » (« Nous avons confiance en Dieu ») est devenue la devise officielle des États-Unis. Quelle ironie de voir une nation qui a fondé ses valeurs sur la foi religieuse, devenir le fer de lance de la foi transhumaniste et promettre à qui veut l’entendre, par la bouche de ses techno-prophètes, que l’immortalité numérique est pour bientôt ! C’est justement là qu’une réflexion philosophique s’impose. Paradoxalement, l’intelligence artificielle, aboutissement ultime du matérialisme, va nous obliger à nous poser des questions d’ordre spirituel. Rappelons que la singularité annoncée par Ray Kurzweil, ce moment où l’intelligence artificielle dépassera l’intelligence humaine et où son développement échappera à tout contrôle, a son équivalent en mathématiques et en astrophysique : il s’agit de la frontière d’un trou noir, appelé « horizon des évènements », au-delà de laquelle les lois de la physique ne s’appliquent plus, une réalité littéralement métaphysique. Et c’est l’ultime raison pour laquelle le politique doit s’emparer des questions soulevées par la big tech : pour ne pas laisser ce qui relève de la pérennité de l’humanité aux seuls industriels, dont les choix sont encore trop dictés, aujourd’hui, par des objectifs uniquement financiers. L’humanité est, nous le pressentons tous, à un tournant de son histoire. Il se pourrait que, demain, de nouvelles découvertes scientifiques sur la conscience changent complètement la donne et redéfinissent les priorités de la recherche, autant que la vision que nous avons de la vie elle-même… Que deviendraient les promesses des transhumanistes et leur obsession de « guérir la mort », si nous découvrions que nous avons une âme et qu’elle existe dans une autre dimension ? Zoltan Istvan a-t-il envisagé cette possibilité ? Ray Kurzweil en a-t-il tenu compte dans son business plan ? Qu’elle soit spirituelle ou technologique, la singularité à venir ne peut, par définition, pas être anticipée. Mais une chose est sûre, elle sera le résultat des intentions que nous aurons déposées, aujourd’hui, collectivement, pour la construction de notre futur. Citoyennes, citoyens, nous sommes à la croisée des chemins.

Grégory Aimar
Auteur du roman d’anticipation I.AM

L’initiative CovidIA pour dé-confiner grâce à l’IA

Un groupe de médecins propose de recourir à l’intelligence artificielle pour sortir de la période de confinement en France, sans courir le risque de réactiver l’épidémie de Covid-19 – selon un article paru dans l’hebdomadaire Journal du Dimanche.

Selon les signataires, il existe plusieurs scénarios de sortie de confinement. Pour eux, la stratégie de suspension de la mise en quarantaine pour l’ensemble de la population exposerait au virus ceux qui ne sont pas encore tombés malades, au risque de déclencher une “deuxième vague de pandémie”. Une autre stratégie est basée sur le contrôle de la population, à travers des applications mobiles, comme cela se fait dans les pays asiatiques, pour confiner les malades et ceux qui ont été en contact avec eux.

Selon ces médecins, ce modèle ne convient pas à la France et peut se heurter à la résistance de la population. Ils préconisent l’utilisation de l’Intelligence Artificielle, à travers une initiative appelée CovidIA, qui “appliquerait des modèles d’Intelligence Artificielle basés sur des hypothèses initiales sur la maladie” et des résultats de tests, combinés avec “des données de géolocalisation contenues dans les téléphones portables, de manière contrôlée. Les données seraient transmises de manière anonyme”.

Ils affirment que cette méthode peut conduire à des “prédictions de plus en plus fiables”. Dans ce contexte, ils demandent “aux autorités que de manière temporaire et contrôlée, des données de santé et certaines données des opérateurs mobiles soient mises à disposition, après anonymisation et cryptage, sur la base du volontariat, le tout contrôlé par la CNIL et les autorités compétentes”.

L’initiative CovidIA est née de médecins et de chercheurs :

Pr Sadek Beloucif, anesthésiste réanimateur ; Pr Patrick Berche, microbiologiste ; Patrick Joubert, data scientist ; Pr Xavier Jouven, cardiologue et épidémiologiste ; Pr Vincent Maréchal, virologue ; Pr Alexandre Mignon, anesthésiste réanimateur ; Pr Didier Payen, anesthésiste réanimateur ; Pr Gilles Pialoux, infectiologue ; Pr Éric Vicaut, biostatisticien.

Nous avons trouvé très peu d’informations sur CovidIA, juste une petite trace sur le site internet aim4p.com. Au moment de la rédaction, le site aim4p ne présente pas grand-chose sur le projet CovidIA et les 3 articles affichés ne sont même pas accessibles. Le site covidia.org a une page blanche à ce jour. Le site est visiblement en construction vu les derniers uploads : https://covidia.org/wp-content/uploads/2020/04/.

Credit: CovidIA.org

Le mois dernier, selon un communiqué, l’AP-HP et Nouveal e-santé auraient finalisé une application e-santé « Covidom » destinée au suivi médical à domicile des patients (Bichat et Pitié-Salpêtrière) porteurs ou suspectés Covid-19 qui ne nécessitent pas d’hospitalisation.

@ suivre

Maj au 11/04/2020 : L’accès au site “CovidIA” est maintenant ici : https://covid-ia.org/

La Chine, un exemple ?

Depuis quelques semaines, les articles de journaux et de revue consacrés au coronavirus ne manquent plus de flatter la gestion de la crise du coronavirus par l’État chinois pour l’opposer à l’incompétence européenne. Une équipe internationale qui s’est rendue en Chine en février encensait déjà les méthodes et les résultats de la Chine pour endiguer l’épidémie de Covid-191. Bruce Aylward, le chef de cette équipe – conseiller du directeur général de l’OMS – expliquait dans une interview que la stratégie chinoise avait été, outre le déploiement massifs de tests gratuits et de mises en quarantaine ainsi que l’édification d’hôpitaux en quelques jours, le fait d’isoler drastiquement les personnes infectées, de retracer leurs contacts et de ne confiner ainsi que les personnes potentiellement ou réellement infectées2. Lucien Abenhaim, épidémiologiste et ancien directeur de la santé, parlait récemment dans les grands quotidiens français de « l’exemple chinois », dont il vantait l’efficacité en l’opposant aux diverses théories fantaisistes des Européens3.

Ce qui est notoire mais à peine mentionné, c’est que « l’efficacité » chinoise suppose une vaste infrastructure numérique de surveillance de la population dont le plan préexistait à l’apparition du nouveau coronavirus. La « réponse » chinoise au virus est déjà contenue dans l’esprit des dispositifs existants et des projets en cours. Pour isoler les cas positifs et les malades potentiels (et renvoyer au plus vite les autres au travail), il faut en effet pouvoir non pas seulement les dépister, mais aussi les pister.

Les informations dont nous disposons sur la Chine ne pas toujours fiables, voire contradictoires, même dans les journaux réputés sérieux, et il subsiste bon nombre d’imprécisions dans la présentation qui suit. Cela n’empêche pas d’essayer de reconstituer la situation avec précaution. Rappelons d’abord que la Chine a commencé par nier l’apparition du virus, censurer sur internet les mots-clés liés à l’épidémie et accuser de “propagation de fausses rumeurs” plusieurs médecins, dont le jeune Li Wenliang qui avait alerté à ce sujet. Il est lui-même décédé du Covid-19 début février 2020. Les journalistes Chen Qiushi et Fang Bin qui dénonçaient la gestion de crise ont quant à eux disparu4. D’après l’organisation Chinese Human Rights Defenders qui répertorie diverses sources chinoises, des centaines de citoyens chinois ont été publiquement accusés de répandre des fausses rumeurs et punis, y compris lorsqu’ils ne faisaient rien d’autre que de s’exprimer en ligne sur les cas de maladie dont ils avaient connaissance. L’organisation rapporte : « Le système de surveillance numérique invasif de la Chine a été déployé par la police pour faire taire les net-citoyens et renforcer les contrôles d’information. Sur les réseaux sociaux, les net-citoyens ont déclaré avoir été visités, détenus ou pénalisés par la police pour avoir “répandu des rumeurs” après avoir publié des commentaires sur l’épidémie, et dans certains cas, pour s’être portés volontaires pour distribuer des masques faciaux et d’autres fournitures. Plusieurs défenseurs des droits de l’homme ont déclaré avoir reçu la visite de la police et avoir été menacés de sanctions pénales s’ils ne cessaient pas de diffuser des informations internationales ou de tweeter des informations sur l’épidémie5.» Toutefois, indique une autre source, certains citoyens ont rivalisé d’ingéniosité pour contourner en mars la censure d’une interview réalisée avec Ai Fen, la directrice du service des urgences de l’hôpital central de Wuhan : « Pour éviter la censure, les gens ont converti certaines parties de l’interview en morse, l’ont remplie d’émoticon ou l’ont traduite dans des langues fictives comme le sindarin du Seigneur des anneaux ou le klingon de Star Trek6. » Que le grand public (et non quelques activistes confidentiels) puisse se saisir de tels moyens d’expression augure selon certains observateurs d’un tournant politique.

Après le déploiement d’une telle censure, le gouvernement chinois, qui avait entretemps officiellement admis l’existence du virus, a pris brusquement fin janvier des mesures massives de confinement qui apparaissaient en contradiction complète avec le discours officiel : « En fermant brusquement des villes entières, le gouvernement n’a pas réussi à fournir en temps voulu une aide adéquate aux personnes ayant des besoins particuliers et à permettre aux habitants de faire des provisions. Les habitants de Wuhan, une ville de 11 millions de résidents réguliers, et de la province du Hubei, qui compte 59 millions d’habitants, n’ont pas reçu d’avertissement préalable adéquat avant de fermer les transports publics et d’imposer un confinement. Des mesures aussi drastiques ont laissé des personnes vulnérables, y compris des personnes handicapées, sans assistance7. »

Quant à l’OMS, elle a « ignoré les rapports qui faisaient état d’obstruction à la circulation de l’information et d’intimidation de la police contre le partage d’informations en ligne et a déclaré le 30 janvier qu’elle se félicitait de “l’engagement de la Chine en faveur de la transparence”. (…) Les médias d’État chinois ont utilisé les déclarations de l’OMS pour défendre la réponse tardive et inadéquate du gouvernement. L’OMS fait l’éloge des dirigeants chinois à la suite d’une visite du directeur général de l’OMS, Tedros Adhanom Ghebreyesus, à Pékin, sans exprimer aucune inquiétude quant aux graves violations des droits de l’homme commises par le gouvernement chinois dans sa réaction à l’épidémie, notamment les restrictions à la liberté d’expression, d’information, de presse et de circulation, la suppression des efforts de la société civile et l’incapacité à lutter contre la discrimination8. » Lorsque les médias d’État chinois commencent mi-février à renverser la situation à la gloire du Parti Communiste Chinois, non sans brouiller les informations relatives à l’origine du virus (qui ne serait pas forcément un « virus chinois » selon les mots de Donald Trump mais peut-être un « virus américain », voire un « virus japonais ») ils peuvent donc compter sur la crédulité apparente ou plus vraisemblablement l’opportunisme de la communauté internationale. Tout à coup, la Chine commence à se hisser au rang de championne universelle de la crise du coronavirus avant même que l’épidémie ne soit enrayée sur son propre territoire.

Dans un pays où on prévoyait déjà peu avant la crise du coronavirus un ratio d’environ deux caméras pour un citoyen en 20229, l’épidémie offre soudain une justification toute trouvée à l’extension de la surveillance numérique et des caméras dans les espaces publiques. La Chine prévoit de mettre en place un système de crédit social qui classe les citoyens dans une échelle de notation selon leur comportement civique. Les points conditionnent les déplacements, l’accès aux services publiques ou la recherche d’emploi et sanctionnent tout ce qui peut être considéré comme manque de morale et de civilité, comme traverser au feu rouge. La vidéosurveillance avec reconnaissance faciale déployée sur l’ensemble du territoire complète ce projet. Il est fréquent en Occident d’attribuer à ces plans une ontologie culturelle qui prendrait racine dans des pratiques ancestrales et correspondrait à une toute conception de la liberté individuelle que celle véhiculée par la tradition occidentale. Même si l’on ne peut pas négliger les différences historiques, ce culturalisme condescendant constitue un affront à toutes les personnes censurées, sanctionnées ou disparues qui contestent l’État chinois. Il faut bien plutôt reconnaître avec Mareike Ohlberg, assistante de recherche à l’Institut Mercator pour les études chinoises que « l’idée elle-même n’est pas un phénomène chinois (…) Mais si [le système chinois] se met en place comme prévu, ce sera quand même quelque chose de vraiment unique… C’est à la fois unique et inscrit dans une tendance mondiale10. » De fait, les plans du gouvernement chinois ne sont pas à confondre avec le système de réputation sociale pratiquée par des entreprises privées, même quand ces deux niveaux collaborent. Il est prévu que les entreprises soient elles-mêmes soumises à la notation sociale.

Pour faire face à l’épidémie, la Chine a mis en place une application qui dicte aux gens le comportement à avoir en fonction des facteurs de risque dont ils sont porteurs. Les gens s’inscrivent sur leur smartphone par le biais de l’application de paiement Alipay (utilisée par 900 millions de Chinois) qui leur attribue un code couleur – vert, jaune ou rouge – selon leur état de santé. (La société Ant, filiale du groupe Alibaba et créée à partir de Alipay, est aussi celle qui a conçu le système de crédit social individuel.) Le système d’abord expérimenté dans la ville de Hangzhou, serait à présent utilisé dans des centaines de villes et en cours de déploiement à l’échelle nationale. Le New York Times rapporte que « lorsqu’un utilisateur accorde au logiciel l’accès à des données personnelles, un élément du programme intitulé “reportInfoAndLocationToPolice” envoie à un serveur le lieu où se trouve la personne, le nom de la ville et un numéro de code d’identification. Le logiciel n’indique pas clairement aux utilisateurs sa connexion à la police. Mais selon l’agence de presse chinoise Xinhua, gérée par l’État, et un compte officiel de la police sur les réseaux sociaux, les autorités chargées de l’application de la loi ont été un partenaire essentiel dans le développement du système11. » Officiellement, l’application génère son code couleur de manière automatique à partir d’éléments suivants : selon que l’utilisateur a été en contact avec une personne infectée, a visité une région infectée ou bien a déclaré des symptômes de maladie. Mais pour les utilisateurs, l’attribution du code couleur est obscure. De plus, à chaque fois que le code d’une personne est scanné, les serveurs du système sont informés de l’emplacement actuel de la personne. Qu’est-ce qui prouve que ces nouveaux systèmes seront désactivés à la fin de l’épidémie ? Une correspondante en Chine dans une province très peu affectée par le virus écrit pour Reporterre le 24 mars : « Plus la situation semble s’améliorer et plus la ville renforce les contrôles12. »

La situation misérables de plusieurs pays Européens face à celle, semble-t-il rayonnante, de la Chine, oblige ainsi à se demander si, en amont, nous envisageons des modes d’intervention similaires au nom de la sécurité et des risques à venir (qui ne feront que s’amplifier). Le mythe d’une Europe capable d’implémenter des techniques de surveillance tout en « respectant la vie privée » grâce au « consentement » et à « l’anonymisation » des données collectées est un faux compromis qui ne tiendra plus du tout dans un tel contexte, et qui fera peu à peu tomber son masque lisse et imparable. Ce respect formel pour lesdites libertés publiques n’a en effet aucune valeur en contexte de pandémie, puisqu’il faut justement forcer les populations à suivre les consignes (donc sans leur consentement) et identifier les cas positifs ou potentiels (le contraire de l’anonymat).

Contrôles biométriques pour favoriser la distanciation sociale

Pendant que les Européens se replient sur des stratégies de crise nationales souvent incohérentes et critiquées – du laisser-faire de Boris Johnson à son revirement mal compris, des atermoiements et contradictions d’Emmanuel Macron aux restrictions liberticides, etc. – c’est bien l’« exemple chinois » qui semble sortir gagnant de cette cacophonie. L’État chinois a offert au reste du monde une démonstration d’efficacité qui semble pouvoir être appliquée à maints autres endroits et situations de crise. A l’heure actuelle, quinze pays dans le monde ont déjà mis en place le traçage numérique des citoyens via des applications sur smartphone pour lutter contre le Covid-19. D’autres s’apprêtent à suivre cet exemple13. Un porte-parole du ministère au numérique polonais peut ainsi déclarer : « Les gens en quarantaine ont le choix : soit ils reçoivent des visites inattendues de la police, soit ils téléchargent cette application. » Bien sûr, il ne s’agit pas de dire que la Chine a tout orchestré. Mais en tant que grande victorieuse de la crise du coronavirus dans l’image publique mondiale, il semble que son exemple et celui de la Corée du Sud s’imposent comme une évidence. Ce serait cependant une erreur de penser que le modèle chinois serait susceptible d’être repris à l’identique. Les traditions politiques différentes et la nécessité de se démarquer sur la scène géopolitique mondiale impliquent évidemment des rhétoriques et des stratégies non identiques.

C’est par une mécanique qui dépasse les intentions particulières des acteurs politiques que les États sont forcés d’emprunter la voie de la surveillance généralisée (et ceci de manière toujours plus frappante). La gestion biopolitique du monde est la destination logique de la modernité : habillée de la rhétorique mielleuse du respect des libertés ou de celle, autoritaire, du respect de l’ordre public, elle se présente assurément sous plusieurs modes discursifs. Mais quelle que soit la rhétorique adoptée, face à la montée de ce que Ulrich Beck appelait la société du risque, les États sont tenus de prétendre qu’ils assurent la sécurité et les conditions minimales de la reproduction de l’existence. Mais compte tenu de l’amplification des crises globales, la seule manière d’assurer cette prétendue sécurité ne peut être que la gestion de plus en plus serrée du « parc humain ». Contrairement toutefois aux interprétations paranoïaques qui fleurissent ici et là, il y a une contrainte systémique à déchiffrer derrière l’empressement occidental à encenser l’exemple chinois. Moins les crises seront maîtrisables – à l’image de la propagation rapide et imprévisible du Covid-19 – plus les États tenteront de survivre à leur déconfiture en pactisant avec le solutionnisme des entreprises hi-tech pour contenir des populations toujours plus exposées, inquiètes et instables. A chaque invective contre ces « connards qui nous gouvernent14 » incapables de résoudre les crises qui se profilent et se multiplient, se manifeste un peu plus l’infantilisme des attentes exorbitantes à leur endroit et le glissement imperceptible de l’autorité étatique vers la gouvernance algorithmique assistée par des plateformes dont plus rien n’arrête l’ascension. A force d’être traités de « connards » en toute situation, on peut imaginer que la classe politique préfèrera de plus en plus s’en remettre au traçage glacé des moindres comportements de la population, plutôt qu’à la responsabilité de gérer des crises insolubles à l’intérieur du cadre politique que s’est donnée la modernité.

Les effets du contrôle social sont d’ailleurs tellement irréfutables que de nombreux écologistes ne manquent pas de s’en saisir d’ores et déjà pour faire avancer leur propre cause, celle par exemple du changement climatique. Ne sommes-nous pas en train d’expérimenter in vivo les bienfaits d’une décroissance (en l’occurrence d’une récession) certes involontaire mais indispensable ? Les effets bénéfiques sur la pollution et les émissions de CO2 ne se sont-ils pas immédiatement fait sentir ? Alors désormais, disent déjà certains, nous connaissons la voie à suivre. Nous serions en train de vivre une répétition générale et il n’y aurait plus qu’à mettre en place des mesures radicales expérimentées dans la crise du Covid-1915. De l’imprécation contre l’état d’exception16 à l’amour du contrôle, il y a ainsi une seule et même fascination pour les formes apparemment indépassables de la dépossession politique. On cherche dans les représentants de l’État aussi bien la faute et l’incompétence personnifiée que la solution à tout, au lieu d’analyser la mécanique implacable à laquelle nous avons collectivement consenti pour en arriver là. Tremblons que l’État chinois ne vienne nous tendre une main généreuse et un exemple à suivre dans la résolution des crises universelles et que nous nous jetions sur cette aubaine parce que nous sommes devenus incapables de prendre en charge la reproduction de nos existences. Depuis quelques jours, des équipes médicales chinoises apportent du renfort en Italie, en Iran, en Irak17, en Serbie18 sans compter l’envoi de matériel dans de nombreux pays (dont un million de masques de protection à la France), et Xin Jinping promet largement, de Vladimir Poutine à Angela Merkel, le soutien et l’expertise de son pays. Ces gestes de solidarité emphatiques – sur fond de chauvinisme exacerbé des États – annoncent l’acceptation passive d’un mode de gouvernance totalitaire qui se donne pour le seul à pouvoir sortir le monde du pétrin.

Notes :

1 Hilary Brueck, « The rest of the world is ’simply not ready‘ for the coronavirus, according to a WHO envoy who just returned from China », Business insider, 26 février 2020. En ligne: https://www.businessinsider.de/international/what-works-to-fight-covid-19-lessons-from-china-who-2020-2/?r=US&IR=T

2 Julia Belluz, « China’s cases of Covid-19 are finally declining. A WHO expert explains why », vox, 3 mars 2020. En ligne : https://www.vox.com/2020/3/2/21161067/coronavirus-covid19-china

3 Cf. notamment : Lucien Abenhaim, « Il est maintenant permis d’espérer la sortie de la crise du coronavirus », Le Monde, 20 mars 2020.

4 Vivian Wang, « They documented the Coronavirus Crisis in Wuhan. They Vanished », New York Times, 14 février 2020.

5 Chinese Human Rights Defenders, 31 janvier 2020, “China: Protect Human Rights While Combatting Coronavirus Outbreak”. En ligne : https://www.nchrd.org/2020/01/china-protect-human-rights-while-combatting-coronavirus-outbreak/

6 Ryan Broderick, «Chinese WeChat Users Are Sharing A Censored Post About COVID-19 By Filling It With Emojis And Writing It In Other Languages », buzzfeednews, 11 mars 2020. En ligne : https://www.buzzfeednews.com/article/ryanhatesthis/coronavirus-covid-chinese-wechat-censored-post-emojis

7 Chinese Human Rights Defenders, 31 janvier 2020, “China: Protect Human Rights While Combatting Coronavirus Outbreak”. En ligne : https://www.nchrd.org/2020/01/china-protect-human-rights-while-combatting-coronavirus-outbreak/

8 Chinese Human Rights Defenders, 31 janvier 2020, “China: Protect Human Rights While Combatting Coronavirus Outbreak”. En ligne : https://www.nchrd.org/2020/01/china-protect-human-rights-while-combatting-coronavirus-outbreak/

9 Mathieu Rabechaut, « Watch this: China surveillance tech seeks to go global », Techxplore, 24 novembre 2019. En ligne : https://techxplore.com/news/2019-11-china-surveillance-tech-global.html

10 Nicole Kobie, « The complicated truth about China’s social credit system », Wired, 7 juin 2019.

11 Paul Mozur, Raymond Zhong, Aaron Krolik, « In Coronavirus Fight, China Gives Citizens a Color Code, With Red Flags », New York Times, 1 mars 2020.

12 Nathalie Paco, « En Chine, le virus maîtrisé au prix d’un contrôle total de la population », Reporterre, 24 mars 2020. En ligne : https://reporterre.net/En-Chine-le-virus-maitrise-au-prix-d-un-controle-total-de-la-population

13 Isobel Asher Hamilton, « 11 countries are now using people’s phone to track the coronavirus pandemic, and it heralds a massive increase of surveillance », business insider, 24 mars 2020. En ligne : https://www.businessinsider.com/countries-tracking-citizens-phones-coronavirus-2020-3?r=DE&IR=T Cf. également l’index évolutif du Virtual Private Network : https://www.top10vpn.com/news/surveillance/covid-19-digital-rights-tracker/

14 Frédéric Lordon, « Les connards qui nous gouvernent », les blogs du « diplo », 19 mars 2020. En ligne : https://blog.mondediplo.net/les-connards-qui-nous-gouvernent

15 Cf. entre autres Vincent Lucchese, « 5 pistes pour mobiliser sur le climat autant que sur le coronavirus », Usbek & Rica, 14 mars 2020 ; François Gemenne, Anneliese Depoux, « De la crise du coronavirus, on peut tirer des leçons pour lutter contre le changement climatique », Le Monde, 18 mars 2020 ; Nicolas Celnik, « Covid-19 : c’est le moment ou jamais pour agir sur le front climatique », Interview avec Jean-Baptiste Fressoz, Libération, 23 mars 2020.

16 Giorgio Agamben, « Coronavirus et état d’exception », acta.zone, 26 février 2020. En ligne : https://acta.zone/giorgio-agamben-coronavirus-etat-dexception/ Ce texte a suscité un grand nombre de réponses et de débats qu’on peut lire en ligne.

17 Par LEXPRESS.fr avec AFP, 20 mars 2020 : “Coronavirus : la Chine a envoyé des médecins dans trois pays”. En ligne : https://www.lexpress.fr/actualite/monde/coronavirus-la-chine-a-envoye-des-medecins-dans-trois-pays_2121493.html

18 French.china.org.cn, mis à jour le 22 mars 2020, “(COVID-19) Des médecins chinois arrivent en Serbie pour l’aider à combattre l’épidémie”. En ligne : http://french.china.org.cn/foreign/txt/2020-03/22/content_75845533.htm

Contrôles biométriques pour favoriser la distanciation sociale

Le recours à la reconnaissance faciale se poursuit dans le monde entier pour soutenir les mesures de distanciation sociale et de réduction de la transmission du virus covid-19. Dans certains cas, les technologies existantes ou les programmes prévus sont mis à jour, tandis qu’en Pologne et ailleurs, la reconnaissance faciale est déployée spécifiquement pour lutter contre la propagation du covid-19.

La Pologne a lancé une application biométrique pour smartphone afin de confirmer que les personnes mises en quarantaine pendant 14 jours à cause du coronavirus restent chez elles, selon l’AFP.

Un porte-parole du ministère du numérique a déclaré à l’AFP que les personnes en quarantaine pouvaient télécharger l’application ou attendre une visite des autorités.

Les personnes qui regagnent la Pologne depuis l’étranger doivent télécharger l’application, qui enregistre leur géolocalisation, et se soumettre à des contrôles biométriques pour prouver que vous êtes bien celui que vous êtes censé être (vous) et que vous êtes bien là où vous êtes censé être (chez vous).

Après l’enregistrement d’un selfie initial, des demandes de confirmations supplémentaires sont émises tout au long de la journée, la police étant alertée en cas d’absence de réponse dans les 20 minutes. Les amendes varient entre 118 et 1 180 dollars selon les autorités policières locales.

Toutes les écoles en Pologne seront fermées jusqu’à Pâques et les frontières sont fermées aux étrangers. Selon les derniers chiffres, la Pologne compte 749 cas confirmés et huit décès au moment de la rédaction.

Portal Gov.pl, Warsaw (AFP)

Reconnaissance faciale : La crise de la vie privée

La technologie de reconnaissance faciale est hors de contrôle – et les implications sont profondes. Les autorités de réglementation doivent agir maintenant pour en réduire les effets néfastes.

Votre visage est ce qui vous rend unique. C’est ce qui vous donne votre apparence distincte, vous permet d’exprimer votre humeur, vos émotions et vos réactions, et vous permet de communiquer. Au cours des dernières décennies, votre visage est devenu un outil qui vous permet de faire beaucoup plus. Il peut déverrouiller votre téléphone, vous permettre d’embarquer dans un avion, de traverser les frontières et de payer votre café. Tout cela est dû à l’essor de la technologie de reconnaissance faciale, un type d’intelligence artificielle qui utilise un apprentissage approfondi (deep learning) pour quantifier les identificateurs uniques des visages individuels, qui sont ensuite analysés et comparés aux bases de données de photos. Bien que la technologie de reconnaissance faciale présente des avantages distincts – tels que la prévention de la criminalité et de la fraude, l’efficacité et la commodité – les risques qui accompagnent son utilisation généralisée signalent la fin de la vie privée telle que nous la connaissons. Pourtant, les gouvernements du monde entier ont été lents à lancer un débat public et à promulguer des réglementations relatives à son utilisation. Pendant ce temps, la technologie de reconnaissance faciale a proliféré tant dans le secteur public que dans le secteur privé, ce qui a entraîné la normalisation d’une surveillance constante et immuable qui est appelée à devenir le modèle par défaut pour notre avenir : un modèle dans lequel – sans une action urgente du gouvernement – notre capacité à nous déplacer dans la vie sans surveillance cessera d’exister.

Comment la technologie de reconnaissance faciale est-elle devenue courante ?

Autrefois sujet de fiction dystopique, la technologie de reconnaissance faciale en est venue à s’infiltrer dans la vie quotidienne du monde entier au cours de la dernière décennie. En Chine, le leader mondial de la technologie de reconnaissance faciale, ses objectifs vont de la mise en place de lunettes de reconnaissance faciale pour la police, au paiement avec le sourire, en passant par la capture des personnes qui jettent leurs déchets. En septembre 2019, l’autorité nationale indienne en matière d’identification, Aadhaar, a rendu obligatoire pour les fournisseurs de services de télécommunications de vérifier que 10 % de leurs clients utilisent la technologie de reconnaissance faciale, et en octobre 2019, le gouvernement français a annoncé son intention de l’utiliser dans un nouveau système national d’identification, Alicem. La Russie a installé cette technologie sur 5 000 caméras de vidéosurveillance à Moscou et expérimente un système de paiement par reconnaissance faciale dans les gares.

Aux États-Unis, la technologie de reconnaissance faciale est utilisée – et parfois abusivement – par les forces de l’ordre, les patrouilles frontalières et un nombre croissant des plus grands magasins du pays (dont Walmart et Target) au nom de la prévention des vols. Un article de Kashmir Hill paru en 2020 dans le New York Times a révélé un autre partenariat public-privé dans le domaine de la surveillance par reconnaissance faciale. Il décrit cette fois une société financée par Peter Thiel, Clearview AI, qui fait correspondre les visages des images téléchargées sur des “millions” de sites web, dont Facebook, Venmo et YouTube, à une base de données privée d’environ trois milliards de photos. L’intelligence artificielle que Clearview AI a développée une technologie qui peut également faire correspondre des visages par le biais de photos imparfaites, comme celles des caméras de surveillance. Un sergent de police a déclaré : “Une personne peut porter un chapeau ou des lunettes, ou il peut s’agir d’une photo de profil ou d’une vue partielle de son visage”. Clearview AI offre des services de reconnaissance faciale à près de 600 services de police américains et dispose d’une bibliothèque d’images sept fois plus importante que celle du FBI.

Au Royaume-Uni, la police métropolitaine de Londres et la police du sud du Pays de Galles ont procédé à des essais de technologie de reconnaissance faciale lors de matchs sportifs et pour surveiller les manifestations pacifiques. Cette dernière instance, malgré une opposition véhémente et une inexactitude avérée, a été confirmée comme constitutionnelle par la Haute Cour en septembre 2019. À Londres (la deuxième ville la plus surveillée au monde après Pékin, avec environ 420 000 caméras de vidéosurveillance qui sont de plus en plus modernisées pour inclure des capacités de technologie de reconnaissance faciale), les promoteurs immobiliers l’ont utilisé pour surveiller les personnes qui marchent dans King’s Cross et les faire correspondre aux bases de données fournies par la police, bien que cette pratique ait maintenant été abandonnée. Cette technologie est même utilisée pour déterminer qui sera le prochain à servir dans un bar londonien, et des supermarchés, dont Tesco et Sainsbury’s, se préparent à l’utiliser pour vérifier l’âge des clients. Partout où nous allons, la technologie de reconnaissance faciale apparaît dans la paume de nos mains, de l’option “tagger un ami” de Facebook à la fonction de déverrouillage de l’iPhone d’Apple. On prévoit que 64 % des smartphones utiliseront cette technologie en 2020. Tout cela représente une industrie mondiale d’un milliard de dollars – une industrie qui devrait passer de 3,2 milliards de dollars en 2019 à 7 milliards de dollars d’ici 2024.

La demande intersectorielle en matière de technologie de reconnaissance faciale connaît une courbe ascendante exponentielle dans le monde entier. Les facteurs qui alimentent cette croissance ininterrompue sont au nombre de trois. Premièrement, à l’exception d’une poignée de villes aux États-Unis, la technologie de reconnaissance faciale est actuellement soumise à très peu de réglementations, et dépourvue de normes applicables à l’ensemble du secteur. Deuxièmement, les systèmes de suivi de la technologie de reconnaissance faciale sont bon marché (moins de 100 dollars) et facilement accessibles “à toute personne disposant d’une connexion internet et d’une carte de crédit”, comme l’a prouvé une expérience du New York Times en avril 2019. Troisièmement, l’intelligence artificielle qui sous-tend la technologie de reconnaissance faciale est intelligente et apprend à un rythme de plus en plus rapide. La capacité des logiciels de technologie de reconnaissance faciale à analyser des images de mauvaise qualité (seulement un mégapixel) est due à l’apprentissage profond (deep learning), un type d’IA qui imite le fonctionnement du cerveau humain pour traiter de vastes ensembles de données par le biais de réseaux neuronaux artificiels.

Le progrès des algorithmes de la technologie de reconnaissance faciale repose sur l’accumulation de photos de visages de personnes, qui sont rassemblées dans de vastes bases de données. Ces bases de données sont construites à partir d’une série de sources qui varient en fonction de qui les utilise et dans quel but. Certaines sont compilées à partir de listes de surveillance de la police ou de délinquants connus. D’autres proviennent de personnes qui téléchargent des photos sur des plateformes ou des applications. C’est le cas de la fonction “tagger un ami” de Facebook, qui est utilisée pour former l’algorithme de reconnaissance faciale de l’entreprise, ainsi que des applications de stockage de photos comme Ever. D’autres, comme Labeled Faces in the Wild ou MegaFace, sont composées de photos qui sont récupérées sur Internet sans le consentement ou même à l’insu de ceux qu’elles représentent. Les universitaires et les entreprises privées utilisent ces bases de données ouvertes pour former les algorithmes qui sous-tendent la technologie de reconnaissance faciale. Presque toutes les grandes entreprises technologiques développent leur propre système : Facebook a DeepFace, Google a FaceNet, et Amazon a Rekognition, pour n’en citer que quelques-uns. Chacune investit massivement dans ce que le directeur général de Microsoft, Satya Nadella, a appelé la “course vers le bas” pour développer les systèmes technologiques de reconnaissance faciale les plus puissants à vendre aux gouvernements, qui les déploient à des fins de contrôle et de surveillance.

La menace ultime pour la vie privée

Alors que de nombreuses sociétés se sont habituées à des mécanismes de surveillance comme la vidéosurveillance et autres caméras dans les espaces publics, les lecteurs de plaques d’immatriculation automatisés, les sonnettes équipées de caméras et les drones, la reconnaissance faciale marque une atteinte beaucoup plus profonde à la vie privée, en raison de sa capacité à identifier en temps réel des faits psychiques uniques sur les individus. En automatisant la surveillance de masse de manière à – comme l’écrivent Woodrow Hartzog et Evan Selinger dans un éditorial du New Yorker – “surmonter les contraintes biologiques sur le nombre d’individus que chacun peut reconnaître en temps réel”, elle prive les citoyens de la liberté de se promener dans les rues, à travers les villes, autour des supermarchés et dans les pôles de transport sans être surveillés par les gouvernements ou les entreprises – à des fins dont ils n’ont pas connaissance. A ce rythme, nous sommes sur la voie de l’élimination de tout endroit où les citoyens ne sont pas surveillés, prévient David Paris de l’organisation australienne Digital Rights Watch.

Contrairement au pouvoir que nous avons sur nos données personnelles en ligne, il n’existe “aucun paramètre de confidentialité pour se promener dans la rue ou naviguer dans un centre commercial”. Et vous ne pouvez pas effacer votre visage”, explique Paris. Le fait que la technologie de reconnaissance faciale enregistre notre visage signifie que son utilisation soumet les personnes honnêtes à une “file d’attente perpétuelle” qui nie le principe démocratique fondamental de la présomption d’innocence, et l’exigence connexe de suspicion raisonnable de culpabilité que les autorités compétentes doivent généralement prouver pour obtenir un mandat de surveillance.

À cet égard, la technologie de reconnaissance faciale modifie la nature de la démocratie. Pendant ce temps, l’action gouvernementale visant à susciter le débat et la discussion sur l’éthique et les implications de son utilisation a été inégale et figée dans le monde entier. À moins que les entreprises n’adoptent un moratoire volontaire sur le développement et la vente de la technologie de reconnaissance faciale, les mesures prises sont essentiellement des mesures de rattrapage alors que la technologie continue de proliférer – et comme le souligne l’ACLU de Californie du Nord, “une fois que de puissants systèmes de surveillance comme ceux-ci auront été construits et déployés, il sera extrêmement difficile de réparer les dégâts”.

Préjudices passés, menaces futures

Outre l’empiètement sur la vie privée et l’atteinte aux principes démocratiques, les préjudices réels et potentiels de la technologie de reconnaissance faciale sont multiples : des préjugés et de la discrimination aux abus des gouvernements et des mauvais acteurs. Selon Kate Crawford, co-directrice d’AI Now, “ces outils sont dangereux lorsqu’ils échouent et nocifs lorsqu’ils fonctionnent”. En ce qui concerne les dangers des biais algorithmiques, de nombreuses études ont prouvé que, bien que la technologie de reconnaissance faciale soit très précise lorsqu’il s’agit d’identifier les hommes blancs (un taux d’erreur d’identification de 1%, selon une étude du MIT), Microsoft, IBM et Face++, se sont avérés plus susceptibles de mal identifier les personnes transgenres et non binaires, ainsi que les personnes de couleur, et en particulier les femmes de couleur.

Les systèmes de reconnaissance faciale sont racistes

En 2018, l’ACLU a mis en évidence ce problème en utilisant Amazon Rekognition pour comparer les membres du Congrès avec une base de données de 25 000 photos de criminels. L’expérience a donné lieu à un nombre disproportionné de fausses correspondances pour les membres du Congrès de couleur – 40 %, alors que les personnes de couleur ne représentent que 20 % des membres du Congrès. Comme l’a écrit Joy Buolamwini, fondatrice de la Ligue pour la justice algorithmique – qui sensibilise et lutte contre les préjugés et la discrimination dans les technologies – “celui qui code le système intègre ses opinions”. Selon le projet The Perpetual Line Up de la faculté de droit de Georgetown, cela est aggravé par le fait que “les taux d’arrestation disproportionnés, les systèmes qui s’appuient sur des bases de données de photos de suspects incluent probablement un nombre disproportionné d’Afro-Américains”. Comme pour beaucoup d’autres formes d’intelligence artificielle, l’effet anormalement négatif que la technologie a sur les Afro-Américains et les autres communautés de couleur ne fait que s’accentuer à mesure que l’adoption de la technologie progresse avec un minimum de responsabilité.

Aux États-Unis, les forces de l’ordre ont une longue tradition – et généralement acceptée – de glaner des données biométriques, telles que les empreintes digitales et l’ADN, sur les suspects. Mais la reconnaissance faciale permet aux forces de police d’accéder aux données biométriques de milliers de personnes qui ne sont pas des suspects criminels – le tout sans contrôle du Congrès ou de la justice. En juillet 2019, le Washington Post a révélé que le FBI et l’Immigration and Customs Enforcement (ICE) avaient tous deux scanné des permis de conduire pour créer des bases de données étendues, qui ont ensuite été utilisées pour rechercher des suspects dans des crimes de moindre importance comme les petits larcins. Le potentiel d’abus de ces systèmes est élevé – et ils ont été exploités. Comme l’a révélé un rapport du Georgetown Law’s Center on Privacy and Technology, la police de New York s’est livrée à des abus généralisés de son système de reconnaissance faciale, notamment en modifiant des images et en téléchargeant un portrait de célébrité dans sa base de données de photos afin d’appréhender un homme décrit par un témoin comme ressemblant à cette célébrité. Son crime a été de voler une bière.

Comme l’affirme l’ACLU, la technologie de reconnaissance faciale “représente une menace particulière pour les communautés déjà injustement ciblées dans le climat politique actuel”. Les systèmes de reconnaissance faciale développés par les technologies controversées de Palantir ont été utilisés par les forces de police américaines comme un puissant outil de surveillance dans la guerre du président Trump contre l’immigration, utilisé pour identifier les immigrants sans papiers à des fins d’expulsion et de poursuites. Cela s’ajoute à ce que nous savons maintenant de la base de données d’images gargantuesques et des incroyables capacités de Clearview AI et de son partenariat avec les forces de l’ordre américaines.

En Chine, où la quasi-totalité des 1,4 milliard de citoyens du pays sont inclus dans les bases de données de technologie de reconnaissance faciale, le parti communiste chinois utilise cette technologie pour suivre ceux qu’il considère comme une menace pour son régime. Elle a notamment été utilisée pour surveiller la population musulmane ouïghoure dans la région du Xinjiang. Les fabricants chinois de technologie de reconnaissance faciale exportent leurs développements plus loin. En 2018, la start-up CloudWalk, basée à Guangzhou, a reçu 301 millions de dollars de l’État pour établir un programme de technologie de reconnaissance faciale de masse au Zimbabwe – un pays dans lequel la Chine a beaucoup investi – au nom de la résolution des problèmes de sécurité publique.

Les systèmes de technologie de reconnaissance faciale ont leurs propres problèmes de sécurité – des problèmes qui ont de graves implications, étant donné que les visages, contrairement aux mots de passe, ne peuvent pas être modifiés sans recourir à la chirurgie plastique. Début 2019, le chercheur en sécurité Victor Gevers a découvert que l’une des bases de données utilisées par le gouvernement chinois pour traquer les Ouïghours, appartenant à une société appelée SenseNets, était restée ouverte sur Internet pendant des mois. Gevers a déclaré : “Cette base de données contient plus de 2.565.724 enregistrements de personnes avec des informations personnelles telles que le numéro de carte d’identité, la date de délivrance et d’expiration, le sexe, la nation, l’adresse, l’anniversaire, la photo d’identité, l’employeur et les endroits où elles sont passées au cours des dernières 24 heures avec des traqueurs”. Quelques mois plus tard, l’Agence américaine des douanes et des frontières a révélé que sa base de données contenant des photos de voyageurs et de plaques d’immatriculation – qui avait été gérée par un sous-traitant, Perceptics, avait été piratée. S’adressant à Fast Company à ce sujet, David Maass, de l’Electronic Frontier Foundation, a déclaré que le gouvernement américain aurait dû être en mesure de prévoir le piratage, “étant donné que le système biométrique de l’Inde avait été piraté juste un an plus tôt”. Selon Maass, le piratage a mis en évidence la crainte que la sécurité des bases de données de la technologie de reconnaissance faciale ne soit pas suffisamment réglementée. “Nous avons également vu les autorités compétentes accorder leur confiance aux fournisseurs, pour lesquels la sécurité publique et la cybersécurité ne sont pas nécessairement des préoccupations majeures”, a-t-il déclaré.

Où sont les régulateurs ?

Les problèmes de biais, d’abus et de failles de sécurité décrits ci-dessus ont proliféré en l’absence de réglementation gouvernementale fédérale, nationale ou supranationale – ce qui a permis à la technologie de reconnaissance faciale de fonctionner sans les contraintes de transparence, de proportionnalité ou de responsabilité démocratique. Cela signifie que la réglementation de la technologie et des bases de données photographiques qu’elle traite a été largement laissée à des sociétés privées (Amazon propose son propre cadre réglementaire que la société espère voir adopter par les législateurs, par exemple), alimenté par des incitations commerciales, ou des services de police sans encadrement indépendant. “Nous avons sauté quelques étapes fondamentales du débat”, a déclaré Silkie Carlo, du groupe de défense de la vie privée Big Brother Watch, au New York Times. “Les décideurs politiques sont arrivés très tard dans la discussion et ne comprennent pas pleinement les implications et la vue d’ensemble”. Dans le monde entier, l’opinion publique sur la question varie. Alors qu’en Chine – selon l’Académie chinoise des sciences – 83 % de la population approuve le “bon usage” de la reconnaissance faciale, dirigée par le gouvernement, ce chiffre tombe à 56 % aux États-Unis, selon le Pew Research Center.

Au Royaume-Uni, une enquête menée en 2019 par l’Institut Ada Lovelace a révélé que 76 % sont contre l’utilisation de la technologie de reconnaissance faciale par les entreprises à des fins commerciales, comme dans les centres commerciaux, et que 55 % des Britanniques souhaitent que le gouvernement réglemente l’utilisation de la technologie de reconnaissance faciale dans les services de police. Les forces de police du Royaume-Uni ont testé cette technologie au cours des dernières années, notamment pour la surveillance de manifestations pacifiques – un cas d’utilisation que la Haute Cour de Londres a approuvé comme étant conforme aux lois sur les droits de l’homme et la protection des données en septembre 2019. Pourtant, comme le souligne le rapport 2019 du London Policing Ethics Panel sur la reconnaissance faciale en temps réel, la technologie de reconnaissance faciale a un effet dissuasif sur les droits de réunion et de parole. 38 % des 16-24 ans ont déclaré qu’ils seraient plus enclins à se tenir à l’écart des événements surveillés par la police à l’aide de la technologie de reconnaissance faciale. “Les gens craignent la normalisation de la surveillance, mais sont plus enclins à l’accepter lorsqu’ils voient un intérêt public s’exprimer”, a déclaré Olivia Varley-Winter, de l’Institut Ada Lovelace, à The Privacy Issue. “S’il existe un risque de sécurité défini, les gens ont tendance à accepter davantage son utilisation. Il s’agit d’avoir le choix, et la possibilité de s’en écarter. La connaissance de la technologie est très faible. Il n’y a pas eu de sensibilisation proactive – nous commençons tout juste à avoir ce débat dans les médias. Nous avons besoin d’un dialogue qui ne soit pas seulement le fait des personnes qui veulent voir la technologie de reconnaissance faciale utilisée”, a-t-elle déclaré.

Dans le monde entier, la demande de dialogue et d’action se fait chaque jour plus forte : le public, les défenseurs de la vie privée et les organisations de défense des droits civils, les universitaires, les politiciens et même certaines forces de police ont exprimé leur résistance à l’utilisation incontrôlée de la technologie de reconnaissance faciale à des fins policières et commerciales. Certaines collectivités locales aux États-Unis en tiennent compte. La Californie et le Massachusetts connaissent un élan croissant – au moment de la publication, San Francisco, Oakland et Berkeley, ainsi que Somerville, Brookline et Cambridge, ont tous interdit l’utilisation de la technologie de reconnaissance faciale par leurs administrations locales, y compris dans la police. Mutale Nkonde, conseiller politique de Data and Society AI, s’attend à ce que le débat et l’action au niveau des gouvernements locaux continuent à se développer. Dans de nombreux États, la législation Community Control Our Police Surveillance (CCOPS) est en cours d’adoption par les municipalités afin de responsabiliser la police quant à l’utilisation de cette technologie. Des villes américaines comme Portland et Cambridge débattent de l’interdiction de l’utilisation de la technologie de reconnaissance faciale par le secteur privé, et quarante des plus grands festivals de musique du monde se sont engagés à ne pas utiliser la technologie de reconnaissance faciale.

Faire face à l’intelligence artificielle : Un appel à l’action

En attendant qu’une législation nationale sur la technologie de reconnaissance faciale soit rigoureusement débattue et rédigée, les appels à l’arrêt de l’utilisation de la technologie de reconnaissance faciale prennent de l’ampleur dans tous les secteurs. La Commission européenne envisage d’interdire la reconnaissance faciale dans les lieux publics pour une période allant jusqu’à cinq ans, selon un projet de livre blanc de 2020. Aux États-Unis, une coalition de 30 organisations de la société civile, représentant 15 millions de membres, demande une interdiction nationale de l’utilisation de la technologie de reconnaissance faciale par les forces de l’ordre. Pourtant, Varley-Winter soutient que “les interdictions catégoriques risquent d’être des approches réactionnaires, des solutions provisoires. Afin de prévenir cette éventualité, l’Institut Ada Lovelace appelle à un moratoire comme approche plus prospective de la réglementation qui permet une considération et une délibération proportionnées”, a-t-elle déclaré à The Privacy Issue. “S’il existe des moyens de faire fonctionner la technologie de reconnaissance faciale pour les personnes et la société, il est important que nous découvrions ce qu’ils sont – mais l’industrie, les décideurs politiques et la société en général ont besoin de temps pour le faire d’une manière inclusive et réfléchie”.

Varley-Winter souligne que la mise en place par l’Écosse d’un groupe consultatif indépendant sur l’utilisation des données biométriques en mai 2017 est un exemple positif de l’action gouvernementale en la matière. En mai 2019, le projet de loi sur les données biométriques a été présenté au Parlement écossais, dans le but de “garantir un contrôle indépendant de l’acquisition, de la conservation, de l’utilisation et de l’élimination des données biométriques existantes, émergentes et futures dans le contexte de la justice pénale en Ecosse”, a-t-elle déclaré. “Le projet de loi créerait un nouveau commissaire écossais à la biométrie, avec un accent particulier sur les considérations éthiques et les droits de l’homme découlant de l’utilisation des données biométriques, et sur la maximisation des avantages des technologies biométriques”. Varley-Winter a ajouté que l’approche consistant à établir un processus d’examen indépendant centré sur les droits de l’homme est un “modèle prometteur que d’autres gouvernements pourraient envisager”.

Aux États-Unis, Kate Crawford, de l’AI Now Institutes, a également appelé à un moratoire volontaire sur l’utilisation de la technologie de reconnaissance faciale, exhortant ses fabricants à suivre les traces d’Axon, “le premier fournisseur mondial de caméras de surveillance des corps de police”, qui, en 2019, a cessé de vendre aux forces de police des caméras équipées de la technologie de reconnaissance faciale, en raison du risque qu’elle puisse “exacerber les inégalités existantes dans le maintien de l’ordre, par exemple en pénalisant les communautés noires ou LGBTQ”. Dans un éditorial pour Nature, elle cite quatre principes que l’Institut AI Now a développés pour un cadre de travail potentiel : (1) une interdiction de financement ou de déploiement des systèmes de reconnaissance faciale tant qu’ils n’ont pas été approuvés et que de solides protections juridiques n’ont pas été mises en place ; (2) une législation exigeant la participation du public avant leur utilisation, ainsi que des examens rigoureux de la technologie de reconnaissance faciale pour des raisons de partialité, de respect de la vie privée et de droits civils ; (3) une dérogation du gouvernement aux restrictions sur la recherche ou la surveillance des systèmes de reconnaissance faciale ; et (4) une plus grande protection des employés des entreprises technologiques en matière de dénonciation. Au Royaume-Uni, le projet de loi sur la technologie de reconnaissance faciale automatisée, rédigé par la commission spéciale de la Chambre des Lords sur l’intelligence artificielle à la fin de 2019, est en cours d’examen au Parlement au moment de sa publication.

Sur la base des recommandations ci-dessus – et en tenant compte des sept exigences clés du groupe d’experts de haut niveau de l’Union européenne sur l’IA pour une IA digne de confiance – la question du respect de la vie privée appelle ce qui suit :

1. Que les gouvernements mènent une vaste consultation publique et un débat sur l’utilisation de la technologie de reconnaissance faciale, en veillant à ce qu’un large éventail de voix aient la possibilité d’être entendues et soient prises en compte ;

2. Sur la base de ce processus de consultation publique, que les législateurs donnent la priorité à l’adoption d’une législation réglementant l’utilisation de la technologie de reconnaissance faciale dans les secteurs privé et public, notamment :

– Que l’utilisation de la technologie de reconnaissance faciale par la police soit strictement conforme aux principes de transparence et de proportionnalité ;
– Que l’utilisation de la technologie de reconnaissance faciale soit régulièrement vérifiée par un commissaire ou un conseil de surveillance indépendant ;
– que les personnes soient clairement et suffisamment informées avant d’être soumises à la technologie de reconnaissance faciale et qu’elles soient par conséquent en mesure de donner leur consentement ou, à défaut, de le révoquer ;
– Que des recherches indépendantes soient menées sur le biais algorithmique et ses effets sur les communautés vulnérables ; et

3. Qu’un moratoire volontaire sur la vente et l’achat de la technologie de reconnaissance faciale par les entreprises qui participent à son développement et à son utilisation, soit instauré jusqu’à ce qu’une telle réglementation soit adoptée – comme l’a demandé l’ACLU Massachusetts, parmi d’autres acteurs de la société civile.

Dans un article du Financial Times, la directrice de l’Institut Ada Lovelace, Carly Kind, cite l’exemple de la manière dont un moratoire réussi a empêché la discrimination et l’exploitation dans le secteur des assurances en Grande-Bretagne. En 1998, les assureurs britanniques ont volontairement mis en place une interdiction de deux ans sur l’utilisation des tests génétiques pour les polices d’assurance santé ou d’assurance vie, dont les futurs propriétaires de maison ont besoin pour obtenir un prêt hypothécaire au Royaume-Uni. En raison d’une lacune dans la loi, il aurait été légal pour les compagnies d’assurance d’obliger leurs clients à partager les résultats des tests génétiques, qu’ils auraient ensuite pu utiliser pour augmenter les primes ou refuser la couverture. Au lieu de cela, l’Association des assureurs britanniques a adopté un moratoire, qui a été prolongé et finalement officialisé dans un accord officiel avec le gouvernement, liant 97 % du secteur.

Bien que le rythme du débat public et de l’élaboration des lois puisse toujours être en retard sur la vitesse inhérente au développement des nouvelles technologies, l’exemple du moratoire volontaire des assureurs britanniques est la preuve que des changements radicaux dans le secteur peuvent être mis en œuvre efficacement pour prévenir les violations des droits et limiter les préjudices potentiels. Étant donné l’échelle mondiale et le rythme de développement de la technologie de reconnaissance faciale, l’appel à l’action est plus que jamais d’actualité. Cependant, face à une technologie qui prolifère rapidement et qui non seulement érode la démocratie et les libertés civiles, mais qui est aussi régulièrement utilisée comme arme contre les communautés vulnérables, il ne faut rien de moins qu’une action réglementaire audacieuse.

L’article est soumis à une licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Pas de Modification 4.0 International (CC BY-NC-ND 4.0)

The Privacy Issue

Quelle forme de complicité a rendu Facebook possible ?

L’exemple de Facebook1 permet de remonter à la racine d’une « responsabilité du clic » associant le réflexe corporel – celui de cliquer, commun à toute l’économie du net – et le succès fulgurant d’une révolution globale non pas tant numérique (comme on se plaît à le dire) que politique. Facebook peut être considéré comme un exemple princeps de ce que Foucault nommait les « techniques du corps », exemple dont la valeur repose ici sur sa portée contre-intuitive, puisque l’Internet est réputé réaliser le triomphe de « l’immatériel ». Ainsi, la mystification est totale. La focalisation imaginaire sur la production des biens physiques – telles une voiture ou une paire de chaussures – fait volontiers oublier aux militants écologistes combien les réseaux ont accaparé un potentiel de croissance économique exponentielle qu’eux-mêmes hésitent à intégrer dans leur critique, en raison d’un désir de propager leur propre audience par ces moyens-là, désormais déclarés incontournables. Cette croissance est destinée à devenir ubiquitaire avec l’implantation du réseau 5G (de cinquième génération) et la généralisation de l’Internet des objets, ce qui montre à rebours que le capitalisme n’a pas dit son dernier mot sur les objets matériels : il s’agit par là de créer de toutes pièces une nouvelle phase d’accumulation qui ne laissera aucun geste quotidien en dehors de son emprise jusqu’à s’implanter dans le corps humain. Il s’agit de coloniser sans reste toute chose et tout être, et même les flux de pensée, avec notre consentement imperceptible, au nom de l’argument selon lequel il n’y a rien de mal à promouvoir des technologies si pratiques et si rapides. La croissance économique se présente ainsi sous les espèces d’une communication inoffensive, qu’il convient seulement de « faciliter » dans l’intérêt de tous, au service de bonnes causes, alors qu’elle vise à absorber l’ensemble des sphères non économiques dans sa progression dévorante. Ce faisant, elle parachève l’intégration de toute critique dans l’escarcelle de sa propre valorisation. Elle réussit à éliminer son propre dehors en contribuant à l’inanité de toute opposition politique – ceci dans la mesure même où elle prétend faciliter la diffusion de causes politiques. L’argument selon lequel on doit à Facebook (et d’autres réseaux sociaux) le départ et la diffusion de contestations sociales doit être analysé à l’aune de la croissance de Facebook lui-même, qui, pendant qu’on poussait les représentants de l’État à la démission, engrangeait les bénéfices cachés de ces révoltes : nous avons insensiblement changé de maîtres. La critique de la croissance peut ainsi en rester à la critique fétichiste des objets physiques en éludant les progrès d’une infrastructure de la communication prétendument acceptée pour la bonne cause. Ce faisant, elle nourrit un capitalisme à qui elle demande en même temps de décroître ou de disparaître. Cela démontre par les faits l’inconséquence d’une critique qui ne va pas jusqu’à considérer sérieusement l’affirmation de MacLuhan sur l’identité du message et du média. Que ne faut-il de naïveté ou d’idéologie pour penser qu’une bonne idée se suffit tellement à elle-même qu’elle n’a pas à s’interroger sur ses voies de médiatisation !

Facebook offre un cas d’espèce qui permet de définir un certain type d’enrôlement subjectif et d’éclairer la nature de certains compromis apparemment sans retour. La rumeur qui parlait d’une candidature de Zuckerberg aux élections américaines est à prendre au sérieux, même si la réputation de l’entreprise est désormais entachée : nous savons que le scénario d’un président milliardaire sans expérience politique est possible, aussi le scénario d’un milliardaire de la Silicon Valley président des États-Unis n’est pas à exclure. Comme chacun sait, Mark Zuckerberg a dû répondre en 2018 devant le Sénat américain et le Parlement européen du scandale de la vente des données personnelles à Cambridge Analytica, c’est-à-dire pour avoir transgressé le respect de la vie privée des utilisateurs et avoir permis que soient influencés les résultats des présidentielles Américaines. Mais la dénonciation aussi irrégulière qu’inefficace du monopole des GAFAM2 semble incapable de mener à une poursuite juridique à l’aide des seules lois antitrust américaines, en raison de l’intérêt pour le bien commun dont se targuent les géants du monde numérique : investissement dans la recherche scientifique (qui est cependant bien davantage qu’une recherche désintéressée puisqu’elle porte un vaste projet de société) et accession des particuliers à une multitude de services « gratuits ». Ces lois américaines qui surent dans le passé conduire au démantèlement d’entreprises aussi influentes que la Standard Oil ne s’appliquent plus à la situation actuelle. C’est pourquoi un auteur libéral comme Luc Ferry n’a rien de mieux à proposer aux Européens que de créer leur propre GAFAM. Leur monopole et leur ascension politique a déjà réussi la paralysie du monde politique, au point que la seule « alternative » aux GAFAM américains serait des équivalents européens, ce que les Chinois ont bien compris avant tout le monde avec leurs BATX3. L’arrogance européenne consistant à considérer par provision l’Europe comme naturellement porteuse de valeurs plus hautes – capable de transcender les horreurs américaines et chinoises – est une fois encore sans limites. Mais la menace que font peser les GAFAM sur l’économie et la politique elles-mêmes est la raison pour laquelle ces entreprises sont désormais dans le viseur de tout le spectre politique de droite comme de gauche, y compris américain : elles sont déclarées contrevenir aux règles minimales du libre-échange et inquiètent donc non pas tant pour leurs vertus capitalistes que pour leur nature anticapitaliste4, comme un tricheur à qui on rappelle les règles du jeu, sauf que c’est désormais le tricheur qui fait les règles. Il n’est donc pas étonnant qu’une libérale comme Margrethe Vestager, commissaire européenne à la concurrence (et, depuis le 1er décembre 2019, vice-présidente de la commission européenne en charge du numérique), ait fait de la lutte contre les GAFAM son plus grand défi. Comment en sommes-nous arrivés à une situation où des entreprises en situation de monopole mondial sont devenues à ce point capables de dicter les règles du jeu politique ? Il est possible d’étudier toute la stratégie commerciale de ces firmes pour en tirer des conclusions sur leurs ambitions politiques, dont le transhumanisme est le fleuron idéologique. Mais cette approche ne suffit pas : elle n’explique pas la protestation persistante des utilisateurs même les plus gauchistes et les plus anticapitalistes en faveur de Facebook « malgré leur répugnance », et ceci en dépit des nombreux signaux d’une modification sournoise et fondamentale de la vie politique que Facebook et d’autres ont déjà enclenchée et bientôt remportée. Il n’est que de voir le nombre de lieux qui se disent anticapitalistes et alternatifs, dont le compte Facebook est mieux mis à jour que leur site Internet : ce qui contribue de fait soit à forcer le sympathisant à ouvrir un compte Facebook pour accéder aux contenus, soit à l’exclure de ces mêmes contenus s’il persiste à refuser de se joindre à la communauté Facebook. On conviendra que c’est là un comble pour toute pensée critique. Qu’on en juge par les propos sans fards de Peter Thiel, fondateur de PayPal, actionnaire de Facebook, transhumaniste, libertarien élitiste et adversaire résolu de la démocratie : « Nous sommes engagés dans une course à mort entre la politique et la technologie. Le sort de notre monde dépend d’un seul individu, d’une personne, qui sera capable de bâtir et diffuser des outils technologiques favorisant la liberté et permettant un monde plus sûr pour l’épanouissement du capitalisme5. » Les États, pour rester dans la course, sont sur une pente glissante : la France des droits de l’homme n’a pas craint de faire passer sans débat parlementaire en 2016 un méga-fichier (Titres électroniques sécurisés) qui centralise les informations personnelles et biométriques de tous les Français. L’Europe met à l’essai « à des fins de recherche » un système de contrôle aux frontières européennes (iBorderCtrl) financé par la Commission européenne, qui utilise les technologies de reconnaissance faciale, un détecteur de mensonges et le recueil des données – tout ceci au nom du confort des usagers et de la sécurité collective qui seront les critères décisifs pour l’éventuelle adoption ultérieure de ce système de contrôle. Nous sommes insensiblement, une étape après l’autre, dépossédés du droit de ne pas être traçabilisés et personne ne sait à quoi peut servir dans un avenir incertain la constitution de tels fichiers (dont l’exemple de la Chine donne un certain avant-goût). Il n’y a aucune raison de penser qu’ils ne vont pas continuer de s’étendre en volume et en applications, toujours pour la bonne cause. « On vous protège », affirme désormais péremptoirement le métro parisien pour justifier les caméras de surveillance. Le progrès technologique est vu ici comme un développement autonome, naturel, cosmique en somme, contre lequel seules des interdictions puissantes auraient peut-être une chance de nous sauver du désastre. Il n’y a pas de choix ; il n’y a que des permissions ou des interdictions, des évitements ou des facilitations d’un phénomène qui, pour ainsi dire, se passe sans nous (dans la droite continuation du fétichisme du progrès). Pendant ce temps, nous continuons de nous enfoncer mollement dans la consommation numérique comme dans un sommeil de nos facultés critiques. Je prie le lecteur d’imaginer sur quelle pente nous mène ce faisceau de tendances qui concourent, mises ensemble, à transformer la planète en lieu invivable et sans échappatoire et l’humanité à un troupeau d’enfants qu’on dresse, qu’on surveille, qu’on protège et qu’on évalue.

Or tout se passe ainsi comme si nous avions (presque) tous voté pour Facebook et que nous considérions cette dictature d’un genre nouveau (sans doute difficile à décrypter aux habitudes héritées de l’histoire des dictatures) comme la seule option possible, rapportée à une inoffensive évolution des pratiques – du moins aussi longtemps que quelqu’un d’en haut ne nous en aura pas libérés, comme des enfants pris au piège. C’est dans ce contexte qu’il convient de replacer la demande répétée aux institutions européennes de nous libérer des GAFAM. Se peut-il que tout le monde s’en serve, mais que personne n’en veuille ? Voulons-nous ce que nous désirons, pour reprendre une formule de Lacan ? Personne ne se risque à dire sur quel modèle économique l’Europe pourrait sortir des GAFAM, étant donné qu’une version européenne des GAFAM fondée sur le même modèle économique n’aurait évidemment rien d’émancipateur, sauf à supposer qu’un label européen serait naturellement plus moral qu’un label étranger, comme tend à le croire le vieux chauvinisme européen. Quoi qu’il en soit, les politiques nationales et européennes sont dans l’impasse et leurs représentants sont détestés à la mesure de l’attente exorbitante à leur endroit. Que dire ici des utilisateurs de Facebook ? Ils ne semblent à tout le moins pas faire grand cas ni de leurs données personnelles, ni des projets qu’elles permettent de financer, ni des influences qu’on exerce sur eux. Pourquoi en effet poursuivre les entreprises si le public en redemande ? La même personne qui ne se déclare pas prête à quitter Facebook peut à la fois critiquer la viduité de la plus grande partie des communications échangées sur Facebook, jouer tout de même les « infiltrés » et en appeler à la lutte active contre les GAFAM6. De manière caractéristique, cette argumentation manie soumission et fausse critique sans rien trancher sur le fond. À côté de l’argument pratique, il se développe en particulier une série de « justification par l’infiltration » : être présent sur Facebook permettrait justement d’observer Facebook, voire permettrait de répandre à grande échelle des informations critiques, de lancer des mouvements ou d’accéder soi-même à des informations inaccessibles ailleurs (alors même que tant d’informations sont notoirement des fake news et que tant d’autres sont censurées). Voyons plutôt ce que déclarait l’une des collaboratrices de Facebook au souvenir de l’introduction des News Feed en 2006 :

« Nous nous sommes réveillés avec des centaines de milliers de gens indignés. Pendant la nuit, des groupes Facebook comme “je déteste newsfeed”, “Ruchi [la collaboratrice en question] est le diable” s’étaient constitués. Des reporters journalistiques et des étudiants étaient campés devant les bureaux. Nous avons dû nous faufiler discrètement par la sortie arrière pour quitter le bureau. Des tas de gens nous demandaient de fermer définitivement News Feed. Et la plupart des autres entreprises auraient exactement fait cela, en particulier si 10 % de leurs usagers menaçaient de boycotter le produit. Mais nous ne l’avons pas fait… En fait, News Feed a marché. Au milieu de tout ce bazar, de toute cette indignation, nous avons remarqué quelque chose d’inhabituel. Bien que chacun prétendait le détester, l’activité avait doublé7. »

La mesure de l’action plutôt que celle de l’opinion aura ici été déterminante : non pas ce que vous dîtes, mais ce que vous faites. C’est bien le coup de clic qui aura été décisif, cette sorte de réflexe inscrit dans la peau des utilisateurs de l’ère numérique. Cela porte un nom en théorie néoclassique : ce sont les préférences révélées8. L’écart entre l’indignation affichée des utilisateurs et le succès réel de la chose (« News Feed a marché… l’activité avait doublé ») justifie la poursuite de l’entreprise, ressort ultime de son ascension. Le compromis passé à ce moment-là ouvre une voie qui, semble-t-il, est sans retour : une fois que ce cap fut franchi, Facebook devint en quelques années toujours plus puissant et politiquement hors d’atteinte. Les conditions d’installation initiales furent comme frappées de refoulement. Le compromis originel devient illisible dans ce que Freud nomme les phénomènes de déplacement ou de condensation : le destin du compromis est d’avoir effacé ses propres traces. Il n’empêche que le monde numérique est plein de repentis, tel le fondateur de WhatsApp qui, après avoir revendu l’application à Facebook investit désormais dans la protection des données, laquelle ne change rien au modèle économique de Facebook : elle renforce au contraire sa légitimité écornée. L’opinion d’une gauche imbue d’elle-même selon laquelle nous ne voulons pas de ce modèle de société est contredite par l’ascension arrogante de ce même modèle assise sur une complicité généralisée. Se peut-il alors que les gens ne reçoivent pas autre chose en fait que ce qu’ils veulent vraiment ? Leur véritable désir est-il celui, pur, qui précèderait le moment de corruption, ou bien celui révélé par l’offre qu’ils acceptent gracieusement ? Cette spirale rétroactive ne se ferme sur aucune ontologie subjective susceptible d’endosser l’entière responsabilité du circuit de l’offre et de la demande. Leur vrai désir n’est certainement ni l’un ni l’autre : le désir n’a pas de substance. Lacan a dit que le désir de l’homme, c’est le désir de l’Autre : toutes les gesticulations sur mon désir insatisfait ne valent pas un instant de considération si mon adresse constitue un ralliement secret à cet Autre incarné dans le discours du moment – en attendant le prochain discours. À charge donc pour le critique d’incarner un autre discours. Le moment fictif de corruption (celui où un utilisateur se met à agir d’une manière qu’il réprouve ou prétend réprouver) est lui-même ce point évanouissant d’une subjectivité impossible à objectiver à la fin autrement que dans la somme de ses actes. L’autre sujet, celui de l’inconscient, celui qui articule la structure « je sais bien, mais quand même… », n’est justement pas lisible dans l’ordre du monde algorithmique. Que vous ayez un doute, une mauvaise conscience ou un repentir ne compte pas pour les big data, qui ne font que totaliser des actes. Il s’ensuit que ce réseau social est probablement l’entreprise la plus populiste au monde, à savoir qu’il accorde une certaine fonction politique à la multitude dont il révèle ou façonne une préférence en supplantant imperceptiblement dans son creuset algorithmique toutes les formes connues d’organisation politique.

Mark Zuckerberg ne cesse de protester ingénument (lui aussi) du fait qu’il n’avait aucune autre intention que celle de lancer un réseau efficace et enrichissant pour les utilisateurs. Il nous semble décidément n’avoir à faire qu’à une humanité exclusivement soucieuse de générosité et de partage. Mais l’histoire de Facebook montre que la bonne intention dérape à un endroit de sa collusion obscure avec l’Autre au cours de son processus de multiplication. N’est-ce pas à juste raison que Zuckerberg ne manque jamais de remercier les utilisateurs de l’avancement de son grand projet universel ?

« À un moment, il [Mark Zuckerberg] décida que le principe universel qui vaut ici, c’est celui de l’acte d’engagement. Ce à quoi nous devrions vraiment prêter attention, ce dont il s’assurera que nous y prêtions attention, ce sont les choses qui génèrent de l’engagement. […] Le behaviourisme est ancré dans Facebook. Facebook n’en a pas fait mystère. Facebook est constamment en train d’ajuster ses algorithmes pour essayer de commuter nos états émotionnels positifs, qu’on appelle habituellement le bonheur. C’est l’une des raisons pour lesquelles Facebook mesure le bonheur du mieux qu’il peut, ou du moins c’est ce que pensent ses administrateurs. Voilà pourquoi ils ont conduit des études sur le changement de l’humeur (et cela leur causa des problèmes). C’est le genre d’ingénierie sociale qu’ils veulent mettre en place. C’est l’une des raisons pour lesquelles ils essayent d’appliquer le principe de mesure hédoniste à toutes les espèces9. »

Or Zuckerberg n’a pas mieux à promettre que ses investissements dans le domaine de la connexion télépathique universelle et la disparition de toutes les maladies de la terre, projets qui en d’autres temps seraient passés pour ceux d’un dangereux psychopathe. Lorsqu’il dévoile son projet d’interface cerveau-ordinateur, qui serait capable de transformer le flux des pensées en données partageables et en interaction directe avec les objets connectés, il n’a aucune raison de douter qu’une telle technologie trouvera des utilisateurs, conformément aux principes qui ont fait leurs preuves jusqu’à présent : « Je suppose que ce serait quelque chose que quelqu’un choisirait d’utiliser comme produit10. » Le fantasme de symbiose technologique tire son ressort de la promesse de surmonter la division du sujet par la fusion de l’environnement et de l’individu – en quoi notre civilisation s’avance dangereusement au bord de l’abîme de la responsabilité. Ceci dit indépendamment de la faisabilité de ce projet, qui reste bien sûr incertaine.

Et tandis que la seule solution, mais la plus improbable d’après certains critiques, serait de quitter massivement Facebook, on argue en face qu’il est peine perdue de quitter Facebook (les données étant récoltées partout ailleurs, autant dire qu’il est trop tard) et qu’on ne voit pas comment garder contact avec famille et amis, organiser un événement d’envergure ou lancer un mouvement contestataire sans un service équivalent à celui de Facebook11. Si une étude déplorait un quart de fermeture de comptes Facebook par les utilisateurs américains lors du deuxième trimestre 2018 (mais seulement environ 1 % de baisse d’utilisation active en Europe), Facebook n’est pas menacé et détient suffisamment d’autres services par ailleurs. Chacun sait que lorsque les utilisateurs sont lassés d’un service, il suffit – c’est de bonne guerre capitaliste – d’en proposer un nouveau. Ce point de fuite est caractéristique d’une incapacité croissante des peuples et des individus à dire non, le refus ponctuel étant de toute façon immédiatement réorienté vers une nouvelle offre. Il faut donc le dire : Mark Zuckerberg a dû répondre des opérations de son entreprise, mais les utilisateurs sont à la fin lavés de toute responsabilité. Eux n’ont que de bonnes raisons, ludiques ou sérieuses, et toujours déclarées « pratiques », de rester utilisateurs d’un réseau qui, en vérité produit une accumulation capitaliste exponentielle grâce à leurs données personnelles et met en œuvre une révolution politique. Or ce n’est pas le règlement général sur la protection des données (RGPD) qui change quoi que ce soit à cette politique ; ce dernier parachève la perversion en permettant la récolte des données… avec votre consentement obligatoire, même si celui-ci est obtenu en un clic négligeant. Même si la case cochée par défaut n’est plus légale, on peut se demander quel utilisateur lit à chaque fois l’intégralité des conditions d’utilisation et s’embête d’un long détour pour refuser son accord. De plus le RGPD ne s’applique qu’en cas d’identification personnelle des données, mais ne s’applique pas à leur recueil anonyme à des fins statistiques (certains types de cookies), ce qui égare l’utilisateur. Il s’ajoute à cela un certain nombre de détournements des conditions d’utilisation qui ont été dénoncées en France par l’association la Quadrature du Net. La tactique du plus malin caractérise le recueil du consentement qui n’est pas du tout aussi « univoque » que le prétend le RGPD. En pratique, c’est une demande fastidieuse répétée à chaque nouveau site, renouvelable régulièrement, soumise à des conditions d’utilisation et à des paramétrages qui n’intéressent pas le profane. Le consentement s’obtient en harassant l’utilisateur par une demande répétée faîte dans des conditions qui dérangent sa navigation. Or le consentement obtenu de cette manière est d’ores et déjà l’argument imparable de Facebook dans les plus récentes accusations de collecte de données qui se poursuivent en contournant le règlement européen par le biais d’applications mobiles, faisant de l’utilisateur un « complice12 » par sa négligence même à vérifier les conditions d’utilisation au moment de l’installation d’une application. Nous retrouvons au cœur de la question de la responsabilité la notion de consentement qui est tout sauf « univoque », contrairement à ce que prétend le RGDP. C’est plutôt en se fondant sur une équivoque fondamentale du consentement que Facebook peut continuer à déployer son modèle commercial. Comment Facebook cesserait-il, du reste, de collecter des données, puisque tout son modèle politique et commercial est bâti là-dessus ? Pourquoi fait-on mine tous les quatre matins de redécouvrir la même chose et de s’en offusquer ? Seule l’interdiction pure et simple de l’utilisation commerciale des données mettrait en péril le monopole, voire l’existence de Facebook. Au risque d’avoir un tiers de l’humanité en révolte pour défendre leur réseau social ?

Le mythe d’un Facebook générateur de rassemblement horizontal et de révolutions sociales (printemps arabes, gilets jaunes) oublie que ces révolutions sont retombées comme des crêpes, débouchant ici sur de nouvelles dictatures, là sur des réclamations populistes qui ne démontrent aucunement la capacité des citoyens à concevoir et organiser une nouvelle société, car une nouvelle organisation demande, comme disaient les surréalistes, de changer la vie et non pas seulement de répandre des mots d’ordre sur les réseaux. On ne pourra changer la vie qu’en reprenant la main sur les circuits de production et de décision politique. La « communauté globale » que promeut Facebook pour faire face aux défis globaux (tels le terrorisme, la crise des réfugiés ou le changement climatique13) ne démontre que l’ambition de son fondateur, pas seulement de renvoyer à la société son miroir supposé, mais aussi d’être à la source d’un changement mégalomane de société auquel chacun de nous a renoncé à toute petite échelle (à l’échelle de changer la vie). C’est ainsi qu’un enchaînement d’effets de masse conduit un fantasme ordinaire (qui ne voudrait sauver le monde ?) mais réprimé vers un effroyable degré de réalisation parfaitement combiné à l’apathie générale. Il repose sur la réorientation de toute activité de changement politique vers une émotion cliquée.

Chacun s’émut d’apprendre que « la démocratie est menacée » lorsqu’une frange d’électeurs fut subrepticement influencée pendant la campagne politique de Donald Trump : mais qui met en doute la psychologie behavioriste rudimentaire qui fonde cette affaire, selon laquelle il suffit d’envoyer un message ciblé à la bonne frange d’électeurs et au bon moment pour faire tourner le vent politique ? L’idée fondamentale est que les électeurs, comme les consommateurs, sont des sortes d’animaux manipulables à volonté, et non des sujets responsables de leur vote, quelque légère ou versatile que soit leur opinion. C’est une vision qui n’est ici pas un instant mise en doute : l’homme est un animal qui répond à des signaux. Il n’est donc pas responsable de ce qu’il fait et il convient uniquement de s’assurer de lui trouver un maître pas trop mauvais ou de vérifier les signaux qui lui sont envoyés, au cas où ils seraient malveillants, racistes, sexistes ou encore simplement faux. Il faut protéger la petite tête influençable du citoyen. Il y a beaucoup plus de souci à se faire sur cette définition animalière de l’homme réagissant au premier stimulus venu (comme si rien ne venait de lui et qu’il n’avait aucune responsabilité dans sa réponse) que sur les politiques d’un Trump ou d’un Zuckerberg qui du reste ont été portés au sommet par les peuples – l’un par le vote politique, l’autre par le vote économique. Deux formes de choix social qui ont bien en commun certains principes et certains paradoxes, notamment celui de ne jamais pouvoir refléter le désir supposé de l’individu, et donc de pouvoir donner lieu à des résultats collectifs aberrants, qui relancent, à rebours, l’insondable question de leur rapport à l’individu. Ce dernier évitera ainsi de se demander ce qu’il a à voir avec un résultat collectif dont il croyait ne pas vouloir. L’individu, citoyen ou utilisateur, préférera rejeter en bloc les élites et les représentants, accusés d’avoir menti sur la marchandise, plutôt que de remonter à la racine du compromis passé avec les forces qui le dépossèdent de son pouvoir d’agir. L’exemple de Facebook et d’autres plateformes à l’ascension fulgurante met en évidence par quel compromis imperceptible nous mettons le pied dans un engrenage qui ne tarde pas à apparaître ensuite comme une machine écrasante sur laquelle l’individu n’a plus aucune emprise. Facebook représente en ce sens le récapitulatif fulgurant de toute l’histoire du capitalisme.


Notes :

1Cet article correspond au treizième chapitre de l’ouvrage paru le 5 décembre 2019, reproduit ici avec de légères modifications avec l’accord de l’éditeur : Sandrine Aumercier, Tous écoresponsables ? Capitalisme vert et responsabilité inconsciente, Libre & Solidaire, 2019.

2Google, Amazon, Facebook, Apple, Microsoft

3Baidu, Alibaba, Tencent, Xiaomi.

4Larry Elliott, « Is it Time to Break Up the Tech Giants Such as Facebook ? », The Guardian, 25 mars 2018.

5Fabien Benoit, « Peter Thiel, l’homme qui voulait achever la démocratie », Usbek et Rica, 17 juin 2018.

6 Olivier Erztscheid, « Pourquoi je ne quitte pas (encore) Facebook », Libération, 24 avril 2018.

7 Ruchi Sanghvi, post Facebook, 06 septembre 2016, cité par Andrea Huspeni, « Mark Zuckerberg Reveals the 5 Strategies that Helped Facebook Grow at an Insane Rate », Entrepreneur, 25 mai 2017.

8Olivier Mongin, « Les préférences révélées et la formation de la théorie du consommateur », in Revue économique, vol. 51, n° 5, septembre 2000.

9Alexis C. Madrigal, « Were We Destined to Live in Facebook’s World ? », Entretien avec Siva Vaidhyanathan, The Atlantic, 24 juillet 2018.

11Brian X. Cjen, « Want to #DeleteFacebook ? You Can Try », New York Times, 21 mars 2018.

12Hatim Boumhaouad, « Exploitation des données personnelles par Facebook : l’usager est-il complice ? », The Conversation, 7 avril 2019.

13Alexis C. Madrigal, « The Education of Mark Zuckerberg », in The Atlantic, 20 novembre 2017.