Biohacking et transhumanisme : Un rapport sur l’augmentation humaine

Une étude révèle que beaucoup d’entre nous considèrent le biohacking comme passionnant, mais les craintes concernant le piratage et la vie privée demeurent.

L’augmentation humaine peut décrire beaucoup de choses. Les appareils auditifs, les stimulateurs cardiaques et les prothèses sont déjà utilisés, mais à l’avenir, nous pourrions utiliser ce terme pour désigner les implants qui améliorent les capacités cognitives ; les puces qui nous relient à nos appareils intelligents, ou les yeux bioniques qui peuvent restaurer la vue, et bien d’autres choses encore.

En ce qui concerne les applications futures, les pays du monde entier font avancer le développement de nouvelles technologies qui pourraient améliorer le corps humain.

Par exemple, le Japon a récemment mis un milliard de dollars sur la table pour les chercheurs désireux de se consacrer à tous les domaines, de l’augmentation de la population humaine à la longévité, en raison de la nécessité de s’attaquer au vieillissement de la population active et à la diminution de la population.

Kaspersky a publié un nouveau rapport, The Future of Human Augmentation 2020: Opportunity or Dangerous Dream?, ce rapport vise à clarifier les points de vue des citoyens de plusieurs pays sur la perspective du biohacking.

L’étude a révélé que 92 % des personnes interrogées ont déclaré qu’elles changeraient une caractéristique d’elles-mêmes si elles le pouvaient, 63 % ont déclaré qu’elles envisageraient une augmentation humaine à l’aide de la technologie. Le travail sur le terrain pour cette étude a été mené par Opinium Research qui a interrogé 14 500 personnes de 16 pays d’Europe et d’Afrique du Nord.

Les Italiens sont les plus nombreux à envisager le biohacking, soit 81 % au total. En revanche, les Britanniques sont plus prudents, avec seulement 33% qui disent qu’ils étudieraient l’augmentation humaine pour changer leurs propres caractéristiques. L’Espagne, le Portugal, la Grèce et le Maroc sont également ouverts à l’idée du biohacking.

Plus de la moitié des personnes interrogées, soit 53%, estiment que le biohacking améliorerait leur mode de vie. Cependant, 69% ont exprimé leur inquiétude quant au fait que le biohacking sera à l’avenir réservé aux riches.

Lors de la conférence de Kaspersky NEXT, cette opinion a également été exprimée par Julian Savulescu, professeur à l’université d’Oxford et titulaire de la chaire Uehiro d’éthique pratique : “L’augmentation humaine se développera grâce aux forces du marché en maximisant les profits des grandes entreprises multinationales”. En d’autres termes, l’économie et la demande des consommateurs pourraient stimuler les initiatives de biohacking, plutôt que toute quête d’un bien commun.

Zoltan Istvan, le fondateur du Parti Transhumaniste, a approuvé, notant que l’augmentation de la population humaine est susceptible d’être “contrôlée par le capitalisme dans une certaine mesure”, et que “l’économie sera un moteur, pour le meilleur ou pour le pire”. Istvan pense aussi que le biohacking est intrinsèquement la prochaine étape pour les humains “qui aspirent à être quelque chose de plus grand que ce que nous sommes”. “[Je suis] en fin de compte du côté du choix personnel, tant que cela ne nuit pas directement à quelqu’un d’autre”, a déclaré Istvan. “[…] Laissez les gens prendre ces décisions eux-mêmes et le marché suivra.”

Parmi les autres statistiques intéressantes publiées dans le rapport, on peut citer :

– 88% des personnes ont déclaré craindre que leur corps puisse être piraté par des cybercriminels
– 36% des femmes et 25% des hommes considèrent l’augmentation attrayante pour améliorer l’attractivité
– Les hommes sont plus intéressés par l’amélioration de leur force via le biohacking (23%) que les femmes (18%)
– 47% estiment que les gouvernements devraient réglementer l’augmentation humaine

“L’augmentation humaine est l’une des tendances technologiques les plus importantes aujourd’hui”, a commenté Marco Preuss, Directeur Europe de l’équipe de Recherche et analyse globales pour Kaspersky Europe. “Mais les gens ont raison de se méfier. Les adeptes de l’augmentation testent déjà les limites du possible, mais nous avons besoin de normes communes pour garantir que l’augmentation atteigne son plein potentiel tout en minimisant les risques”.

“Il est important d’en parler maintenant, d’avoir un aperçu de ces technologies maintenant, afin de conduire activement son développement”, a déclaré Preuss. “Nous avons tellement de romans et de films sur ce sujet. Il nous appartient maintenant de décider si nous voulons aller dans cette direction”.

CTech , Kaspersky, ZDNet

La Chine est en train de bâtir une base de données génétiques sur chaque homme du pays

Surveillance génomique

La police chinoise recueille des échantillons de sang auprès des quelque 700 millions d’hommes et garçons du pays – dans le but exprès de constituer une base de données génétiques nationale de leur ADN.

Le gouvernement chinois collecterait ces codes génétiques depuis 2017, selon de nouvelles recherches. La police se rend chez les gens et même dans les écoles pour faire des prises de sang et compiler des informations génétiques.

Une fois que ce travail sera terminé, l’État sera en mesure de traquer les hommes ou les jeunes garçons de la famille en se basant sur leurs gènes, selon le New York Times, ce qui renforcera considérablement les pouvoirs de surveillance déjà omniprésents de la Chine et en fera un panoptique génétique de type Gattaca.

Plus alarmant encore, une société américaine, Thermo Fisher, aide la Chine dans cette tâche – la société pharmaceutique a vendu à la Chine les kits de tests ADN sur mesure que la police utilise pour collecter des échantillons après avoir négocié activement le contrat, rapporte le NYT. Après que le gouvernement américain ait critiqué la décision de Thermo Fisher, la société a poursuivi ses activités.

Les responsables politiques en Chine invoquent la loi et l’ordre pour justifier la croissance de leur base de données génétiques, en faisant valoir que l’effort de surveillance aidera les enquêtes criminelles. Mais les défenseurs des droits de l’homme – et même certains fonctionnaires en Chine – s’inquiètent des conséquences sur la vie privée en forçant tout le monde à donner son code génétique.

« La capacité des autorités à découvrir qui est le plus intimement lié à qui, étant donné le contexte de la répression exercée sur des familles entières en raison de l’activisme d’une personne, va avoir un effet effrayant sur la société dans son ensemble », a déclaré Maya Wang, chercheuse de Human Rights Watch, au NYT.

Une fois que la Chine aura atteint les 70 millions d’échantillons, soit dix pour cent de la population masculine du pays, elle sera théoriquement en mesure de relier toute personne du pays à ses proches sur la base de son ADN.

Les scientifiques s’insurgent contre la collecte d’ADN de la Chine

Selon Nature News, des scientifiques et des militants font maintenant pression contre ce plan qui, selon eux, permettrait à la Chine de violer les droits de l’homme et de persécuter sa population.

“Vous pouvez penser à des pratiques abusives si vous êtes créatif”, a déclaré Itsik Pe’er, biologiste en informatique de l’université de Columbia, à Nature News. “La police fait ce qu’elle veut.”

Le ministère chinois de la sécurité publique n’a fait aucun commentaire sur la manière dont la base de données génétiques va être utilisée – ou si l’on peut craindre des abus dépassant le cadre des enquêtes criminelles.

Mais même si les données génétiques sont utilisées exactement comme on le prétend, cela expose les populations, en particulier les groupes minoritaires, au risque de violence étatique. Au lieu de traquer des criminels, les experts avertissent que cela renforcera la capacité de la Chine à surveiller sa population et à écraser la dissidence.

“Cette collecte n’a rien à voir avec le crime”, a déclaré Maya Wang, chercheuse à Human Rights Watch basée à Hong Kong, à Nature News, “elle porte sur l’oppression”.

Voici une avalanche d’applications coronavirus qui traquent vos mouvements

Alors que la pandémie de covid-19 fait rage, les technologues du monde entier se sont empressés de créer des applications, des services et des systèmes pour tracer les contacts : identifier et notifier tous ceux qui entrent en contact avec un porteur. Certaines sont légères et temporaires, tandis que d’autres sont envahissantes et invasives. Certains services sont produits localement par de petits groupes de codeurs, tandis que d’autres sont de vastes opérations mondiales.

Malgré l’avalanche de services, nous en savons très peu sur eux ou sur la manière dont ils pourraient affecter la société. Quelle est l’ampleur de leur utilisation pour réussir ? Quelles données vont-elles être collectées et avec qui sont-elles partagées ? Comment ces informations seront-elles utilisées dans le futur ? Des mesures ont-elles été mises en place pour prévenir les abus ? Il n’y a pas toujours des réponses claires. Les citoyens de différents pays observent des niveaux de surveillance et de transparence radicalement différents.

Pour aider à surveiller cette situation qui évolue rapidement, une équipe du MIT a lancé le Covid Tracing Tracker – une base de données permettant de recueillir les détails de toutes les applications. A ce jour, 23 sont documentées. La base sera mise à jour au fur et à mesure.

La plupart des applications de traçage automatique des contacts n’utilisent pas l’IA. Elles s’appuient plutôt sur le Bluetooth, un signal sans fil de faible puissance qui peut mesurer (dans une certaine mesure) si deux propriétaires de téléphone ont été en contact.

Mais l’IA est fortement liée à des discussions sur le traçage des contacts, de deux manières importantes. D’une part, l’IA pourrait potentiellement aider ces applications à mieux protéger la vie privée des gens. D’autre part, elle pourrait également exposer davantage la vie privée, si elle était utilisée pour analyser les données collectées et extrapoler des informations personnelles comme le sexe ou le statut socio-économique qu’ils n’avaient pas l’intention de partager.

Liberté, Égalité, Singularité

À l’heure de la globalisation, les frontières ne disparaissent pas qu’entre les pays. Longtemps confinée aux domaines de la science, de l’industrie et du divertissement, la technologie envahit désormais des territoires considérés jusque-là comme essentiellement humains : les relations intimes, la psychologie, l’art, l’éducation et même… la politique. La conquête se fait sur plusieurs fronts simultanément : la sécurité, l’économie, le droit, l’environnement, la santé, mais aussi sur le plan électoral lui-même, et tout cela à grand renfort de big data. Cette évolution, qui soulève pourtant de nombreuses questions éthiques, ne semble pas inquiéter les citoyens et les citoyennes de nos chères démocraties, probablement usées par des décennies de scandales et de crises à répétition. En effet, dans un sondage réalisé le 21 mars 2019 par l’Université IE de Madrid, on apprend que « 25% des Européens seraient prêts à laisser des algorithmes gouverner plutôt que des hommes politiques pour prendre les bonnes décisions (…) Un chiffre qui monte à 30% en Allemagne, en Italie, en Irlande, au Royaume-Uni et même à 43% aux Pays-Bas »… Saint George (Orwell), priez pour nous.

Big data, big brother, big control

Les temps changent et, avec eux, les pratiques politiques. Enfin, les outils évoluent, mais les objectifs des puissants restent, eux, désespérément identiques au fil des siècles. Parmi ces objectifs, la clé de voûte du pouvoir : le contrôle. Et c’est ce que le big data permet aujourd’hui, dans des proportions inédites. Nous sommes scrutés sous toutes les coutures, nos actions sont observées, mesurées et enregistrées sans que nous en ayons conscience : caméras de surveillance dans les rues, reconnaissance faciale, géolocalisation, analyse de nos habitudes de consommation via nos cartes de paiement, de nos préférences culturelles et de nos orientations politiques sur les réseaux sociaux… Nous savons même désormais avec certitude que nous sommes écoutés par nos téléphones portables, nos tablettes et nos ordinateurs. Bien sûr, pour le moment cette collecte de données se fait officiellement à titre anonyme et pour des motivations commerciales. Mais il est clair que leur exploitation ne se limite pas à un usage mercantile et que ces pratiques ont d’ores et déjà des visées politiques, comme l’a démontré récemment le scandale Cambridge Analytica. Ajoutons à ce tableau le développement de nouvelles techniques comme le facial coding, qui consiste à décrypter les émotions sur le visage d’une personne, ou encore le déploiement du nudge, discipline qui vise à influer sur le comportement du consommateur (ou de l’électeur) par des moyens subtils et donc à guider sournoisement ses choix, et nous voyons se dessiner les contours d’une société où les notions de vie privée et de liberté ne seront bientôt plus qu’un lointain souvenir. Or, cette liberté est l’un des fondements de la démocratie et si les avancées technologiques la mettent en péril, alors il ne s’agit plus de progrès, mais d’une terrible régression. Le journaliste et essayiste Philippe Vion-Dury, auteur de La nouvelle servitude volontaire, le confirme : « Les entreprises de la Silicon Valley sont porteuses d’un véritable projet politique. Leurs algorithmes mettent sous leur coupe ceux qui s’y soumettent, volontairement. Aveuglant les consommateurs et les États par l’éclat de leur spectaculaire réussite économique, ces entreprises sont en train d’accumuler des sommes incalculables de données, grâce auxquelles elles ambitionnent de tout mesurer, tout contrôler, tout prévoir. Ou quand les mathématiques deviennent totalitaires. »

Power of equality

Les algorithmes sont-ils égalitaires, par nature ? Dans un rapport de la Human Technology Fondation intitulé « Intelligence artificielle, solidarité et assurances en Europe et au Canada » et daté du 20 janvier 2020, des acteurs majeurs du monde de l’assurance dressent un constat clair : « La montée en puissance des technologies et de l’IA nous force à réfléchir à ces pratiques et à leur futur. Ainsi, le recours, par les assureurs, aux objets connectés qui fournissent des informations précieuses sur le comportement de l’assuré, peut entrer en conflit avec le droit fondamental des personnes de mener leur existence selon leur propre conception de la vie bonne. En outre, l’hypersegmentation, qui aboutirait, à son point limite à la personnalisation complète des tarifs, pourrait remettre en question le principe de mutualisation entre les assurés. » En d’autres termes, l’IA et le big data pourraient accroître les inégalités en faisant payer davantage les citoyens dont on jugera le mode de vie « non conforme ». Les algorithmes pourraient devenir, si l’on n’y prend garde, des outils au service d’une discrimination sans précédent. Et ce qui est valable dans le monde de l’assurance, l’est tout autant dans les domaines de la culture, de l’éducation, de l’orientation religieuse, politique ou même sexuelle… Qui établira ce qui est conforme et ce qui ne l’est pas ? Quels seront les intérêts défendus par les instances en charge de telles décisions ? C’est là que l’État, en tant que représentant de l’intérêt général, a plus que jamais son rôle à jouer. Oui, mais voilà… Pour certains militants radicaux de la big tech, l’État, c’est justement la bête à abattre. Curtis Yarvin, ingénieur quadragénaire de la Silicon Valley et membre du mouvement néo-réactionnaire NRx, déclare : « Les États doivent devenir des entreprises lourdement armées et ultra rentables, qui aboliront le pouvoir de la presse, écraseront les universités, vendront les écoles publiques et transféreront les « populations décivilisées » dans des enclaves sécurisées pour les rééduquer ». Pour David Golumbia, professeur à la Virginia Commonwealth University, ce mépris pour la démocratie ferait partie de l’ADN même des fondateurs de la Valley : « Des gens comme Peter Thiel ou Elon Musk, pour ne citer qu’eux, dont le mépris est encore plus flagrant, sont célébrés comme des héros par les néo-réactionnaires ». Derrière les outils technologiques, il est donc bien question d’idéologie politique.

Make America tech again

Comme tout courant de pensée, l’idéologie techno-futuriste a ses penseurs. D’aucuns diraient ses gourous. Malgré une posture anti-politique de façade, certains ne cachent pas leurs ambitions dans ce domaine, à l’instar de Peter Thiel. Le cofondateur de Paypal et de Palantir Technologies, une société spécialisée dans le big data, a soutenu la candidature de Donald Trump à la présidentielle américaine de 2016 et est resté, depuis, l’un de ses proches conseillers. Pour le très libertarien Thiel, « le sort de notre monde dépend d’un seul individu, d’une personne, qui sera capable de bâtir et diffuser des outils technologiques favorisant la liberté et permettant un monde plus sûr pour l’épanouissement du capitalisme »… Cette personne serait-elle Elon Musk ? Avec son entreprise Neuralink, le patron de Tesla entend augmenter l’être humain grâce à des interfaces homme-machine implantées directement dans le cerveau et ce, afin d’augmenter la mémoire, de piloter des logiciels par la pensée ou encore de bénéficier d’un moteur de recherche cérébral… De quoi donner des sueurs froides à la CNIL, dans une France encore très attachée à la protection des données et aux libertés individuelles. Catherine Vidal, neurobiologiste et membre du comité d’éthique de l’Inserm, estime qu’« une vigilance éthique accrue s’impose face au développement spectaculaire des technologies de manipulations cérébrales qui dépassent désormais le cadre de la médecine, avec des applications commerciales destinées à la population en bonne santé (…) Les stimulations (électriques ou magnétiques) peuvent altérer le fonctionnement normal du cerveau, ses capacités de plasticité, et porter atteinte à l’autonomie du patient en interférant avec ses pensées, ses émotions, son libre arbitre ». Mais si la plupart des chercheurs français se montrent prudents quant à l’impact des neurotechnologies sur la société, les américains sont plus décomplexés, voire carrément débridés. Parmi eux, le pape transhumaniste Ray Kurzweil qui considère que « l’existence humaine ne dépend pas d’un corps biologique » et que « la biologie elle-même n’est qu’un ensemble de nanomachines ». Pour le directeur de l’ingénierie de Google, « les machines dépasseront nos capacités » très bientôt et nous n’aurions d’autres choix, pauvres humains limités que nous sommes, que de fusionner avec une super intelligence artificielle pour survivre. Une vision que partage le leader du parti transhumaniste Zoltan Istvan, candidat aux élections présidentielles de 2020, qui fait campagne « pour mettre fin à l’idée de la mort ». Dans son programme, quelques grands classiques ultralibéraux et technophiles : fin de l’impôt sur le revenu et de l’IRS (l’administration fiscale américaine), réduction du nombre de fonctionnaires grâce aux robots et aux nouvelles technologies, lutte contre le réchauffement climatique avec la géo-ingénierie, développement des utérus artificiels… Mais aussi, en toute logique, des mesures orientées plus radicalement vers le transhumanisme. « Le gouvernement ne devrait pas être en mesure de limiter ce que nous pouvons faire à notre corps, quelles que soient les normes culturelles, les préjugés religieux ou l’orientation politique », déclare le candidat sur son site de campagne. Si Istvan souhaite accéder à la fonction suprême, c’est pour « interdire les lois qui entravent la recherche de la santé et de la longévité pour les citoyens, notamment les interdictions sur l’édition génétique, le clonage et d’autres sciences radicales (…), déréglementer autant que possible l’innovation scientifique et technologique (…), explorer des options telles que donner aux criminels le choix du reconditionnement cérébral plutôt que de l’exécution (…), jeter les bases de droits civils pour de futurs êtres avancés comme les robots conscients, les cyborgs et les êtres vivants génétiquement créés »… Le Docteur Frankenstein est sorti de son laboratoire pour convertir le monde à la religion scientiste. Le président américain ne prêtera-t-il bientôt plus serment sur la Bible lors de son investiture, mais sur l’ouvrage du médecin philosophe Julien Offray de La Mettrie, L’Homme Machine ? Amérique, pays de tous les extrêmes.

Opération Crossroads 2020

« Il est évident que la guerre, peut-être même les civilisations, sont arrivées à un point critique grâce à cette arme révolutionnaire ». Telles sont les paroles du vice-amiral William Blandy, chef de l’opération Crossroads (« À la croisée des chemins »), une série d’essais nucléaires qui eurent lieu dans l’atoll de Bikini, au cours de l’été 1946, et dont le but était de valider la puissance destructrice des bombes A sur des navires et des sous-marins situés aux alentours. À la croisée des chemins, c’est probablement là que nous nous situons actuellement, avec le développement spectaculaire des neurotechnologies, de l’intelligence artificielle et du transhumanisme. Les enjeux de ces progrès sont, tout comme ceux liés à l’invention de la bombe atomique, planétaires et historiques. Nous parlons bel et bien ici, sans exagération, de l’avenir de l’humanité. À nos pieds, s’étendent deux voies, deux visions politiques, deux futurs possibles. L’une de ces routes nous mènerait vers un monde imprégné de scientisme, dans lequel la technologie serait mise au service d’une minorité recherchant toujours plus de richesses et de pouvoir, au détriment d’une population de plus en plus déclassée et soumise. Laurie Pycroft, chercheur en neurochirurgie à l’Université d’Oxford, analyse parfaitement ce risque : « Des neurotechnologies de pointe dont l’usage serait large pourraient offrir des modes de manipulation politique inimaginables jusqu’ici (…) Ce qui nous inquiète, c’est que si les mesures de sécurité appropriées ne sont pas mises en place, les patients pourraient être victimes de sévères effets secondaires, et leurs pensées pourraient être ciblées par des cyberattaques (…)L’attraction que pourrait générer la manipulation des souvenirs chez certains dirigeants politiques me semble évidente ! Modifier la mémoire ou changer notre point de vue sur un sujet est l’un des principaux objectifs de n’importe quel propagandiste. » Si le corps a déjà commencé à être envahi par la société de consommation, à travers la chirurgie esthétique et le transhumanisme, la conscience était restée jusque-là un territoire imprenable. Mais aujourd’hui, ce dernier bastion de la liberté humaine est menacé et pourrait bien être colonisé avec une efficacité redoutable, si nous n’y prenons pas garde. Les capitaines de la big tech eux-mêmes multiplient les déclarations chocs, comme pour se préserver de leur propre hubris. Brad Smith, le président de Microsoft, déclarait en 2018 au Web Summit de Lisbonne : « Pour la première fois, le monde est au seuil de technologies qui donneraient à un gouvernement la possibilité de suivre n’importe qui, n’importe où (…) Il pourrait savoir exactement où vous allez, où vous êtes allé et où vous étiez hier. Et cela a de profondes ramifications potentielles, même pour les libertés civiles fondamentales sur lesquelles reposent les sociétés démocratiques. Avant de nous réveiller et de constater que l’année 2024 ressemble à l’ouvrage « 1984 », déterminons le genre de monde que nous voulons créer, quels sont les garde-fous et les limites des entreprises et des gouvernements dans l’utilisation de ces technologies. » Nous devons, en effet, déterminer le monde dans lequel nous voulons vivre. La crise du Covid-19 nous le rappelle de manière brutale : le marché et ses lois ne nous guident pas vers un monde meilleur, et aujourd’hui sa main invisible doit être désinfectée chaque jour avec du gel hydroalcoolique, sous peine de mort. Pourtant, certaines autorités tentent actuellement de renforcer leur pouvoir – et celui de l’économie néolibérale – en proposant des mesures radicales de surveillance numérique, au prétexte de vouloir protéger les populations… Mais gardons espoir, car il existe une deuxième voie. Nous pouvons bâtir un autre avenir, un monde dans lequel la technologie ne tiendra pas un rôle oppressif, mais libérateur. Une société low tech où le numérique régulera la surconsommation, au lieu de l’aggraver ; où la technologie apportera un soutien à chaque citoyen, quel que soit son niveau social ; où la priorité ne sera pas la rentabilité d’un médicament, mais son efficacité ; où l’épanouissement des salariés prévaudra sur le niveau des dividendes ; où les tâches pénibles et dangereuses seront assurées par des robots, au bénéfice de l’homme ; où les solutions énergétiques durables ne seront pas enterrées parce qu’elles menacent les intérêts de certaines industries polluantes ; où chaque être humain mangera à sa faim, où qu’il soit sur Terre ; où le besoin de sécurité ne sera pas assuré par des politiques de surveillance liberticides, mais par la disparition des inégalités… Un nouvel Éden, où le progrès technique sera au service de l’humanité tout entière. Cette société est possible, ce n’est pas une utopie. Mais pour la faire advenir, nous avons des choix à faire. Des choix politiques, au sens le plus philosophique du terme.

In Google We Trust

Depuis son adoption par le Congrès en 1956, « In God We Trust » (« Nous avons confiance en Dieu ») est devenue la devise officielle des États-Unis. Quelle ironie de voir une nation qui a fondé ses valeurs sur la foi religieuse, devenir le fer de lance de la foi transhumaniste et promettre à qui veut l’entendre, par la bouche de ses techno-prophètes, que l’immortalité numérique est pour bientôt ! C’est justement là qu’une réflexion philosophique s’impose. Paradoxalement, l’intelligence artificielle, aboutissement ultime du matérialisme, va nous obliger à nous poser des questions d’ordre spirituel. Rappelons que la singularité annoncée par Ray Kurzweil, ce moment où l’intelligence artificielle dépassera l’intelligence humaine et où son développement échappera à tout contrôle, a son équivalent en mathématiques et en astrophysique : il s’agit de la frontière d’un trou noir, appelé « horizon des évènements », au-delà de laquelle les lois de la physique ne s’appliquent plus, une réalité littéralement métaphysique. Et c’est l’ultime raison pour laquelle le politique doit s’emparer des questions soulevées par la big tech : pour ne pas laisser ce qui relève de la pérennité de l’humanité aux seuls industriels, dont les choix sont encore trop dictés, aujourd’hui, par des objectifs uniquement financiers. L’humanité est, nous le pressentons tous, à un tournant de son histoire. Il se pourrait que, demain, de nouvelles découvertes scientifiques sur la conscience changent complètement la donne et redéfinissent les priorités de la recherche, autant que la vision que nous avons de la vie elle-même… Que deviendraient les promesses des transhumanistes et leur obsession de « guérir la mort », si nous découvrions que nous avons une âme et qu’elle existe dans une autre dimension ? Zoltan Istvan a-t-il envisagé cette possibilité ? Ray Kurzweil en a-t-il tenu compte dans son business plan ? Qu’elle soit spirituelle ou technologique, la singularité à venir ne peut, par définition, pas être anticipée. Mais une chose est sûre, elle sera le résultat des intentions que nous aurons déposées, aujourd’hui, collectivement, pour la construction de notre futur. Citoyennes, citoyens, nous sommes à la croisée des chemins.

Grégory Aimar
Auteur du roman d’anticipation I.AM

Apple et Google lancent une app pour traquer le coronavirus

L’application vous avertira si vous avez côtoyé quelqu’un qui a été testé positif.

Apple et Google s’associent officiellement pour développer une application de suivi du coronavirus conçue pour vous dire si vous avez récemment été exposé à une personne dont le test COVID-19 s’est révélé positif.

L’idée est de tirer parti de la vaste portée commerciale des deux méga-entreprises pour suivre la propagation du coronavirus. L’application est centrée sur l’idée de “traçage de contacts”, qui consiste essentiellement à garder un œil sur qui est porteur du virus et à qui le virus aurait pu être transmis.

La technologie Bluetooth permet aux appareils de mesurer la proximité d’autres appareils. Comme le coronavirus peut être transmis en étant proche de ceux qui en sont atteints, les applications utilisant cette technologie pourraient indiquer si une personne a été en contact étroit avec quelqu’un qui s’est précédemment auto-enregistré comme ayant été testé positif au COVID-19.

Selon le communiqué de presse, les deux entreprises prévoient de lancer des interfaces de programmation d’applications (API) en mai qui permettront à l’application de fonctionner sur les plateformes et appareils mobiles Apple iOS et Google Android.

Les applications des autorités de santé publique utiliseront le logiciel pour commencer à collecter des données – et potentiellement informer les utilisateurs s’ils sont en danger.

Selon un communiqué, une véritable plateforme de recherche de contacts basée sur le Bluetooth sera mise en service dans les prochains mois.

Afin de préserver l’anonymat de ceux qui utilisent l’application, Google et Apple affirment que les informations envoyées seront traitées de manière à protéger la vie privée.

“La liste des personnes avec lesquelles vous avez été en contact ne quitte jamais votre téléphone”, selon la documentation officielle. L’application nécessitera également un “consentement explicite de l’utilisateur”.

The Verge

L’initiative CovidIA pour dé-confiner grâce à l’IA

Un groupe de médecins propose de recourir à l’intelligence artificielle pour sortir de la période de confinement en France, sans courir le risque de réactiver l’épidémie de Covid-19 – selon un article paru dans l’hebdomadaire Journal du Dimanche.

Selon les signataires, il existe plusieurs scénarios de sortie de confinement. Pour eux, la stratégie de suspension de la mise en quarantaine pour l’ensemble de la population exposerait au virus ceux qui ne sont pas encore tombés malades, au risque de déclencher une “deuxième vague de pandémie”. Une autre stratégie est basée sur le contrôle de la population, à travers des applications mobiles, comme cela se fait dans les pays asiatiques, pour confiner les malades et ceux qui ont été en contact avec eux.

Selon ces médecins, ce modèle ne convient pas à la France et peut se heurter à la résistance de la population. Ils préconisent l’utilisation de l’Intelligence Artificielle, à travers une initiative appelée CovidIA, qui “appliquerait des modèles d’Intelligence Artificielle basés sur des hypothèses initiales sur la maladie” et des résultats de tests, combinés avec “des données de géolocalisation contenues dans les téléphones portables, de manière contrôlée. Les données seraient transmises de manière anonyme”.

Ils affirment que cette méthode peut conduire à des “prédictions de plus en plus fiables”. Dans ce contexte, ils demandent “aux autorités que de manière temporaire et contrôlée, des données de santé et certaines données des opérateurs mobiles soient mises à disposition, après anonymisation et cryptage, sur la base du volontariat, le tout contrôlé par la CNIL et les autorités compétentes”.

L’initiative CovidIA est née de médecins et de chercheurs :

Pr Sadek Beloucif, anesthésiste réanimateur ; Pr Patrick Berche, microbiologiste ; Patrick Joubert, data scientist ; Pr Xavier Jouven, cardiologue et épidémiologiste ; Pr Vincent Maréchal, virologue ; Pr Alexandre Mignon, anesthésiste réanimateur ; Pr Didier Payen, anesthésiste réanimateur ; Pr Gilles Pialoux, infectiologue ; Pr Éric Vicaut, biostatisticien.

Nous avons trouvé très peu d’informations sur CovidIA, juste une petite trace sur le site internet aim4p.com. Au moment de la rédaction, le site aim4p ne présente pas grand-chose sur le projet CovidIA et les 3 articles affichés ne sont même pas accessibles. Le site covidia.org a une page blanche à ce jour. Le site est visiblement en construction vu les derniers uploads : https://covidia.org/wp-content/uploads/2020/04/.

Credit: CovidIA.org

Le mois dernier, selon un communiqué, l’AP-HP et Nouveal e-santé auraient finalisé une application e-santé « Covidom » destinée au suivi médical à domicile des patients (Bichat et Pitié-Salpêtrière) porteurs ou suspectés Covid-19 qui ne nécessitent pas d’hospitalisation.

@ suivre

Maj au 11/04/2020 : L’accès au site “CovidIA” est maintenant ici : https://covid-ia.org/

La Chine, un exemple ?

Depuis quelques semaines, les articles de journaux et de revue consacrés au coronavirus ne manquent plus de flatter la gestion de la crise du coronavirus par l’État chinois pour l’opposer à l’incompétence européenne. Une équipe internationale qui s’est rendue en Chine en février encensait déjà les méthodes et les résultats de la Chine pour endiguer l’épidémie de Covid-191. Bruce Aylward, le chef de cette équipe – conseiller du directeur général de l’OMS – expliquait dans une interview que la stratégie chinoise avait été, outre le déploiement massifs de tests gratuits et de mises en quarantaine ainsi que l’édification d’hôpitaux en quelques jours, le fait d’isoler drastiquement les personnes infectées, de retracer leurs contacts et de ne confiner ainsi que les personnes potentiellement ou réellement infectées2. Lucien Abenhaim, épidémiologiste et ancien directeur de la santé, parlait récemment dans les grands quotidiens français de « l’exemple chinois », dont il vantait l’efficacité en l’opposant aux diverses théories fantaisistes des Européens3.

Ce qui est notoire mais à peine mentionné, c’est que « l’efficacité » chinoise suppose une vaste infrastructure numérique de surveillance de la population dont le plan préexistait à l’apparition du nouveau coronavirus. La « réponse » chinoise au virus est déjà contenue dans l’esprit des dispositifs existants et des projets en cours. Pour isoler les cas positifs et les malades potentiels (et renvoyer au plus vite les autres au travail), il faut en effet pouvoir non pas seulement les dépister, mais aussi les pister.

Les informations dont nous disposons sur la Chine ne pas toujours fiables, voire contradictoires, même dans les journaux réputés sérieux, et il subsiste bon nombre d’imprécisions dans la présentation qui suit. Cela n’empêche pas d’essayer de reconstituer la situation avec précaution. Rappelons d’abord que la Chine a commencé par nier l’apparition du virus, censurer sur internet les mots-clés liés à l’épidémie et accuser de “propagation de fausses rumeurs” plusieurs médecins, dont le jeune Li Wenliang qui avait alerté à ce sujet. Il est lui-même décédé du Covid-19 début février 2020. Les journalistes Chen Qiushi et Fang Bin qui dénonçaient la gestion de crise ont quant à eux disparu4. D’après l’organisation Chinese Human Rights Defenders qui répertorie diverses sources chinoises, des centaines de citoyens chinois ont été publiquement accusés de répandre des fausses rumeurs et punis, y compris lorsqu’ils ne faisaient rien d’autre que de s’exprimer en ligne sur les cas de maladie dont ils avaient connaissance. L’organisation rapporte : « Le système de surveillance numérique invasif de la Chine a été déployé par la police pour faire taire les net-citoyens et renforcer les contrôles d’information. Sur les réseaux sociaux, les net-citoyens ont déclaré avoir été visités, détenus ou pénalisés par la police pour avoir “répandu des rumeurs” après avoir publié des commentaires sur l’épidémie, et dans certains cas, pour s’être portés volontaires pour distribuer des masques faciaux et d’autres fournitures. Plusieurs défenseurs des droits de l’homme ont déclaré avoir reçu la visite de la police et avoir été menacés de sanctions pénales s’ils ne cessaient pas de diffuser des informations internationales ou de tweeter des informations sur l’épidémie5.» Toutefois, indique une autre source, certains citoyens ont rivalisé d’ingéniosité pour contourner en mars la censure d’une interview réalisée avec Ai Fen, la directrice du service des urgences de l’hôpital central de Wuhan : « Pour éviter la censure, les gens ont converti certaines parties de l’interview en morse, l’ont remplie d’émoticon ou l’ont traduite dans des langues fictives comme le sindarin du Seigneur des anneaux ou le klingon de Star Trek6. » Que le grand public (et non quelques activistes confidentiels) puisse se saisir de tels moyens d’expression augure selon certains observateurs d’un tournant politique.

Après le déploiement d’une telle censure, le gouvernement chinois, qui avait entretemps officiellement admis l’existence du virus, a pris brusquement fin janvier des mesures massives de confinement qui apparaissaient en contradiction complète avec le discours officiel : « En fermant brusquement des villes entières, le gouvernement n’a pas réussi à fournir en temps voulu une aide adéquate aux personnes ayant des besoins particuliers et à permettre aux habitants de faire des provisions. Les habitants de Wuhan, une ville de 11 millions de résidents réguliers, et de la province du Hubei, qui compte 59 millions d’habitants, n’ont pas reçu d’avertissement préalable adéquat avant de fermer les transports publics et d’imposer un confinement. Des mesures aussi drastiques ont laissé des personnes vulnérables, y compris des personnes handicapées, sans assistance7. »

Quant à l’OMS, elle a « ignoré les rapports qui faisaient état d’obstruction à la circulation de l’information et d’intimidation de la police contre le partage d’informations en ligne et a déclaré le 30 janvier qu’elle se félicitait de “l’engagement de la Chine en faveur de la transparence”. (…) Les médias d’État chinois ont utilisé les déclarations de l’OMS pour défendre la réponse tardive et inadéquate du gouvernement. L’OMS fait l’éloge des dirigeants chinois à la suite d’une visite du directeur général de l’OMS, Tedros Adhanom Ghebreyesus, à Pékin, sans exprimer aucune inquiétude quant aux graves violations des droits de l’homme commises par le gouvernement chinois dans sa réaction à l’épidémie, notamment les restrictions à la liberté d’expression, d’information, de presse et de circulation, la suppression des efforts de la société civile et l’incapacité à lutter contre la discrimination8. » Lorsque les médias d’État chinois commencent mi-février à renverser la situation à la gloire du Parti Communiste Chinois, non sans brouiller les informations relatives à l’origine du virus (qui ne serait pas forcément un « virus chinois » selon les mots de Donald Trump mais peut-être un « virus américain », voire un « virus japonais ») ils peuvent donc compter sur la crédulité apparente ou plus vraisemblablement l’opportunisme de la communauté internationale. Tout à coup, la Chine commence à se hisser au rang de championne universelle de la crise du coronavirus avant même que l’épidémie ne soit enrayée sur son propre territoire.

Dans un pays où on prévoyait déjà peu avant la crise du coronavirus un ratio d’environ deux caméras pour un citoyen en 20229, l’épidémie offre soudain une justification toute trouvée à l’extension de la surveillance numérique et des caméras dans les espaces publiques. La Chine prévoit de mettre en place un système de crédit social qui classe les citoyens dans une échelle de notation selon leur comportement civique. Les points conditionnent les déplacements, l’accès aux services publiques ou la recherche d’emploi et sanctionnent tout ce qui peut être considéré comme manque de morale et de civilité, comme traverser au feu rouge. La vidéosurveillance avec reconnaissance faciale déployée sur l’ensemble du territoire complète ce projet. Il est fréquent en Occident d’attribuer à ces plans une ontologie culturelle qui prendrait racine dans des pratiques ancestrales et correspondrait à une toute conception de la liberté individuelle que celle véhiculée par la tradition occidentale. Même si l’on ne peut pas négliger les différences historiques, ce culturalisme condescendant constitue un affront à toutes les personnes censurées, sanctionnées ou disparues qui contestent l’État chinois. Il faut bien plutôt reconnaître avec Mareike Ohlberg, assistante de recherche à l’Institut Mercator pour les études chinoises que « l’idée elle-même n’est pas un phénomène chinois (…) Mais si [le système chinois] se met en place comme prévu, ce sera quand même quelque chose de vraiment unique… C’est à la fois unique et inscrit dans une tendance mondiale10. » De fait, les plans du gouvernement chinois ne sont pas à confondre avec le système de réputation sociale pratiquée par des entreprises privées, même quand ces deux niveaux collaborent. Il est prévu que les entreprises soient elles-mêmes soumises à la notation sociale.

Pour faire face à l’épidémie, la Chine a mis en place une application qui dicte aux gens le comportement à avoir en fonction des facteurs de risque dont ils sont porteurs. Les gens s’inscrivent sur leur smartphone par le biais de l’application de paiement Alipay (utilisée par 900 millions de Chinois) qui leur attribue un code couleur – vert, jaune ou rouge – selon leur état de santé. (La société Ant, filiale du groupe Alibaba et créée à partir de Alipay, est aussi celle qui a conçu le système de crédit social individuel.) Le système d’abord expérimenté dans la ville de Hangzhou, serait à présent utilisé dans des centaines de villes et en cours de déploiement à l’échelle nationale. Le New York Times rapporte que « lorsqu’un utilisateur accorde au logiciel l’accès à des données personnelles, un élément du programme intitulé “reportInfoAndLocationToPolice” envoie à un serveur le lieu où se trouve la personne, le nom de la ville et un numéro de code d’identification. Le logiciel n’indique pas clairement aux utilisateurs sa connexion à la police. Mais selon l’agence de presse chinoise Xinhua, gérée par l’État, et un compte officiel de la police sur les réseaux sociaux, les autorités chargées de l’application de la loi ont été un partenaire essentiel dans le développement du système11. » Officiellement, l’application génère son code couleur de manière automatique à partir d’éléments suivants : selon que l’utilisateur a été en contact avec une personne infectée, a visité une région infectée ou bien a déclaré des symptômes de maladie. Mais pour les utilisateurs, l’attribution du code couleur est obscure. De plus, à chaque fois que le code d’une personne est scanné, les serveurs du système sont informés de l’emplacement actuel de la personne. Qu’est-ce qui prouve que ces nouveaux systèmes seront désactivés à la fin de l’épidémie ? Une correspondante en Chine dans une province très peu affectée par le virus écrit pour Reporterre le 24 mars : « Plus la situation semble s’améliorer et plus la ville renforce les contrôles12. »

La situation misérables de plusieurs pays Européens face à celle, semble-t-il rayonnante, de la Chine, oblige ainsi à se demander si, en amont, nous envisageons des modes d’intervention similaires au nom de la sécurité et des risques à venir (qui ne feront que s’amplifier). Le mythe d’une Europe capable d’implémenter des techniques de surveillance tout en « respectant la vie privée » grâce au « consentement » et à « l’anonymisation » des données collectées est un faux compromis qui ne tiendra plus du tout dans un tel contexte, et qui fera peu à peu tomber son masque lisse et imparable. Ce respect formel pour lesdites libertés publiques n’a en effet aucune valeur en contexte de pandémie, puisqu’il faut justement forcer les populations à suivre les consignes (donc sans leur consentement) et identifier les cas positifs ou potentiels (le contraire de l’anonymat).

Contrôles biométriques pour favoriser la distanciation sociale

Pendant que les Européens se replient sur des stratégies de crise nationales souvent incohérentes et critiquées – du laisser-faire de Boris Johnson à son revirement mal compris, des atermoiements et contradictions d’Emmanuel Macron aux restrictions liberticides, etc. – c’est bien l’« exemple chinois » qui semble sortir gagnant de cette cacophonie. L’État chinois a offert au reste du monde une démonstration d’efficacité qui semble pouvoir être appliquée à maints autres endroits et situations de crise. A l’heure actuelle, quinze pays dans le monde ont déjà mis en place le traçage numérique des citoyens via des applications sur smartphone pour lutter contre le Covid-19. D’autres s’apprêtent à suivre cet exemple13. Un porte-parole du ministère au numérique polonais peut ainsi déclarer : « Les gens en quarantaine ont le choix : soit ils reçoivent des visites inattendues de la police, soit ils téléchargent cette application. » Bien sûr, il ne s’agit pas de dire que la Chine a tout orchestré. Mais en tant que grande victorieuse de la crise du coronavirus dans l’image publique mondiale, il semble que son exemple et celui de la Corée du Sud s’imposent comme une évidence. Ce serait cependant une erreur de penser que le modèle chinois serait susceptible d’être repris à l’identique. Les traditions politiques différentes et la nécessité de se démarquer sur la scène géopolitique mondiale impliquent évidemment des rhétoriques et des stratégies non identiques.

C’est par une mécanique qui dépasse les intentions particulières des acteurs politiques que les États sont forcés d’emprunter la voie de la surveillance généralisée (et ceci de manière toujours plus frappante). La gestion biopolitique du monde est la destination logique de la modernité : habillée de la rhétorique mielleuse du respect des libertés ou de celle, autoritaire, du respect de l’ordre public, elle se présente assurément sous plusieurs modes discursifs. Mais quelle que soit la rhétorique adoptée, face à la montée de ce que Ulrich Beck appelait la société du risque, les États sont tenus de prétendre qu’ils assurent la sécurité et les conditions minimales de la reproduction de l’existence. Mais compte tenu de l’amplification des crises globales, la seule manière d’assurer cette prétendue sécurité ne peut être que la gestion de plus en plus serrée du « parc humain ». Contrairement toutefois aux interprétations paranoïaques qui fleurissent ici et là, il y a une contrainte systémique à déchiffrer derrière l’empressement occidental à encenser l’exemple chinois. Moins les crises seront maîtrisables – à l’image de la propagation rapide et imprévisible du Covid-19 – plus les États tenteront de survivre à leur déconfiture en pactisant avec le solutionnisme des entreprises hi-tech pour contenir des populations toujours plus exposées, inquiètes et instables. A chaque invective contre ces « connards qui nous gouvernent14 » incapables de résoudre les crises qui se profilent et se multiplient, se manifeste un peu plus l’infantilisme des attentes exorbitantes à leur endroit et le glissement imperceptible de l’autorité étatique vers la gouvernance algorithmique assistée par des plateformes dont plus rien n’arrête l’ascension. A force d’être traités de « connards » en toute situation, on peut imaginer que la classe politique préfèrera de plus en plus s’en remettre au traçage glacé des moindres comportements de la population, plutôt qu’à la responsabilité de gérer des crises insolubles à l’intérieur du cadre politique que s’est donnée la modernité.

Les effets du contrôle social sont d’ailleurs tellement irréfutables que de nombreux écologistes ne manquent pas de s’en saisir d’ores et déjà pour faire avancer leur propre cause, celle par exemple du changement climatique. Ne sommes-nous pas en train d’expérimenter in vivo les bienfaits d’une décroissance (en l’occurrence d’une récession) certes involontaire mais indispensable ? Les effets bénéfiques sur la pollution et les émissions de CO2 ne se sont-ils pas immédiatement fait sentir ? Alors désormais, disent déjà certains, nous connaissons la voie à suivre. Nous serions en train de vivre une répétition générale et il n’y aurait plus qu’à mettre en place des mesures radicales expérimentées dans la crise du Covid-1915. De l’imprécation contre l’état d’exception16 à l’amour du contrôle, il y a ainsi une seule et même fascination pour les formes apparemment indépassables de la dépossession politique. On cherche dans les représentants de l’État aussi bien la faute et l’incompétence personnifiée que la solution à tout, au lieu d’analyser la mécanique implacable à laquelle nous avons collectivement consenti pour en arriver là. Tremblons que l’État chinois ne vienne nous tendre une main généreuse et un exemple à suivre dans la résolution des crises universelles et que nous nous jetions sur cette aubaine parce que nous sommes devenus incapables de prendre en charge la reproduction de nos existences. Depuis quelques jours, des équipes médicales chinoises apportent du renfort en Italie, en Iran, en Irak17, en Serbie18 sans compter l’envoi de matériel dans de nombreux pays (dont un million de masques de protection à la France), et Xin Jinping promet largement, de Vladimir Poutine à Angela Merkel, le soutien et l’expertise de son pays. Ces gestes de solidarité emphatiques – sur fond de chauvinisme exacerbé des États – annoncent l’acceptation passive d’un mode de gouvernance totalitaire qui se donne pour le seul à pouvoir sortir le monde du pétrin.

Notes :

1 Hilary Brueck, « The rest of the world is ’simply not ready‘ for the coronavirus, according to a WHO envoy who just returned from China », Business insider, 26 février 2020. En ligne: https://www.businessinsider.de/international/what-works-to-fight-covid-19-lessons-from-china-who-2020-2/?r=US&IR=T

2 Julia Belluz, « China’s cases of Covid-19 are finally declining. A WHO expert explains why », vox, 3 mars 2020. En ligne : https://www.vox.com/2020/3/2/21161067/coronavirus-covid19-china

3 Cf. notamment : Lucien Abenhaim, « Il est maintenant permis d’espérer la sortie de la crise du coronavirus », Le Monde, 20 mars 2020.

4 Vivian Wang, « They documented the Coronavirus Crisis in Wuhan. They Vanished », New York Times, 14 février 2020.

5 Chinese Human Rights Defenders, 31 janvier 2020, “China: Protect Human Rights While Combatting Coronavirus Outbreak”. En ligne : https://www.nchrd.org/2020/01/china-protect-human-rights-while-combatting-coronavirus-outbreak/

6 Ryan Broderick, «Chinese WeChat Users Are Sharing A Censored Post About COVID-19 By Filling It With Emojis And Writing It In Other Languages », buzzfeednews, 11 mars 2020. En ligne : https://www.buzzfeednews.com/article/ryanhatesthis/coronavirus-covid-chinese-wechat-censored-post-emojis

7 Chinese Human Rights Defenders, 31 janvier 2020, “China: Protect Human Rights While Combatting Coronavirus Outbreak”. En ligne : https://www.nchrd.org/2020/01/china-protect-human-rights-while-combatting-coronavirus-outbreak/

8 Chinese Human Rights Defenders, 31 janvier 2020, “China: Protect Human Rights While Combatting Coronavirus Outbreak”. En ligne : https://www.nchrd.org/2020/01/china-protect-human-rights-while-combatting-coronavirus-outbreak/

9 Mathieu Rabechaut, « Watch this: China surveillance tech seeks to go global », Techxplore, 24 novembre 2019. En ligne : https://techxplore.com/news/2019-11-china-surveillance-tech-global.html

10 Nicole Kobie, « The complicated truth about China’s social credit system », Wired, 7 juin 2019.

11 Paul Mozur, Raymond Zhong, Aaron Krolik, « In Coronavirus Fight, China Gives Citizens a Color Code, With Red Flags », New York Times, 1 mars 2020.

12 Nathalie Paco, « En Chine, le virus maîtrisé au prix d’un contrôle total de la population », Reporterre, 24 mars 2020. En ligne : https://reporterre.net/En-Chine-le-virus-maitrise-au-prix-d-un-controle-total-de-la-population

13 Isobel Asher Hamilton, « 11 countries are now using people’s phone to track the coronavirus pandemic, and it heralds a massive increase of surveillance », business insider, 24 mars 2020. En ligne : https://www.businessinsider.com/countries-tracking-citizens-phones-coronavirus-2020-3?r=DE&IR=T Cf. également l’index évolutif du Virtual Private Network : https://www.top10vpn.com/news/surveillance/covid-19-digital-rights-tracker/

14 Frédéric Lordon, « Les connards qui nous gouvernent », les blogs du « diplo », 19 mars 2020. En ligne : https://blog.mondediplo.net/les-connards-qui-nous-gouvernent

15 Cf. entre autres Vincent Lucchese, « 5 pistes pour mobiliser sur le climat autant que sur le coronavirus », Usbek & Rica, 14 mars 2020 ; François Gemenne, Anneliese Depoux, « De la crise du coronavirus, on peut tirer des leçons pour lutter contre le changement climatique », Le Monde, 18 mars 2020 ; Nicolas Celnik, « Covid-19 : c’est le moment ou jamais pour agir sur le front climatique », Interview avec Jean-Baptiste Fressoz, Libération, 23 mars 2020.

16 Giorgio Agamben, « Coronavirus et état d’exception », acta.zone, 26 février 2020. En ligne : https://acta.zone/giorgio-agamben-coronavirus-etat-dexception/ Ce texte a suscité un grand nombre de réponses et de débats qu’on peut lire en ligne.

17 Par LEXPRESS.fr avec AFP, 20 mars 2020 : “Coronavirus : la Chine a envoyé des médecins dans trois pays”. En ligne : https://www.lexpress.fr/actualite/monde/coronavirus-la-chine-a-envoye-des-medecins-dans-trois-pays_2121493.html

18 French.china.org.cn, mis à jour le 22 mars 2020, “(COVID-19) Des médecins chinois arrivent en Serbie pour l’aider à combattre l’épidémie”. En ligne : http://french.china.org.cn/foreign/txt/2020-03/22/content_75845533.htm

Contrôles biométriques pour favoriser la distanciation sociale

Le recours à la reconnaissance faciale se poursuit dans le monde entier pour soutenir les mesures de distanciation sociale et de réduction de la transmission du virus covid-19. Dans certains cas, les technologies existantes ou les programmes prévus sont mis à jour, tandis qu’en Pologne et ailleurs, la reconnaissance faciale est déployée spécifiquement pour lutter contre la propagation du covid-19.

La Pologne a lancé une application biométrique pour smartphone afin de confirmer que les personnes mises en quarantaine pendant 14 jours à cause du coronavirus restent chez elles, selon l’AFP.

Un porte-parole du ministère du numérique a déclaré à l’AFP que les personnes en quarantaine pouvaient télécharger l’application ou attendre une visite des autorités.

Les personnes qui regagnent la Pologne depuis l’étranger doivent télécharger l’application, qui enregistre leur géolocalisation, et se soumettre à des contrôles biométriques pour prouver que vous êtes bien celui que vous êtes censé être (vous) et que vous êtes bien là où vous êtes censé être (chez vous).

Après l’enregistrement d’un selfie initial, des demandes de confirmations supplémentaires sont émises tout au long de la journée, la police étant alertée en cas d’absence de réponse dans les 20 minutes. Les amendes varient entre 118 et 1 180 dollars selon les autorités policières locales.

Toutes les écoles en Pologne seront fermées jusqu’à Pâques et les frontières sont fermées aux étrangers. Selon les derniers chiffres, la Pologne compte 749 cas confirmés et huit décès au moment de la rédaction.

Portal Gov.pl, Warsaw (AFP)

Reconnaissance faciale : La crise de la vie privée

La technologie de reconnaissance faciale est hors de contrôle – et les implications sont profondes. Les autorités de réglementation doivent agir maintenant pour en réduire les effets néfastes.

Votre visage est ce qui vous rend unique. C’est ce qui vous donne votre apparence distincte, vous permet d’exprimer votre humeur, vos émotions et vos réactions, et vous permet de communiquer. Au cours des dernières décennies, votre visage est devenu un outil qui vous permet de faire beaucoup plus. Il peut déverrouiller votre téléphone, vous permettre d’embarquer dans un avion, de traverser les frontières et de payer votre café. Tout cela est dû à l’essor de la technologie de reconnaissance faciale, un type d’intelligence artificielle qui utilise un apprentissage approfondi (deep learning) pour quantifier les identificateurs uniques des visages individuels, qui sont ensuite analysés et comparés aux bases de données de photos. Bien que la technologie de reconnaissance faciale présente des avantages distincts – tels que la prévention de la criminalité et de la fraude, l’efficacité et la commodité – les risques qui accompagnent son utilisation généralisée signalent la fin de la vie privée telle que nous la connaissons. Pourtant, les gouvernements du monde entier ont été lents à lancer un débat public et à promulguer des réglementations relatives à son utilisation. Pendant ce temps, la technologie de reconnaissance faciale a proliféré tant dans le secteur public que dans le secteur privé, ce qui a entraîné la normalisation d’une surveillance constante et immuable qui est appelée à devenir le modèle par défaut pour notre avenir : un modèle dans lequel – sans une action urgente du gouvernement – notre capacité à nous déplacer dans la vie sans surveillance cessera d’exister.

Comment la technologie de reconnaissance faciale est-elle devenue courante ?

Autrefois sujet de fiction dystopique, la technologie de reconnaissance faciale en est venue à s’infiltrer dans la vie quotidienne du monde entier au cours de la dernière décennie. En Chine, le leader mondial de la technologie de reconnaissance faciale, ses objectifs vont de la mise en place de lunettes de reconnaissance faciale pour la police, au paiement avec le sourire, en passant par la capture des personnes qui jettent leurs déchets. En septembre 2019, l’autorité nationale indienne en matière d’identification, Aadhaar, a rendu obligatoire pour les fournisseurs de services de télécommunications de vérifier que 10 % de leurs clients utilisent la technologie de reconnaissance faciale, et en octobre 2019, le gouvernement français a annoncé son intention de l’utiliser dans un nouveau système national d’identification, Alicem. La Russie a installé cette technologie sur 5 000 caméras de vidéosurveillance à Moscou et expérimente un système de paiement par reconnaissance faciale dans les gares.

Aux États-Unis, la technologie de reconnaissance faciale est utilisée – et parfois abusivement – par les forces de l’ordre, les patrouilles frontalières et un nombre croissant des plus grands magasins du pays (dont Walmart et Target) au nom de la prévention des vols. Un article de Kashmir Hill paru en 2020 dans le New York Times a révélé un autre partenariat public-privé dans le domaine de la surveillance par reconnaissance faciale. Il décrit cette fois une société financée par Peter Thiel, Clearview AI, qui fait correspondre les visages des images téléchargées sur des “millions” de sites web, dont Facebook, Venmo et YouTube, à une base de données privée d’environ trois milliards de photos. L’intelligence artificielle que Clearview AI a développée une technologie qui peut également faire correspondre des visages par le biais de photos imparfaites, comme celles des caméras de surveillance. Un sergent de police a déclaré : “Une personne peut porter un chapeau ou des lunettes, ou il peut s’agir d’une photo de profil ou d’une vue partielle de son visage”. Clearview AI offre des services de reconnaissance faciale à près de 600 services de police américains et dispose d’une bibliothèque d’images sept fois plus importante que celle du FBI.

Au Royaume-Uni, la police métropolitaine de Londres et la police du sud du Pays de Galles ont procédé à des essais de technologie de reconnaissance faciale lors de matchs sportifs et pour surveiller les manifestations pacifiques. Cette dernière instance, malgré une opposition véhémente et une inexactitude avérée, a été confirmée comme constitutionnelle par la Haute Cour en septembre 2019. À Londres (la deuxième ville la plus surveillée au monde après Pékin, avec environ 420 000 caméras de vidéosurveillance qui sont de plus en plus modernisées pour inclure des capacités de technologie de reconnaissance faciale), les promoteurs immobiliers l’ont utilisé pour surveiller les personnes qui marchent dans King’s Cross et les faire correspondre aux bases de données fournies par la police, bien que cette pratique ait maintenant été abandonnée. Cette technologie est même utilisée pour déterminer qui sera le prochain à servir dans un bar londonien, et des supermarchés, dont Tesco et Sainsbury’s, se préparent à l’utiliser pour vérifier l’âge des clients. Partout où nous allons, la technologie de reconnaissance faciale apparaît dans la paume de nos mains, de l’option “tagger un ami” de Facebook à la fonction de déverrouillage de l’iPhone d’Apple. On prévoit que 64 % des smartphones utiliseront cette technologie en 2020. Tout cela représente une industrie mondiale d’un milliard de dollars – une industrie qui devrait passer de 3,2 milliards de dollars en 2019 à 7 milliards de dollars d’ici 2024.

La demande intersectorielle en matière de technologie de reconnaissance faciale connaît une courbe ascendante exponentielle dans le monde entier. Les facteurs qui alimentent cette croissance ininterrompue sont au nombre de trois. Premièrement, à l’exception d’une poignée de villes aux États-Unis, la technologie de reconnaissance faciale est actuellement soumise à très peu de réglementations, et dépourvue de normes applicables à l’ensemble du secteur. Deuxièmement, les systèmes de suivi de la technologie de reconnaissance faciale sont bon marché (moins de 100 dollars) et facilement accessibles “à toute personne disposant d’une connexion internet et d’une carte de crédit”, comme l’a prouvé une expérience du New York Times en avril 2019. Troisièmement, l’intelligence artificielle qui sous-tend la technologie de reconnaissance faciale est intelligente et apprend à un rythme de plus en plus rapide. La capacité des logiciels de technologie de reconnaissance faciale à analyser des images de mauvaise qualité (seulement un mégapixel) est due à l’apprentissage profond (deep learning), un type d’IA qui imite le fonctionnement du cerveau humain pour traiter de vastes ensembles de données par le biais de réseaux neuronaux artificiels.

Le progrès des algorithmes de la technologie de reconnaissance faciale repose sur l’accumulation de photos de visages de personnes, qui sont rassemblées dans de vastes bases de données. Ces bases de données sont construites à partir d’une série de sources qui varient en fonction de qui les utilise et dans quel but. Certaines sont compilées à partir de listes de surveillance de la police ou de délinquants connus. D’autres proviennent de personnes qui téléchargent des photos sur des plateformes ou des applications. C’est le cas de la fonction “tagger un ami” de Facebook, qui est utilisée pour former l’algorithme de reconnaissance faciale de l’entreprise, ainsi que des applications de stockage de photos comme Ever. D’autres, comme Labeled Faces in the Wild ou MegaFace, sont composées de photos qui sont récupérées sur Internet sans le consentement ou même à l’insu de ceux qu’elles représentent. Les universitaires et les entreprises privées utilisent ces bases de données ouvertes pour former les algorithmes qui sous-tendent la technologie de reconnaissance faciale. Presque toutes les grandes entreprises technologiques développent leur propre système : Facebook a DeepFace, Google a FaceNet, et Amazon a Rekognition, pour n’en citer que quelques-uns. Chacune investit massivement dans ce que le directeur général de Microsoft, Satya Nadella, a appelé la “course vers le bas” pour développer les systèmes technologiques de reconnaissance faciale les plus puissants à vendre aux gouvernements, qui les déploient à des fins de contrôle et de surveillance.

La menace ultime pour la vie privée

Alors que de nombreuses sociétés se sont habituées à des mécanismes de surveillance comme la vidéosurveillance et autres caméras dans les espaces publics, les lecteurs de plaques d’immatriculation automatisés, les sonnettes équipées de caméras et les drones, la reconnaissance faciale marque une atteinte beaucoup plus profonde à la vie privée, en raison de sa capacité à identifier en temps réel des faits psychiques uniques sur les individus. En automatisant la surveillance de masse de manière à – comme l’écrivent Woodrow Hartzog et Evan Selinger dans un éditorial du New Yorker – “surmonter les contraintes biologiques sur le nombre d’individus que chacun peut reconnaître en temps réel”, elle prive les citoyens de la liberté de se promener dans les rues, à travers les villes, autour des supermarchés et dans les pôles de transport sans être surveillés par les gouvernements ou les entreprises – à des fins dont ils n’ont pas connaissance. A ce rythme, nous sommes sur la voie de l’élimination de tout endroit où les citoyens ne sont pas surveillés, prévient David Paris de l’organisation australienne Digital Rights Watch.

Contrairement au pouvoir que nous avons sur nos données personnelles en ligne, il n’existe “aucun paramètre de confidentialité pour se promener dans la rue ou naviguer dans un centre commercial”. Et vous ne pouvez pas effacer votre visage”, explique Paris. Le fait que la technologie de reconnaissance faciale enregistre notre visage signifie que son utilisation soumet les personnes honnêtes à une “file d’attente perpétuelle” qui nie le principe démocratique fondamental de la présomption d’innocence, et l’exigence connexe de suspicion raisonnable de culpabilité que les autorités compétentes doivent généralement prouver pour obtenir un mandat de surveillance.

À cet égard, la technologie de reconnaissance faciale modifie la nature de la démocratie. Pendant ce temps, l’action gouvernementale visant à susciter le débat et la discussion sur l’éthique et les implications de son utilisation a été inégale et figée dans le monde entier. À moins que les entreprises n’adoptent un moratoire volontaire sur le développement et la vente de la technologie de reconnaissance faciale, les mesures prises sont essentiellement des mesures de rattrapage alors que la technologie continue de proliférer – et comme le souligne l’ACLU de Californie du Nord, “une fois que de puissants systèmes de surveillance comme ceux-ci auront été construits et déployés, il sera extrêmement difficile de réparer les dégâts”.

Préjudices passés, menaces futures

Outre l’empiètement sur la vie privée et l’atteinte aux principes démocratiques, les préjudices réels et potentiels de la technologie de reconnaissance faciale sont multiples : des préjugés et de la discrimination aux abus des gouvernements et des mauvais acteurs. Selon Kate Crawford, co-directrice d’AI Now, “ces outils sont dangereux lorsqu’ils échouent et nocifs lorsqu’ils fonctionnent”. En ce qui concerne les dangers des biais algorithmiques, de nombreuses études ont prouvé que, bien que la technologie de reconnaissance faciale soit très précise lorsqu’il s’agit d’identifier les hommes blancs (un taux d’erreur d’identification de 1%, selon une étude du MIT), Microsoft, IBM et Face++, se sont avérés plus susceptibles de mal identifier les personnes transgenres et non binaires, ainsi que les personnes de couleur, et en particulier les femmes de couleur.

Les systèmes de reconnaissance faciale sont racistes

En 2018, l’ACLU a mis en évidence ce problème en utilisant Amazon Rekognition pour comparer les membres du Congrès avec une base de données de 25 000 photos de criminels. L’expérience a donné lieu à un nombre disproportionné de fausses correspondances pour les membres du Congrès de couleur – 40 %, alors que les personnes de couleur ne représentent que 20 % des membres du Congrès. Comme l’a écrit Joy Buolamwini, fondatrice de la Ligue pour la justice algorithmique – qui sensibilise et lutte contre les préjugés et la discrimination dans les technologies – “celui qui code le système intègre ses opinions”. Selon le projet The Perpetual Line Up de la faculté de droit de Georgetown, cela est aggravé par le fait que “les taux d’arrestation disproportionnés, les systèmes qui s’appuient sur des bases de données de photos de suspects incluent probablement un nombre disproportionné d’Afro-Américains”. Comme pour beaucoup d’autres formes d’intelligence artificielle, l’effet anormalement négatif que la technologie a sur les Afro-Américains et les autres communautés de couleur ne fait que s’accentuer à mesure que l’adoption de la technologie progresse avec un minimum de responsabilité.

Aux États-Unis, les forces de l’ordre ont une longue tradition – et généralement acceptée – de glaner des données biométriques, telles que les empreintes digitales et l’ADN, sur les suspects. Mais la reconnaissance faciale permet aux forces de police d’accéder aux données biométriques de milliers de personnes qui ne sont pas des suspects criminels – le tout sans contrôle du Congrès ou de la justice. En juillet 2019, le Washington Post a révélé que le FBI et l’Immigration and Customs Enforcement (ICE) avaient tous deux scanné des permis de conduire pour créer des bases de données étendues, qui ont ensuite été utilisées pour rechercher des suspects dans des crimes de moindre importance comme les petits larcins. Le potentiel d’abus de ces systèmes est élevé – et ils ont été exploités. Comme l’a révélé un rapport du Georgetown Law’s Center on Privacy and Technology, la police de New York s’est livrée à des abus généralisés de son système de reconnaissance faciale, notamment en modifiant des images et en téléchargeant un portrait de célébrité dans sa base de données de photos afin d’appréhender un homme décrit par un témoin comme ressemblant à cette célébrité. Son crime a été de voler une bière.

Comme l’affirme l’ACLU, la technologie de reconnaissance faciale “représente une menace particulière pour les communautés déjà injustement ciblées dans le climat politique actuel”. Les systèmes de reconnaissance faciale développés par les technologies controversées de Palantir ont été utilisés par les forces de police américaines comme un puissant outil de surveillance dans la guerre du président Trump contre l’immigration, utilisé pour identifier les immigrants sans papiers à des fins d’expulsion et de poursuites. Cela s’ajoute à ce que nous savons maintenant de la base de données d’images gargantuesques et des incroyables capacités de Clearview AI et de son partenariat avec les forces de l’ordre américaines.

En Chine, où la quasi-totalité des 1,4 milliard de citoyens du pays sont inclus dans les bases de données de technologie de reconnaissance faciale, le parti communiste chinois utilise cette technologie pour suivre ceux qu’il considère comme une menace pour son régime. Elle a notamment été utilisée pour surveiller la population musulmane ouïghoure dans la région du Xinjiang. Les fabricants chinois de technologie de reconnaissance faciale exportent leurs développements plus loin. En 2018, la start-up CloudWalk, basée à Guangzhou, a reçu 301 millions de dollars de l’État pour établir un programme de technologie de reconnaissance faciale de masse au Zimbabwe – un pays dans lequel la Chine a beaucoup investi – au nom de la résolution des problèmes de sécurité publique.

Les systèmes de technologie de reconnaissance faciale ont leurs propres problèmes de sécurité – des problèmes qui ont de graves implications, étant donné que les visages, contrairement aux mots de passe, ne peuvent pas être modifiés sans recourir à la chirurgie plastique. Début 2019, le chercheur en sécurité Victor Gevers a découvert que l’une des bases de données utilisées par le gouvernement chinois pour traquer les Ouïghours, appartenant à une société appelée SenseNets, était restée ouverte sur Internet pendant des mois. Gevers a déclaré : “Cette base de données contient plus de 2.565.724 enregistrements de personnes avec des informations personnelles telles que le numéro de carte d’identité, la date de délivrance et d’expiration, le sexe, la nation, l’adresse, l’anniversaire, la photo d’identité, l’employeur et les endroits où elles sont passées au cours des dernières 24 heures avec des traqueurs”. Quelques mois plus tard, l’Agence américaine des douanes et des frontières a révélé que sa base de données contenant des photos de voyageurs et de plaques d’immatriculation – qui avait été gérée par un sous-traitant, Perceptics, avait été piratée. S’adressant à Fast Company à ce sujet, David Maass, de l’Electronic Frontier Foundation, a déclaré que le gouvernement américain aurait dû être en mesure de prévoir le piratage, “étant donné que le système biométrique de l’Inde avait été piraté juste un an plus tôt”. Selon Maass, le piratage a mis en évidence la crainte que la sécurité des bases de données de la technologie de reconnaissance faciale ne soit pas suffisamment réglementée. “Nous avons également vu les autorités compétentes accorder leur confiance aux fournisseurs, pour lesquels la sécurité publique et la cybersécurité ne sont pas nécessairement des préoccupations majeures”, a-t-il déclaré.

Où sont les régulateurs ?

Les problèmes de biais, d’abus et de failles de sécurité décrits ci-dessus ont proliféré en l’absence de réglementation gouvernementale fédérale, nationale ou supranationale – ce qui a permis à la technologie de reconnaissance faciale de fonctionner sans les contraintes de transparence, de proportionnalité ou de responsabilité démocratique. Cela signifie que la réglementation de la technologie et des bases de données photographiques qu’elle traite a été largement laissée à des sociétés privées (Amazon propose son propre cadre réglementaire que la société espère voir adopter par les législateurs, par exemple), alimenté par des incitations commerciales, ou des services de police sans encadrement indépendant. “Nous avons sauté quelques étapes fondamentales du débat”, a déclaré Silkie Carlo, du groupe de défense de la vie privée Big Brother Watch, au New York Times. “Les décideurs politiques sont arrivés très tard dans la discussion et ne comprennent pas pleinement les implications et la vue d’ensemble”. Dans le monde entier, l’opinion publique sur la question varie. Alors qu’en Chine – selon l’Académie chinoise des sciences – 83 % de la population approuve le “bon usage” de la reconnaissance faciale, dirigée par le gouvernement, ce chiffre tombe à 56 % aux États-Unis, selon le Pew Research Center.

Au Royaume-Uni, une enquête menée en 2019 par l’Institut Ada Lovelace a révélé que 76 % sont contre l’utilisation de la technologie de reconnaissance faciale par les entreprises à des fins commerciales, comme dans les centres commerciaux, et que 55 % des Britanniques souhaitent que le gouvernement réglemente l’utilisation de la technologie de reconnaissance faciale dans les services de police. Les forces de police du Royaume-Uni ont testé cette technologie au cours des dernières années, notamment pour la surveillance de manifestations pacifiques – un cas d’utilisation que la Haute Cour de Londres a approuvé comme étant conforme aux lois sur les droits de l’homme et la protection des données en septembre 2019. Pourtant, comme le souligne le rapport 2019 du London Policing Ethics Panel sur la reconnaissance faciale en temps réel, la technologie de reconnaissance faciale a un effet dissuasif sur les droits de réunion et de parole. 38 % des 16-24 ans ont déclaré qu’ils seraient plus enclins à se tenir à l’écart des événements surveillés par la police à l’aide de la technologie de reconnaissance faciale. “Les gens craignent la normalisation de la surveillance, mais sont plus enclins à l’accepter lorsqu’ils voient un intérêt public s’exprimer”, a déclaré Olivia Varley-Winter, de l’Institut Ada Lovelace, à The Privacy Issue. “S’il existe un risque de sécurité défini, les gens ont tendance à accepter davantage son utilisation. Il s’agit d’avoir le choix, et la possibilité de s’en écarter. La connaissance de la technologie est très faible. Il n’y a pas eu de sensibilisation proactive – nous commençons tout juste à avoir ce débat dans les médias. Nous avons besoin d’un dialogue qui ne soit pas seulement le fait des personnes qui veulent voir la technologie de reconnaissance faciale utilisée”, a-t-elle déclaré.

Dans le monde entier, la demande de dialogue et d’action se fait chaque jour plus forte : le public, les défenseurs de la vie privée et les organisations de défense des droits civils, les universitaires, les politiciens et même certaines forces de police ont exprimé leur résistance à l’utilisation incontrôlée de la technologie de reconnaissance faciale à des fins policières et commerciales. Certaines collectivités locales aux États-Unis en tiennent compte. La Californie et le Massachusetts connaissent un élan croissant – au moment de la publication, San Francisco, Oakland et Berkeley, ainsi que Somerville, Brookline et Cambridge, ont tous interdit l’utilisation de la technologie de reconnaissance faciale par leurs administrations locales, y compris dans la police. Mutale Nkonde, conseiller politique de Data and Society AI, s’attend à ce que le débat et l’action au niveau des gouvernements locaux continuent à se développer. Dans de nombreux États, la législation Community Control Our Police Surveillance (CCOPS) est en cours d’adoption par les municipalités afin de responsabiliser la police quant à l’utilisation de cette technologie. Des villes américaines comme Portland et Cambridge débattent de l’interdiction de l’utilisation de la technologie de reconnaissance faciale par le secteur privé, et quarante des plus grands festivals de musique du monde se sont engagés à ne pas utiliser la technologie de reconnaissance faciale.

Faire face à l’intelligence artificielle : Un appel à l’action

En attendant qu’une législation nationale sur la technologie de reconnaissance faciale soit rigoureusement débattue et rédigée, les appels à l’arrêt de l’utilisation de la technologie de reconnaissance faciale prennent de l’ampleur dans tous les secteurs. La Commission européenne envisage d’interdire la reconnaissance faciale dans les lieux publics pour une période allant jusqu’à cinq ans, selon un projet de livre blanc de 2020. Aux États-Unis, une coalition de 30 organisations de la société civile, représentant 15 millions de membres, demande une interdiction nationale de l’utilisation de la technologie de reconnaissance faciale par les forces de l’ordre. Pourtant, Varley-Winter soutient que “les interdictions catégoriques risquent d’être des approches réactionnaires, des solutions provisoires. Afin de prévenir cette éventualité, l’Institut Ada Lovelace appelle à un moratoire comme approche plus prospective de la réglementation qui permet une considération et une délibération proportionnées”, a-t-elle déclaré à The Privacy Issue. “S’il existe des moyens de faire fonctionner la technologie de reconnaissance faciale pour les personnes et la société, il est important que nous découvrions ce qu’ils sont – mais l’industrie, les décideurs politiques et la société en général ont besoin de temps pour le faire d’une manière inclusive et réfléchie”.

Varley-Winter souligne que la mise en place par l’Écosse d’un groupe consultatif indépendant sur l’utilisation des données biométriques en mai 2017 est un exemple positif de l’action gouvernementale en la matière. En mai 2019, le projet de loi sur les données biométriques a été présenté au Parlement écossais, dans le but de “garantir un contrôle indépendant de l’acquisition, de la conservation, de l’utilisation et de l’élimination des données biométriques existantes, émergentes et futures dans le contexte de la justice pénale en Ecosse”, a-t-elle déclaré. “Le projet de loi créerait un nouveau commissaire écossais à la biométrie, avec un accent particulier sur les considérations éthiques et les droits de l’homme découlant de l’utilisation des données biométriques, et sur la maximisation des avantages des technologies biométriques”. Varley-Winter a ajouté que l’approche consistant à établir un processus d’examen indépendant centré sur les droits de l’homme est un “modèle prometteur que d’autres gouvernements pourraient envisager”.

Aux États-Unis, Kate Crawford, de l’AI Now Institutes, a également appelé à un moratoire volontaire sur l’utilisation de la technologie de reconnaissance faciale, exhortant ses fabricants à suivre les traces d’Axon, “le premier fournisseur mondial de caméras de surveillance des corps de police”, qui, en 2019, a cessé de vendre aux forces de police des caméras équipées de la technologie de reconnaissance faciale, en raison du risque qu’elle puisse “exacerber les inégalités existantes dans le maintien de l’ordre, par exemple en pénalisant les communautés noires ou LGBTQ”. Dans un éditorial pour Nature, elle cite quatre principes que l’Institut AI Now a développés pour un cadre de travail potentiel : (1) une interdiction de financement ou de déploiement des systèmes de reconnaissance faciale tant qu’ils n’ont pas été approuvés et que de solides protections juridiques n’ont pas été mises en place ; (2) une législation exigeant la participation du public avant leur utilisation, ainsi que des examens rigoureux de la technologie de reconnaissance faciale pour des raisons de partialité, de respect de la vie privée et de droits civils ; (3) une dérogation du gouvernement aux restrictions sur la recherche ou la surveillance des systèmes de reconnaissance faciale ; et (4) une plus grande protection des employés des entreprises technologiques en matière de dénonciation. Au Royaume-Uni, le projet de loi sur la technologie de reconnaissance faciale automatisée, rédigé par la commission spéciale de la Chambre des Lords sur l’intelligence artificielle à la fin de 2019, est en cours d’examen au Parlement au moment de sa publication.

Sur la base des recommandations ci-dessus – et en tenant compte des sept exigences clés du groupe d’experts de haut niveau de l’Union européenne sur l’IA pour une IA digne de confiance – la question du respect de la vie privée appelle ce qui suit :

1. Que les gouvernements mènent une vaste consultation publique et un débat sur l’utilisation de la technologie de reconnaissance faciale, en veillant à ce qu’un large éventail de voix aient la possibilité d’être entendues et soient prises en compte ;

2. Sur la base de ce processus de consultation publique, que les législateurs donnent la priorité à l’adoption d’une législation réglementant l’utilisation de la technologie de reconnaissance faciale dans les secteurs privé et public, notamment :

– Que l’utilisation de la technologie de reconnaissance faciale par la police soit strictement conforme aux principes de transparence et de proportionnalité ;
– Que l’utilisation de la technologie de reconnaissance faciale soit régulièrement vérifiée par un commissaire ou un conseil de surveillance indépendant ;
– que les personnes soient clairement et suffisamment informées avant d’être soumises à la technologie de reconnaissance faciale et qu’elles soient par conséquent en mesure de donner leur consentement ou, à défaut, de le révoquer ;
– Que des recherches indépendantes soient menées sur le biais algorithmique et ses effets sur les communautés vulnérables ; et

3. Qu’un moratoire volontaire sur la vente et l’achat de la technologie de reconnaissance faciale par les entreprises qui participent à son développement et à son utilisation, soit instauré jusqu’à ce qu’une telle réglementation soit adoptée – comme l’a demandé l’ACLU Massachusetts, parmi d’autres acteurs de la société civile.

Dans un article du Financial Times, la directrice de l’Institut Ada Lovelace, Carly Kind, cite l’exemple de la manière dont un moratoire réussi a empêché la discrimination et l’exploitation dans le secteur des assurances en Grande-Bretagne. En 1998, les assureurs britanniques ont volontairement mis en place une interdiction de deux ans sur l’utilisation des tests génétiques pour les polices d’assurance santé ou d’assurance vie, dont les futurs propriétaires de maison ont besoin pour obtenir un prêt hypothécaire au Royaume-Uni. En raison d’une lacune dans la loi, il aurait été légal pour les compagnies d’assurance d’obliger leurs clients à partager les résultats des tests génétiques, qu’ils auraient ensuite pu utiliser pour augmenter les primes ou refuser la couverture. Au lieu de cela, l’Association des assureurs britanniques a adopté un moratoire, qui a été prolongé et finalement officialisé dans un accord officiel avec le gouvernement, liant 97 % du secteur.

Bien que le rythme du débat public et de l’élaboration des lois puisse toujours être en retard sur la vitesse inhérente au développement des nouvelles technologies, l’exemple du moratoire volontaire des assureurs britanniques est la preuve que des changements radicaux dans le secteur peuvent être mis en œuvre efficacement pour prévenir les violations des droits et limiter les préjudices potentiels. Étant donné l’échelle mondiale et le rythme de développement de la technologie de reconnaissance faciale, l’appel à l’action est plus que jamais d’actualité. Cependant, face à une technologie qui prolifère rapidement et qui non seulement érode la démocratie et les libertés civiles, mais qui est aussi régulièrement utilisée comme arme contre les communautés vulnérables, il ne faut rien de moins qu’une action réglementaire audacieuse.

L’article est soumis à une licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Pas de Modification 4.0 International (CC BY-NC-ND 4.0)

The Privacy Issue