Le Coup d’état d’urgence

Surveillance, répression et libertés

Printemps 2020. Pour faire face au Covid-19, le premier état d’urgence sanitaire de l’histoire de France est instauré, s’inspirant de l’état d’urgence décrété pendant la guerre d’Algérie. Du jour au lendemain, l’intégralité de la population française se retrouve assignée à résidence, privée de sa liberté d’aller et de venir, de son droit à la vie privée et, selon les cas, de son droit au travail ou à la liberté d’entreprendre.

Parallèlement, un mécanisme de surveillance généralisée est mis en place, avec quadrillage policier du territoire et usage de drones. Désormais, chaque citoyen est considéré comme un danger potentiel. Il n’est plus un sujet de droit mais un « sujet virus ».

Alors que l’état d’exception contamine peu à peu le droit commun à la manière d’une tache d’huile, les catégories de personnes et les champs touchés par les réductions de libertés ne cessent de s’étendre. Quelles conséquences, dans ces conditions, pour les libertés publiques ? Quels contre-pouvoirs mobiliser face à l’arbitraire de l’exécutif ? Faut-il apprendre à vivre avec ce nouveau paradigme, ou, position défendue par l’auteur, ne pas s’y résigner ?

L’expertise d’Arié Alimi est précieuse et permet de poser un regard sans concession sur la question des libertés publiques et des dérives policières, au cœur de l’actualité. Face à ce « coup d’état d’urgence », il est encore temps de réagir.

Arié Alimi est un avocat pénaliste. Il défend de nombreuses victimes de violences policières et est membre de la Ligue des droits de l’Homme.

Tous surveillés – 7 milliards de suspects

Faut-il, pour stopper une pandémie ou éviter un attentat, accepter de renoncer à nos libertés individuelles ? A l’heure où de plus en plus d’États ont recours aux technologies de surveillance pour endiguer la propagation du coronavirus, cette enquête dresse un panorama mondial de l’obsession sécuritaire. Des caméras à reconnaissance faciale niçoises à la répression chinoise des Ouïghours, ce film dévoile la relation incestueuse entre les industriels de la sécurité et les grandes puissances, avec un constat glaçant : le totalitarisme numérique est pour demain.

Aujourd’hui, plus de 500 millions de caméras sur la planète offrent aux autorités la capacité de nous surveiller, à peu près partout et à chaque instant. Sous couvert de lutte contre le terrorisme ou la criminalité, les grandes puissances se sont lancées dans une dangereuse course aux technologies de surveillance. Dorénavant, l’incroyable perfectionnement de l’intelligence artificielle valide l’idée d’un regard total. Aux États-Unis, les forces de police utilisent la reconnaissance faciale pour identifier les suspects. En Chine, les caméras peuvent repérer les criminels de dos, à leur simple démarche. En France, la police utilise des caméras intelligentes qui analysent les émotions et les comportements des passants. Marquée par l’attentat au camion du 14 juillet 2016, qui a fait 86 morts, et s’est produit en dépit des 2 000 caméras scrutant la ville, Nice se situe désormais à l’avant-garde de l’expérimentation. Le centre de supervision et les zones dédiées à la reconnaissance faciale sont les chevaux de bataille du maire Christian Estrosi, qui veut faire de sa ville une safe city. Comme un virus, l’idéologie du tout sécuritaire se répand à la mesure d’une révolution numérique à la puissance exponentielle. Va-t-elle transformer notre monde en une planète habitée par 7 milliards de suspects ? Quel niveau de surveillance nos libertés individuelles peuvent-elles endurer ?

Dictature 3.0

On le surnomme le “marché de la peur”, estimé à 40 milliards de dollars par an. Colossaux, les enjeux de la surveillance intelligente aiguisent les appétits de sociétés prêtes à promouvoir le “modèle Big Brother” pour engranger les plus grands bénéfices. L’enquête internationale de Sylvain Louvet démonte les rouages de cette machine aux innombrables facettes et dévoile la relation incestueuse qui se noue entre les industriels et les pouvoirs publics. En Israël, elle souligne les liens entre l’armée, le Mossad et les start-up technologiques, soupçonnées de tester la reconnaissance faciale aux checkpoints. En France, elle met en lumière l’influence du secteur privé, dans les orientations choisies par le maire de Nice, Christian Estrosi. Aux États-Unis, l’enquête donne la parole à ceux qui dénoncent la faillibilité du logiciel de reconnaissance faciale d’Amazon couplé à un fichage biométrique généralisé. Le documentariste a également réussi à enquêter en Chine, pays où l’obsession sécuritaire est en passe de donner naissance à une nouvelle forme de régime : la dictature 3.0. Arrestations “préventives” arbitraires, mise en place d’un système de notation des citoyens, fichage ADN et persécution systématisée (allant jusqu’à l’apposition d’un QR code sur la porte des appartements) de la minorité musulmane des Ouïghours… L’arsenal de la répression connaît un degré de raffinement inédit dans l’histoire de l’humanité. Un camp du Goulag numérique : telle est la vision du futur dessinée par ce documentaire aussi percutant que glaçant.

Le prix Albert Londres 2020 de l’audiovisuel a été décerné à Sylvain Louvet pour le documentaire diffusé le 21 avril 2020 sur Arte. Cette prestigieuse distinction vient saluer une longue enquête internationale qui trouve une résonance particulière dans le contexte actuel .

HOLD-UP le documentaire censuré en version intégrale

https://tprod.fr/project/hold-up/

La pandémie de la Covid-19 a donné lieu à des échanges contradictoires entre médecins, spécialistes, professeurs, hommes politiques et experts, le tout orchestré et alimenté par le feu nourri des médias. Les scientifiques se sont ainsi retrouvés discrédités avec notamment l’affaire du Lancet. Le Conseil scientifique, censé piloter cette pandémie, est ouvertement accusé d’incompétence et d’arrogance, preuves à l’appui. Et nous dans tout ça ? Que penser ? Que faire avec toutes ces informations ? Qui croire ?

Ce sont les questions auxquelles le documentaire HOLD-UP tente de répondre en partant à la rencontre de soignants, chercheurs, experts, juristes offrant une autre lecture sur cette crise sans précédent et dénonçant une batterie de mesures gouvernementales jugées inefficaces pour la plupart.

La censure n’a pas sa place ici, nous assumons de publier ce documentaire qui permet de s’interroger et de se poser les bonnes questions. Ce documentaire montre également les enjeux et ce qui se joue ici et maintenant : Quel sera le monde après la COVID-19 ? Dans quel monde voulez-vous vivre demain ?

Nous nous dirigeons vers un bouleversement systémique du monde d’un ancien monde vers un monde nouveau, provenant de la combinaison d’une nouvelle révolution techno-scientifique. Un monde digital, mondialisé, aux connexions ultra rapides. Les technologies qui sont d’un intérêt particulier pour les transhumanistes comme l’intelligence artificielle, associées aux données de masse (big data), la biométrie (reconnaissance de l’iris, reconnaissance vocale, reconnaissance du réseau veineux, reconnaissance faciale), l’IoT, les nanotechnologies, la robotique, la blockchain, la cryptomonnaie…. préparent la quatrième révolution industrielle à l’aube du Grand Reset.

Cela fera bientôt 6 ans que nous publions sur ces technologies perturbatrices. La plupart des gens le prennent à la légère puisqu’ils pensent que cela ne les affecte pas, mais la vérité est toute autre. Ces technologies anéantissent totalement les marchés existants et les remplacent par de nouveaux, plus avancés technologiquement. Les gens semblent encore être totalement inconscients des dangers qui les attendent. La technologie de reconnaissance faciale est hors de contrôle et les implications sont profondes. Vous pensez sérieusement que le cybercontrôle en Chine et l’omni-surveillance de sa population pour écraser la dissidence restera en Chine ?

La pandémie COVID-19 a redéfini et reconfiguré la nature et la condition humaine.

Klaus Schwab du WEF a promu le Great Reset comme un moyen de “maîtriser la quatrième révolution industrielle”, un terme qu’il a inventé et qui, a-t-il déclaré en janvier 2016, “affectera l’essence même de notre expérience humaine”.

“The theme of the World Economic Forum Annual Meeting 2016 in Davos is Mastering the Fourth Industrial Revolution. The Fourth Industrial Revolution will bring change at a speed, scale and force unlike anything we’ve seen before. It will affect the very essence of our human experience”.

Schwab a alors décrit la quatrième révolution industrielle comme “une fusion des technologies qui brouille les lignes entre les sphères physique, numérique et biologique”.

Donc, on vous le rappelle, ces technologies comprennent le génie génétique comme l’édition du génome avec CRISPR, l’intelligence artificielle, la robotique, l’Internet des objets (IoT), l’impression 3D, l’informatique quantique…ect.

La quatrième révolution industrielle n’est rien d’autre que la mise en œuvre du transhumanisme au niveau mondial.

Il y a deux mois, nous avons publié le rapport Kaspersky qui visait à clarifier les points de vue des citoyens de plusieurs pays sur la perspective du biohacking (transhumanisme). Et l’année dernière, le rapport Gatner sur les 10 principales tendances technologiques pour 2020 comprenant l’augmentation humaine (le transhumanisme).

Nous sommes à la croisée des chemins.

Vous avez le droit de vous interroger. Vous avez le droit de vous posez des questions. Vous avez le droit d’être intelligent. Vous êtes à même de comprendre, ne remettez pas en cause votre propre capacité de compréhension. C’est ce que nous avons essayer de faire ici depuis 6 ans, en publiant une information accessible au plus grand nombre tout en fournissant plusieurs pistes de réflexion.

Chine : La surveillance biométrique s’intensifie

L’utilisation de la biométrie en Chine pour la surveillance ne cesse d’augmenter, selon un rapport de Chinafile, une organisation à but non lucratif, publié après l’analyse de plus de 76 000 documents du gouvernement chinois.

Ces documents détaillent la récente intensification du régime de surveillance de la Chine dans le contexte de la pandémie, visant à atteindre une couverture nationale à 100 % cette année. Cet objectif a été annoncé dans le cadre du projet Sharp Eyes, un programme de surveillance de masse mis en place par le gouvernement en 2018.

Les achats de technologies de reconnaissance faciale sont en hausse, rapporte Chinafile, tout comme les systèmes de vidéosurveillance. En 13 ans (2006-2019), les autorités du district de Xiqiao ont acheté 1 400 caméras, dont 300 à reconnaissance faciale, selon les documents.

Chinafile souligne que la surveillance gouvernementale traditionnellement secrète devient maintenant plus ouverte suite à la réponse du contrôle de la COVID-19. En effet, le système de traçage exige que les gens participent en fournissant des informations sur leurs activités quotidiennes, en fournissant volontairement plus de données que la surveillance vidéo ne pourrait en recueillir. Comme dans d’autres parties du monde, la Chine utilise des QR codes et d’autres moyens de localisation des citoyens pour surveiller la propagation du virus.

Le rapport décrit l’accent mis par les documents sur les menaces en plusieurs points. La région de Xiqiao cherche à identifier les menaces telles que le terrorisme, en mettant en place des caméras dans les zones touristiques, notamment 10 sur le seul mont Xiqiao, qui est fréquenté par 5 millions de personnes par an.

Actuellement, dans le comté de Luchuan au Guangxi, la police utilise la reconnaissance faciale pour détecter les fraudes à l’identité. Le Bureau de la sécurité publique avait recherché une technologie capable de discerner les dissimulations comme les chapeaux, les masques, les lunettes, les lunettes de soleil, les perruques et les fausses moustaches. Alors qu’au Xinjiang, les profils à risque des individus peuvent être établis à partir de la pilosité faciale, de la taille de la famille et du nom d’une personne. Les méthodes de suivi non biométriques utilisées comprennent l’obligation de présenter une carte d’identité pour le ravitaillement en carburant des véhicules.

Les documents révèlent que trois autres provinces ont également cherché une technologie de reconnaissance faciale qui peut déterminer spécifiquement l’ethnicité ; signalant la population ouïghoure comme étant un intérêt pour les autorités dans ce cas. Une caméra en mode de capture hybride permettrait d’établir un lien entre les images faciales et les véhicules enregistrés des individus. Un projet de déploiement de caméras à imagerie thermique a également été signalé.

Le rapport de Chinafile met en évidence les objectifs du gouvernement d’installer des caméras dans tous les aspects de la vie sociale, couvrant des domaines particuliers qui intéressent les autorités. Cependant, les détails du fonctionnement du réseau de surveillance national restent ambigus.

Le Financial Times rapporte qu’un centre de recherche basé à Pékin a constaté que deux tiers des personnes étaient “fortement d’accord” pour dire que l’imagerie faciale dans la société avait rendu les espaces publics plus sûrs ; 80 % s’inquiétaient de la sécurité de leurs informations personnelles.

Entre-temps, la première législation concernant l’utilisation des technologies de reconnaissance faciale sur les citoyens chinois a été promulguée dans la ville de Hangzhou. La nouvelle loi interdira aux autorités locales d’utiliser des caméras de reconnaissance faciale dans les zones résidentielles et la législation semble être en phase avec l’opinion publique, les réactions critiques à l’égard des déploiements de la reconnaissance faciale devenant de plus en plus fréquentes.

Un professeur d’université chinois poursuit quant à lui un parc animalier local de Hangzhou pour l’avoir obligé à se soumettre à une reconnaissance faciale biométrique pour entrer dans le parc, s’opposant pour des raisons de confidentialité et de sécurité des données, rapporte The Guardian.

Le parc a récemment remplacé son système d’entrée à empreintes digitales par l’imagerie faciale afin d’améliorer l’efficacité de l’entrée. Le professeur, Guo Bing, affirme que son action en justice est motivée par la lutte contre l’utilisation abusive de la reconnaissance faciale et estime que ses droits ont été violés.

Comparitech, un chercheur des services technologiques, rapporte que les caméras de surveillance chinoises représentent environ 56 caméras pour 1000 personnes. A titre de comparaison, Comparitech a publié des données de surveillance dans d’autres villes, notamment à Londres, où l’on compte 67,47 caméras pour 1 000 personnes.

iHuman – L’intelligence artificielle et nous

L’intelligence artificielle va-t-elle remplacer l’humanité ?

Credit : https://upnorthfilm.no/film/ihuman/

Ce documentaire prend la mesure de l’emprise des algorithmes sur nos vies.

“La création d’une intelligence artificielle serait le plus grand événement de l’histoire de l’humanité. Mais il pourrait être aussi le dernier”, disait Stephen Hawking. Le célèbre cosmologiste avait prévu la croissance infinie de l’informatique mais partageait avec certains pionniers la crainte qu’elle ne devienne incontrôlable. Aujourd’hui, l’IA promet d’aider à guérir des maladies, de faire face aux changements climatiques ou de combattre la pauvreté. Mais elle menace aussi d’influer insidieusement sur nos comportements, de mettre à mal l’idée même de sphère privée ou d’aider les dictatures à asseoir leur pouvoir. En proie à une surveillance algorithmique, notre identité peut dorénavant se réduire… à des données.

Toute-puissance

L’IA sera vite dépassée. On parle aujourd’hui d’une intelligence artificielle générale (IAG), capable de s’adapter et d’apprendre seule, qui égalerait, voire dépasserait les capacités humaines. De quoi allécher les firmes qui font commerce des données numériques (les célèbres GAFAM). Le documentaire dresse l’état des lieux de l’IA en donnant la parole à ceux qui en débattent (sociologues, avocats des droits de l’homme, scientifiques ou journalistes d’investigation) mais aussi à ceux qui l’inventent, comme Jürgen Schmidhuber et Ilya Sutskever, deux grands chercheurs et initiateurs, à la posture ambivalente : conscients de la toute-puissance de leur création mais déterminés à poursuivre leurs travaux.


Source

People Analytics : La longue histoire de l’analyse des personnes

La Silicon Valley croit depuis longtemps qu’elle peut optimiser la société, comme le soutient Jill Lepore dans son nouveau livre If Then.

Si vous travaillez pour Bank of America ou l’armée américaine, vous avez peut-être utilisé une technologie développée par Humanyze. Cette société est issue des recherches menées au Media Lab du MIT et décrit ses produits comme “des analyses fondées sur la science pour favoriser l’adaptabilité”.

Si cela semble vague, c’est peut-être délibéré. Humanyze vend notamment aux entreprises des dispositifs permettant d’espionner les employés, tels que des badges d’identification avec des étiquettes RFID intégrées, des capteurs de communication en champ proche (NFC, Near Field Communication) et des microphones intégrés qui permettent de suivre dans les moindres détails le ton et le volume (mais pas les mots) des conversations des personnes tout au long de la journée. Humanyze a déposé son score de santé organisationnelle, qu’elle calcule sur la base des données des employés collectées par les badges et qu’elle promet être “une formule éprouvée pour accélérer le changement et favoriser l’amélioration”.

Ou alors vous travaillez pour l’une des entreprises du secteur de la santé, du commerce de détail ou des services financiers qui utilisent le logiciel développé par Receptiviti. La mission de cette entreprise basée à Toronto est d’aider les machines à comprendre les gens en scannant les courriels et les messages Slack à la recherche d’indices linguistiques de mécontentement. “Nous nous inquiétons de la perception de Big Brother”, a récemment déclaré Kreindler, le PDG de Receptiviti au Wall Street Journal. Il préfère qualifier la surveillance des employés de corporate mindfulness. (Orwell aurait également eu quelque chose à dire sur cet euphémisme).

De tels efforts dans ce que ses créateurs appellent “people analytics” sont généralement justifiés par l’amélioration de l’efficacité ou de l’expérience du client. Ces derniers mois, certains gouvernements et experts de la santé publique ont préconisé le suivi et la traçabilité des applications comme moyen d’arrêter la propagation de la covid-19.

Mais en adoptant ces technologies, les entreprises et les gouvernements évitent souvent de répondre à des questions cruciales : Qui devrait savoir quoi à votre sujet ? Ce qu’ils savent est-il exact ? Que devraient-ils être en mesure de faire avec ces informations ? Et, est-il jamais possible de concevoir une “formule éprouvée” pour évaluer le comportement humain ?

De telles questions ont une histoire, mais les technologues d’aujourd’hui ne semblent pas la connaître. Ils préfèrent se concentrer sur les nouvelles et ingénieuses façons dont leurs inventions peuvent améliorer l’expérience humaine (ou les résultats de l’entreprise) plutôt que sur les façons dont les gens ont essayé et échoué à faire de même dans les époques précédentes. Chaque nouvel algorithme ou application est, selon eux, une réprimande implicite du passé.

Mais ce passé peut offrir une orientation et une humilité bien nécessaires. Malgré des ordinateurs plus rapides et des algorithmes plus sophistiqués, l’analyse des personnes d’aujourd’hui est alimentée par une vieille conception réductrice : l’idée que la nature humaine dans toute sa complexité peut être réduite à une formule. Nous en savons assez sur le comportement humain pour exploiter les faiblesses des uns et des autres, mais pas assez pour le modifier de manière significative.

If Then, un nouveau livre de Jill Lepore, historienne à l’université de Harvard et rédactrice au New Yorker, raconte l’histoire d’une entreprise technologique oubliée du milieu du XXe siècle, la Simulmatics Corporation. Fondée par un groupe hétéroclite de scientifiques et de publicitaires en 1959, elle était, selon Jill Lepore, “la Cambridge Analytica de l’Amérique de la guerre froide”.

Une description plus précise pourrait être que c’était un effort des démocrates pour concurrencer l’adoption des techniques de publicité par le parti républicain. Au milieu du siècle, les républicains vendaient les hommes politiques au public comme s’il s’agissait de papier toilette ou de café. Simulmatics, qui s’était installé à New York (et qui a dû recourir aux ordinateurs d’IBM pour effectuer ses calculs), promettait de prédire le résultat des élections presque en temps réel – une pratique désormais si courante qu’elle est banale, mais considérée alors comme révolutionnaire, voire impossible.

Le nom de la société, qui signifie “simulation” et “automatique”, était à la mesure de l’ambition de ses créateurs : “automatiser la simulation du comportement humain”. Son principal outil était la People Machine, que Lepore décrit comme “un programme informatique conçu pour prédire et manipuler le comportement humain, toutes sortes de comportements humains, de l’achat d’un lave-vaisselle à la lutte contre une insurrection en passant par le vote”. Il fonctionnait en développant des catégories de personnes (comme une mère blanche de la classe ouvrière catholique ou républicaine de banlieue) et en simulant leur prise de décision probable. (La publicité ciblée et les campagnes politiques utilisent aujourd’hui des techniques largement similaires).

Les principaux acteurs de l’entreprise sont issus de différents milieux. Le publicitaire Ed Greenfield a été l’un des premiers à entrevoir comment la nouvelle technologie de la télévision allait révolutionner la politique et a acquis la conviction que les premiers ordinateurs exerceraient une force tout aussi perturbatrice sur la démocratie. Ithiel de Sola Pool, un ambitieux chercheur en sciences sociales désireux de travailler avec le gouvernement pour découvrir les secrets du comportement humain, est finalement devenu l’un des premiers théoriciens visionnaires des réseaux sociaux.

Plus que tout autre homme de Simulmatics, Pool incarnait à la fois la ferveur idéaliste et l’insouciance à l’égard de la violation des normes qui caractérisent les innovateurs technologiques d’aujourd’hui. Fils de parents radicaux qui ont eux-mêmes touché au socialisme dans leur jeunesse, il a passé le reste de sa vie à prouver qu’il était un patriote engagé dans la guerre froide, et il a un jour décrit son travail à Simulmatics comme “une sorte de pari du Manhattan Project en politique”.

Pour aider à l’élection de J.F.K., Simulmatics a conçu des modèles informatiques du comportement des électeurs. Photographie de Stan Wayman / Getty

L’un des premiers gros clients de la société a été la campagne présidentielle de John F. Kennedy en 1960. Lorsque Kennedy a gagné, la société a revendiqué le mérite. Mais elle a également dû faire face à la crainte que la machine qu’elle avait construite puisse être utilisée à des fins malveillantes. Comme l’a dit un scientifique dans un exposé de la société, publié par le magazine Harper’s peu après l’élection, “On ne peut pas simuler les conséquences de la simulation“. Le public craignait que des entreprises comme Simulmatics puissent avoir une influence corrompue sur le processus démocratique. Cela, rappelons-le, s’est passé près d’un demi-siècle avant même la création de Facebook.

Une branche du gouvernement, cependant, s’est montrée enthousiaste quant aux capacités prédictives de la société : le Département de la Défense. Comme le rappelle Lepore, les partenariats étroits entre les technologues et le Pentagone étaient considérés comme des efforts nécessaires et patriotiques pour endiguer la vague communiste pendant la guerre froide.

En 1966, Pool avait accepté un contrat pour superviser un projet de sciences du comportement à grande échelle pour le Département de la Défense à Saïgon. “Le Vietnam est le plus grand laboratoire de sciences sociales que nous ayons jamais eu ! S’enthousiasme-t-il. Comme le secrétaire à la Défense Robert McNamara, Pool pensait que la guerre serait gagnée dans “le cœur et l’esprit” des Vietnamiens, et qu’elle nécessitait la modélisation et la simulation des sciences du comportement pour être gagnée. Comme l’écrit Lepore, Pool soutenait que si les hommes d’État avaient par le passé consulté la philosophie, la littérature et l’histoire, les hommes d’État de la guerre froide étaient obligés de consulter les sciences du comportement.

Leurs efforts de contre-insurrection assistée par ordinateur ont été un échec désastreux, en grande partie parce que les données de Simulmatics sur les Vietnamiens étaient partielles et que ses simulations reposaient davantage sur des vœux pieux que sur les réalités du terrain. Mais cela n’a pas empêché le gouvernement fédéral de revenir vers Pool et Simulmatics pour l’aider à comprendre – et à prévoir – les troubles civils au Vietnam.

La Commission Kerner, instituée par le président Lyndon Johnson en 1967 pour étudier les émeutes raciales qui avaient éclaté dans tout le pays, a payé la division des études urbaines de Simulmatics pour qu’elle conçoive une formule prédictive des émeutes afin d’alerter les autorités avant que celles-ci ne dégénèrent en désordre. Comme les prédictions pour le Vietnam, celles-ci se sont avérées douteuses. Dans les années 1970, Simulmatics avait fait faillite et “la simulation informatique automatisée du comportement humain était tombée en discrédit”, selon Lepore.

“La collecte et l’utilisation à des fins lucratives de données sur le comportement humain, non réglementées par un quelconque organisme gouvernemental, a fait des ravages dans les sociétés humaines”.

La simulation “se cache derrière l’écran de chaque appareil” que nous utilisons, affirme Lepore, et elle prétend que ses créateurs, les “grands-pères à la moustache blanche et à la mort longue de Mark Zuckerberg et Sergey Brin et Jeff Bezos et Peter Thiel et Marc Andreessen et Elon Musk”, sont un “chaînon manquant” dans l’histoire de la technologie. Mais il s’agit là d’un dépassement. Le rêve de trier, de catégoriser et d’analyser les gens a été une constante tout au long de l’histoire. L’effort de Simulmatics n’était qu’un effort parmi d’autres, et n’était guère révolutionnaire.

Les projets du XIXe siècle visant à classer les criminels par catégories, ou les campagnes du début du XXe siècle visant à prédire le comportement en fonction de catégories pseudo-scientifiques de race et d’ethnicité au plus fort du mouvement eugéniste, ont été beaucoup plus importants (et nuisibles) sur le plan historique. Tous ces projets ont également été couronnés de succès grâce à la collecte et à la systématisation de données et à des partenariats avec les autorités locales et nationales, mais ils ont également suscité l’enthousiasme d’une grande partie du public, ce que Simulmatics n’a jamais réalisé.

Ce qui est vrai, c’est que la combinaison d’idéalisme et d’orgueil de Simulmatics ressemble à celle de nombreuses entreprises contemporaines de la Silicon Valley. Comme elles, elle se considère comme le fer de lance d’un nouveau siècle des Lumières, dirigé par les personnes les plus aptes à résoudre les problèmes de la société, même si elles ne saisissent pas la complexité et la diversité de cette société. “Il serait plus facile, plus réconfortant, moins dérangeant, si les scientifiques de Simulmatics étaient les méchants”, écrit Lepore. “Mais ils ne l’étaient pas. C’étaient des libéraux blancs du milieu du siècle dernier, à une époque où l’on n’attendait pas des libéraux blancs qu’ils comprennent les gens qui n’étaient pas blancs ou libéraux”. Alors que Simulmatics Corporation croyait que la même formule pouvait comprendre des populations aussi distinctes que les électeurs américains et les villageois vietnamiens, les technologies prédictives actuelles font souvent des promesses tout aussi grandioses. Alimentées par une collecte et une analyse de données bien plus sophistiquées, elles ne parviennent toujours pas à rendre compte de toute la gamme et de la richesse de la complexité et des variations humaines.

Ainsi, bien que Simulmatics est inventé le futur, ses tentatives de catégorisation et de prévision du comportement humain ont soulevé des questions sur l’éthique des données qui sont toujours d’actualité. Lepore décrit les audiences du Congrès sur la confidentialité des données en 1966, lorsqu’un scientifique du RAND a exposé au Congrès les questions qu’il devrait poser : Que sont les données ? À qui appartiennent les données ? Quelle est l’obligation du collecteur, du détenteur ou de l’analyste des données à l’égard du sujet des données ? Les données peuvent-elles être partagées ? Peuvent-elles être vendues ?

Lepore déplore qu’une époque antérieure n’ait pas su aborder de front ces questions. “Si, alors, dans les années 1960, les choses s’étaient passées différemment, cet avenir aurait pu être sauvé”, écrit-elle, ajoutant que “beaucoup de gens croyaient à l’époque qu’une people machine était entièrement et totalement amorale”. Mais il est aussi étrangement rassurant d’apprendre que même lorsque nos technologies étaient à leur stade rudimentaire, les gens réfléchissaient aux conséquences probables de leur utilisation.

Comme l’écrit Lepore, la simulation a été entravée par les limites technologiques des années 1960 : “Les données étaient rares. Les modèles étaient faibles. Les ordinateurs étaient lents. La machine tombait en panne, et les hommes qui la construisaient ne pouvaient pas la réparer.” Mais bien que les machines d’aujourd’hui soient “plus élégantes, plus rapides et apparemment inarrêtables”, elles ne sont pas fondamentalement différentes de celles de Simulmatics. Toutes sont basées sur la croyance que les lois mathématiques de la nature humaine sont réelles, de la même manière que les lois de la physique sont – une fausse croyance, note Lepore.

L’étude du comportement humain n’est pas la même chose que l’étude de la propagation des virus et de la densité des clouds et du mouvement des étoiles. Le comportement humain ne suit pas des lois comme la loi de la gravité, et croire qu’il le fait, c’est prêter serment à une nouvelle religion. La prédestination peut être un évangile dangereux. La collecte et l’utilisation à des fins lucratives de données sur le comportement humain, non réglementées par un quelconque organisme gouvernemental, a fait des ravages dans les sociétés humaines, en particulier dans les domaines dans lesquels Simulmatics s’est engagé : politique, publicité, journalisme, contre-insurrection et relations raciales.

La société Simulmatics a échoué parce qu’elle était en avance sur son temps, ses homologues modernes sont plus puissants et plus rentables. Mais se souvenir de son histoire peut aider à clarifier les déficiences d’une société construite sur des croyances réductrices concernant le pouvoir des données.

Réglementation de la biométrie : Approches globales et questions urgentes

L’AI Now Institute a publié un recueil d’études de cas sur les approches réglementaires de la technologie de reconnaissance biométrique, les leçons tirées et les futures actions de sensibilisation

Dans un contexte de surveillance publique accrue, l’intérêt pour la réglementation des technologies biométriques telles que la reconnaissance faciale et vocale s’est considérablement accru dans le monde entier, sous l’impulsion de la recherche et de la défense des intérêts des communautés. Il se dégage de ce moment un sentiment croissant que des technologies comme la reconnaissance faciale ne sont pas inévitables, et peut-être même pas nécessaires ou utiles.

“Regulating Biometrics: Global approaches and urgent questions”, par Amba Kak, présente huit études de cas détaillées d’universitaires, avocats et experts politiques qui examinent les tentatives actuelles de réglementation des technologies biométriques et donnent un aperçu des promesses et des limites de ces approches. Dans quels domaines la réglementation est-elle capable de déterminer si et comment les technologies biométriques sont utilisées, et dans quels domaines est-elle insuffisante ? En examinant ces questions, ces auteurs experts éclairent les domaines d’engagement, de défense et de réglementation futurs.

Ces essais brossent un tableau du paysage mondial complexe de la réglementation de la biométrie, en mettant en évidence les nombreuses approches adoptées par les partisans de la biométrie, qui réclament un contrôle accru de ces technologies, ainsi que la manière dont les gouvernements ont utilisé la loi comme outil pour étendre ou consolider l’utilisation de la biométrie.

Projet de loi australien sur les services de rapprochement des identités (p.44)

Jake Goldenfein (Faculté de droit de Melbourne) et Monique Mann (Université Deakin) suivent les manœuvres institutionnelles et politiques qui ont conduit l’Australie à créer une grande base de données centralisée de reconnaissance faciale (“The Capability”) à l’usage de divers acteurs gouvernementaux. Ils examinent les échecs de la réglementation pour remettre en cause de manière significative la construction de ce système, voire pour façonner son architecture technique ou institutionnelle.

L’économie (et la pratique réglementaire) que la biométrie inspire : Une étude du projet Aadhaar (p.52)

Nayantara Ranganathan (avocate et chercheuse indépendante, Inde) explique comment le droit et la politique autour du projet indien d’identification biométrique (“Aadhaar”) ont finalement servi à construire des données biométriques comme ressource pour l’extraction de données de valeur par des entreprises privées. Elle explore comment la réglementation a été influencée par les logiques et les cultures du projet qu’elle cherchait à réglementer.

Une première tentative de réglementation des données biométriques dans l’Union européenne (p.62)

Els Kindt (KU Leuven) fournit un compte-rendu détaillé de l’approche du Règlement général sur la protection des données (RGPD) de l’Union européenne en matière de réglementation des données biométriques. Comme de nombreux pays sont sur le point de mettre en œuvre des lois nationales rédigées de manière similaire, elle identifie les lacunes potentielles et souligne les domaines clés pour la réforme.

Réflexion sur la politique biométrique du Comité international de la Croix-Rouge : Réduire au minimum les bases de données centralisées (p.70)

Ben Hayes (Agence AWO, conseiller juridique consultant auprès du Comité international de la Croix-Rouge [CICR]) et Massimo Marelli (chef du Bureau de la protection des données du CICR) expliquent le processus décisionnel du CICR pour formuler sa première politique en matière de biométrie, qui visait à éviter la création de bases de données et à minimiser les risques pour les populations vulnérables dans les contextes humanitaires.

Utilisation par la police de la reconnaissance faciale en live au Royaume-Uni (p.78)

Peter Fussey (Université d’Essex) et Daragh Murray (Université d’Essex), principaux auteurs de l’étude empirique indépendante du procès de la police métropolitaine de Londres sur la reconnaissance faciale en live (LFR-Live Facial Recognition), expliquent comment les normes juridiques et les outils de régulation existants n’ont pas réussi à empêcher la prolifération d’un système dont les effets néfastes ont été démontrés. Ils tirent ainsi des enseignements plus larges pour la réglementation de la LFR au Royaume-Uni et des technologies similaires ailleurs.

Une taxonomie des approches législatives pour la reconnaissance faciale aux États-Unis (p.86)

Jameson Spivack et Clare Garvie (Georgetown Center on Privacy and Technology) écrivent sur les dizaines de lois d’interdiction et de moratoires sur l’utilisation de la reconnaissance faciale par la police aux États-Unis, la plupart d’entre elles menées par des avocats et des organisations communautaires. Les auteurs fournissent une taxonomie détaillée qui va au-delà des grandes catégories d’interdiction et de moratoire, et réfléchissent aux leçons tirées de leur mise en œuvre.

BIPA : La plus importante loi biométrique sur la protection de la vie privée aux États-Unis ? (p.96)

Woodrow Hartzog (Northeastern University) explore les promesses et les pièges de la loi sur la confidentialité des informations biométriques (BIPA) de l’État de l’Illinois et, plus largement, du droit des particuliers à engager leurs propres actions contre des entreprises privées. Il s’interroge sur les limites inévitables d’une loi centrée sur le “consentement éclairé”, un système qui donne l’illusion d’un contrôle tout en justifiant des pratiques douteuses que les gens n’ont pas assez de temps ou de ressources pour comprendre et agir.

Réglementation biométrique ascendante : La réponse de la Communauté à l’utilisation de la surveillance faciale dans les écoles (p.104)

Stefanie Coyle (NYCLU) et Rashida Richardson (Rutgers Law School ; AI Now Institute, NYU) examinent la décision controversée d’un district scolaire de Lockport, New York, de mettre en place un système de reconnaissance faciale et d’objets pour surveiller les élèves. Elles mettent en lumière la réponse de la communauté qui a suscité un débat national et a conduit à une législation à l’échelle de l’État réglementant l’utilisation des technologies biométriques dans les écoles.

Lire le rapport complet (PDF)

La Chine est en train de bâtir une base de données génétiques sur chaque homme du pays

Surveillance génomique

La police chinoise recueille des échantillons de sang auprès des quelque 700 millions d’hommes et garçons du pays – dans le but exprès de constituer une base de données génétiques nationale de leur ADN.

Le gouvernement chinois collecterait ces codes génétiques depuis 2017, selon de nouvelles recherches. La police se rend chez les gens et même dans les écoles pour faire des prises de sang et compiler des informations génétiques.

Une fois que ce travail sera terminé, l’État sera en mesure de traquer les hommes ou les jeunes garçons de la famille en se basant sur leurs gènes, selon le New York Times, ce qui renforcera considérablement les pouvoirs de surveillance déjà omniprésents de la Chine et en fera un panoptique génétique de type Gattaca.

Plus alarmant encore, une société américaine, Thermo Fisher, aide la Chine dans cette tâche – la société pharmaceutique a vendu à la Chine les kits de tests ADN sur mesure que la police utilise pour collecter des échantillons après avoir négocié activement le contrat, rapporte le NYT. Après que le gouvernement américain ait critiqué la décision de Thermo Fisher, la société a poursuivi ses activités.

Les responsables politiques en Chine invoquent la loi et l’ordre pour justifier la croissance de leur base de données génétiques, en faisant valoir que l’effort de surveillance aidera les enquêtes criminelles. Mais les défenseurs des droits de l’homme – et même certains fonctionnaires en Chine – s’inquiètent des conséquences sur la vie privée en forçant tout le monde à donner son code génétique.

« La capacité des autorités à découvrir qui est le plus intimement lié à qui, étant donné le contexte de la répression exercée sur des familles entières en raison de l’activisme d’une personne, va avoir un effet effrayant sur la société dans son ensemble », a déclaré Maya Wang, chercheuse de Human Rights Watch, au NYT.

Une fois que la Chine aura atteint les 70 millions d’échantillons, soit dix pour cent de la population masculine du pays, elle sera théoriquement en mesure de relier toute personne du pays à ses proches sur la base de son ADN.

Les scientifiques s’insurgent contre la collecte d’ADN de la Chine

Selon Nature News, des scientifiques et des militants font maintenant pression contre ce plan qui, selon eux, permettrait à la Chine de violer les droits de l’homme et de persécuter sa population.

“Vous pouvez penser à des pratiques abusives si vous êtes créatif”, a déclaré Itsik Pe’er, biologiste en informatique de l’université de Columbia, à Nature News. “La police fait ce qu’elle veut.”

Le ministère chinois de la sécurité publique n’a fait aucun commentaire sur la manière dont la base de données génétiques va être utilisée – ou si l’on peut craindre des abus dépassant le cadre des enquêtes criminelles.

Mais même si les données génétiques sont utilisées exactement comme on le prétend, cela expose les populations, en particulier les groupes minoritaires, au risque de violence étatique. Au lieu de traquer des criminels, les experts avertissent que cela renforcera la capacité de la Chine à surveiller sa population et à écraser la dissidence.

“Cette collecte n’a rien à voir avec le crime”, a déclaré Maya Wang, chercheuse à Human Rights Watch basée à Hong Kong, à Nature News, “elle porte sur l’oppression”.

Un projet de loi américain vise à interdire l’utilisation de la reconnaissance faciale par la police

Les législateurs américains ont présenté un projet de loi, The Facial Recognition and Biometric Technology Moratorium Act, qui interdirait l’utilisation de la technologie de reconnaissance faciale par les agences fédérales de maintien de l’ordre.

Plus précisément, il rendrait illégal pour toute agence fédérale ou tout fonctionnaire “d’acquérir, de posséder, d’accéder ou d’utiliser” la technologie de surveillance biométrique aux États-Unis. Il exigerait également que les services de police des États et des collectivités locales instaurent des interdictions similaires afin de pouvoir bénéficier d’un financement fédéral.

La proposition de loi est arrivée à un stade où l’utilisation de la technologie de reconnaissance faciale par la police fait l’objet d’une attention accrue dans le cadre des protestations qui ont suivi l’assassinat de George Floyd fin mai. Des études ont montré à plusieurs reprises que la technologie est moins précise pour les Noirs, et au début de cette semaine, le New York Times a rapporté qu’un homme noir innocent du Michigan avait été arrêté après avoir été mal identifié par un logiciel de reconnaissance faciale.

L’activisme fonctionne

La décision de restreindre l’utilisation de la technologie de reconnaissance faciale est en partie due à la pression exercée par les entreprises technologiques elles-mêmes, après avoir été soumises au lobbying des militants pendant des années.

Il y a deux semaines, Amazon a annoncé qu’elle imposerait un moratoire d’un an sur l’utilisation par la police de son système de reconnaissance faciale, Rekognition, après qu’IBM ait décidé de mettre fin à son système de reconnaissance faciale à usage général. Le lendemain, Microsoft a annoncé qu’il cesserait de vendre son système aux services de police jusqu’à ce que la loi fédérale réglemente la technologie.

Il appartient maintenant aux législateurs de décider s’ils peuvent obtenir un soutien suffisant pour l’adopter.

On en sait plus sur les algorithmes de Palantir

UCIPT, CNET, Fortune, MIT