Réglementation de la biométrie : Approches globales et questions urgentes

L’AI Now Institute a publié un recueil d’études de cas sur les approches réglementaires de la technologie de reconnaissance biométrique, les leçons tirées et les futures actions de sensibilisation

Dans un contexte de surveillance publique accrue, l’intérêt pour la réglementation des technologies biométriques telles que la reconnaissance faciale et vocale s’est considérablement accru dans le monde entier, sous l’impulsion de la recherche et de la défense des intérêts des communautés. Il se dégage de ce moment un sentiment croissant que des technologies comme la reconnaissance faciale ne sont pas inévitables, et peut-être même pas nécessaires ou utiles.

“Regulating Biometrics: Global approaches and urgent questions”, par Amba Kak, présente huit études de cas détaillées d’universitaires, avocats et experts politiques qui examinent les tentatives actuelles de réglementation des technologies biométriques et donnent un aperçu des promesses et des limites de ces approches. Dans quels domaines la réglementation est-elle capable de déterminer si et comment les technologies biométriques sont utilisées, et dans quels domaines est-elle insuffisante ? En examinant ces questions, ces auteurs experts éclairent les domaines d’engagement, de défense et de réglementation futurs.

Ces essais brossent un tableau du paysage mondial complexe de la réglementation de la biométrie, en mettant en évidence les nombreuses approches adoptées par les partisans de la biométrie, qui réclament un contrôle accru de ces technologies, ainsi que la manière dont les gouvernements ont utilisé la loi comme outil pour étendre ou consolider l’utilisation de la biométrie.

Projet de loi australien sur les services de rapprochement des identités (p.44)

Jake Goldenfein (Faculté de droit de Melbourne) et Monique Mann (Université Deakin) suivent les manœuvres institutionnelles et politiques qui ont conduit l’Australie à créer une grande base de données centralisée de reconnaissance faciale (“The Capability”) à l’usage de divers acteurs gouvernementaux. Ils examinent les échecs de la réglementation pour remettre en cause de manière significative la construction de ce système, voire pour façonner son architecture technique ou institutionnelle.

L’économie (et la pratique réglementaire) que la biométrie inspire : Une étude du projet Aadhaar (p.52)

Nayantara Ranganathan (avocate et chercheuse indépendante, Inde) explique comment le droit et la politique autour du projet indien d’identification biométrique (“Aadhaar”) ont finalement servi à construire des données biométriques comme ressource pour l’extraction de données de valeur par des entreprises privées. Elle explore comment la réglementation a été influencée par les logiques et les cultures du projet qu’elle cherchait à réglementer.

Une première tentative de réglementation des données biométriques dans l’Union européenne (p.62)

Els Kindt (KU Leuven) fournit un compte-rendu détaillé de l’approche du Règlement général sur la protection des données (RGPD) de l’Union européenne en matière de réglementation des données biométriques. Comme de nombreux pays sont sur le point de mettre en œuvre des lois nationales rédigées de manière similaire, elle identifie les lacunes potentielles et souligne les domaines clés pour la réforme.

Réflexion sur la politique biométrique du Comité international de la Croix-Rouge : Réduire au minimum les bases de données centralisées (p.70)

Ben Hayes (Agence AWO, conseiller juridique consultant auprès du Comité international de la Croix-Rouge [CICR]) et Massimo Marelli (chef du Bureau de la protection des données du CICR) expliquent le processus décisionnel du CICR pour formuler sa première politique en matière de biométrie, qui visait à éviter la création de bases de données et à minimiser les risques pour les populations vulnérables dans les contextes humanitaires.

Utilisation par la police de la reconnaissance faciale en live au Royaume-Uni (p.78)

Peter Fussey (Université d’Essex) et Daragh Murray (Université d’Essex), principaux auteurs de l’étude empirique indépendante du procès de la police métropolitaine de Londres sur la reconnaissance faciale en live (LFR-Live Facial Recognition), expliquent comment les normes juridiques et les outils de régulation existants n’ont pas réussi à empêcher la prolifération d’un système dont les effets néfastes ont été démontrés. Ils tirent ainsi des enseignements plus larges pour la réglementation de la LFR au Royaume-Uni et des technologies similaires ailleurs.

Une taxonomie des approches législatives pour la reconnaissance faciale aux États-Unis (p.86)

Jameson Spivack et Clare Garvie (Georgetown Center on Privacy and Technology) écrivent sur les dizaines de lois d’interdiction et de moratoires sur l’utilisation de la reconnaissance faciale par la police aux États-Unis, la plupart d’entre elles menées par des avocats et des organisations communautaires. Les auteurs fournissent une taxonomie détaillée qui va au-delà des grandes catégories d’interdiction et de moratoire, et réfléchissent aux leçons tirées de leur mise en œuvre.

BIPA : La plus importante loi biométrique sur la protection de la vie privée aux États-Unis ? (p.96)

Woodrow Hartzog (Northeastern University) explore les promesses et les pièges de la loi sur la confidentialité des informations biométriques (BIPA) de l’État de l’Illinois et, plus largement, du droit des particuliers à engager leurs propres actions contre des entreprises privées. Il s’interroge sur les limites inévitables d’une loi centrée sur le “consentement éclairé”, un système qui donne l’illusion d’un contrôle tout en justifiant des pratiques douteuses que les gens n’ont pas assez de temps ou de ressources pour comprendre et agir.

Réglementation biométrique ascendante : La réponse de la Communauté à l’utilisation de la surveillance faciale dans les écoles (p.104)

Stefanie Coyle (NYCLU) et Rashida Richardson (Rutgers Law School ; AI Now Institute, NYU) examinent la décision controversée d’un district scolaire de Lockport, New York, de mettre en place un système de reconnaissance faciale et d’objets pour surveiller les élèves. Elles mettent en lumière la réponse de la communauté qui a suscité un débat national et a conduit à une législation à l’échelle de l’État réglementant l’utilisation des technologies biométriques dans les écoles.

Lire le rapport complet (PDF)

Le ministère russe teste la reconnaissance de la démarche

Le ministère de l’intérieur russe veut installer un système de surveillance biométrique d’ici la fin 2021 qui permettra d’identifier les criminels et les suspects des réseaux de surveillance urbains grâce à la technologie de reconnaissance faciale, vocale, de l’iris et même de la démarche et des tatouages des parties visibles du corps, selon RBC.ru.

La revue s’est entretenue avec Danila Nikolaev, directeur général de Russian Biometric Society, qui a participé au développement du Federal Information System for Biometric Accounting (FISBU). Le projet a été confirmé par Vladimir Ovchinsky, conseiller au ministère de l’intérieur, et il est toujours en phase de développement. Le système sera développé dans le cadre du programme “Ville sûre” de Moscou et sera financé par le budget de ce programme. Les tests seront effectués au sein de la “sandbox” réglementaire du pays pour les technologies d’intelligence artificielle. Le projet en question a été soumis à la Douma d’État le 7 février pour renforcer la sécurité.

Les autorités de Moscou se préparent à introduire un régime juridique expérimental pour le développement de l’intelligence artificielle avec la participation de grandes sociétés informatiques (Kaspersky Lab, Yandex, entre autres) à partir du 1er juillet 2020 pour une durée de 5 ans.

Le ministère de l’intérieur est intéressé par l’exploration de la reconnaissance de la démarche pour identifier les criminels, et la démarche fait partie des diverses formes de reconnaissance testées, selon le rapport, mais Nikolaev indique que cette modalité n’a pas encore été incluse dans la liste des capacités de la FISBU.

Le co-fondateur de 3Divi, Dmitry Morozov, explique à la RBC que la reconnaissance corporelle est un moyen prometteur d’identifier un suspect, en particulier lorsque le visage de la personne n’est pas visible par une caméra vidéo, bien que le directeur technique de Vokord, Alexei Kadeishvili, remarque qu’elle ne permet pas d’obtenir un degré élevé de précision dans une correspondance, comme le fait l’ADN.

Gennady Puchkov, chercheur à la Special Technology and Communications Research and Production Association du ministère de l’intérieur russe, a confirmé en octobre 2019 que le système biométrique était en cours de développement et que le logiciel d’analyse des données de l’intelligence artificielle était déjà en phase de mise en œuvre. Il a également suggéré qu’à l’avenir, on pourrait envisager de construire un logiciel pour détecter l’état émotionnel et mental des personnes.

Selon Nikolaev, les termes de référence n’ont pas encore été approuvés, mais le système biométrique peut également être utilisé pour communiquer avec les systèmes d’autres départements. Les empreintes digitales, les cheveux et la salive des scènes de crime seront passés dans le système et une liste de suspects sera fournie. Une évaluation supplémentaire sera effectuée par un expert médico-légal et, à condition que le système dispose de toutes les informations nécessaires, une photo sera téléchargée et comparée avec la reconnaissance faciale.

Selon des sources internes, le projet a d’abord nécessité un investissement important car les droits intellectuels sur le système et les algorithmes seraient remis à l’État.

RBC.ru., BiometricUpdate

Les futures versions de Siri sur Apple pourraient interpréter vos émotions

Le futur Siri pourrait lire les émotions humaines à travers la voix, la reconnaissance faciale

Apple cherche à rendre Siri plus sensible aux émotions de l’utilisateur. L’entreprise de technologie est en train de développer un moyen pour l’assistant personnel d’interpréter les émotions humaines à travers l’analyse faciale, écrit Apple.

Les versions futures de Siri pourraient ne plus reposer uniquement sur la reconnaissance vocale, mais selon la nouvelle demande de brevet, elles seront associées à la vidéo FaceTime pour analyser son interaction avec l’utilisateur, réduire le nombre de requêtes mal interprétées et donner lieu à des actions personnalisées.

“Les agents logiciels intelligents peuvent effectuer des actions au nom d’un utilisateur”, déclare Apple dans sa demande de brevet. “Les actions peuvent être effectuées en réponse à une entrée de l’utilisateur en langage naturel, telle qu’une phrase prononcée par l’utilisateur. Dans certaines circonstances, une action prise par un agent logiciel intelligent peut ne pas correspondre à l’action prévue par l’utilisateur.”

“Par exemple, l’image du visage dans l’entrée vidéo peut être analysée pour déterminer si des muscles ou des groupes musculaires particuliers sont activés en identifiant des formes ou des mouvements”, lit-on.

La Chine teste l’analyse des émotions

La nouvelle version améliorée de Siri interpréterait l’état émotionnel d’un utilisateur comme étant satisfait ou contrarié par la façon dont il a rempli ou mal interprété la demande vocale. Pour lire les émotions humaines, la technologie analyserait les entrées audio et les images, ce qui signifie un accès complet au microphone et à la caméra.

Il classifierait ensuite les expressions faciales en fonction du Système de codage des actions faciales (FACS Facial Action Coding System), la norme de l’industrie pour la taxonomie faciale, et attribuerait des notes aux interprétations des expressions faciales.

Qu’il s’agisse d’exploiter l’utilisation des identifiants numériques pour les permis de conduire mobiles (mDL mobile driver’s licenses), de promouvoir l’authentification sans mot de passe ou le wearable intelligent Apple Ring avec authentification biométrique, Apple a étudié un certain nombre d’innovations et de projets. L’entreprise n’a pas fait de commentaires sur les innovations qui parviendront jusqu’à la production.

Google reconnaissance vocale et réseau de neurones

Google déploie une technologie de reconnaissance vocale de bout en bout entièrement pilotée par des réseaux de neurones pour la saisie vocale dans son application clavier virtuel Gboard.

Dans un article, Google présente un nouveau modèle formé avec un transducteur de réseau neuronal récurrent (RNN-T) suffisamment compact pour fonctionner sur un smartphone. Selon la fonction de reconnaissance vocale de bout en bout en continu pour les appareils mobiles, les modèles de bout en bout prédisent directement la sortie de caractères en fonction de l’entrée vocale, et sont de bons candidats pour l’exécution de la reconnaissance vocale sur les périphériques. L’équipe de recherche de Google a découvert dans ses expériences que l’approche par RNN-T surpassait un modèle conventionnel basé sur la classification temporelle connectionniste (CTC) en termes de latence et de précision.

Les systèmes traditionnels de reconnaissance vocale identifient les phonèmes (unités sonores) à partir de segments audio, un modèle pour relier les phonèmes en mots, et un modèle de langage pour analyser la probabilité d’une phrase donnée, selon l’article. Les chercheurs ont commencé à essayer de passer directement de la forme d’onde d’entrée à la phrase de sortie en formant un seul réseau de neurones vers 2014, ce qui a conduit à l’élaboration de modèles ” basés sur l’attention ” et ” l’écoute”. Bien que ces systèmes aient une précision prometteuse, ils nécessitent généralement l’analyse complète de l’ensemble de la séquence d’entrée, de sorte qu’ils ne peuvent pas prendre en charge la transcription en temps réel. Des techniques de CTC ont également été développées, réduisant la latence des systèmes de reconnaissance vocale.

“Cela s’est avéré être une étape importante dans la création de l’architecture de RNN-T adoptée dans cette dernière version, ce qui peut être considéré comme une généralisation de la CTC”, écrit Johan Schalkwyk, un Google Fellow de l’équipe Speech de la société.

Les modèles RNN-T émettent des caractères un par un, en utilisant une boucle de rétroaction qui renvoie les symboles prédits (généralement des lettres) dans le modèle pour prédire le suivant. Les premières versions réduisaient le taux d’erreurs des mots, mais la formation était intensive en calcul.
Les chercheurs ont mis au point une implémentation parallèle permettant de gérer efficacement de grande quantité sur le matériel cloud haute performance de l’unité de traitement du tenseur (Tensor Processing Unit : TPU v2) de Google, ce qui a accéléré la formation.

Les graphiques de recherche utilisés par les moteurs de reconnaissance vocale traditionnels sont encore trop volumineux pour fonctionner sur des appareils mobiles. Cependant, les modèles de production de Google atteignaient presque 2 Go malgré des techniques de décodage sophistiquées. Les chercheurs ont mis au point une méthode de décodage avec recherche de faisceau sur un réseau de neurones unique pour obtenir la même précision avec un modèle de 450 Mo. Puis ils ont réduit la taille avec la quantification des paramètres et les techniques de noyau hybride, pour finalement réduire le modèle final à 80 Mo.

Le nouveau système de reconnaissance vocale Gboard sera initialement lancé sur les téléphones Pixel en anglais américain, mais les chercheurs sont optimistes quant à la possibilité d’ajouter plus de langues et de domaines d’application grâce à des améliorations matérielles et algorithmiques spécialisées.

Les marchés de la reconnaissance vocale et de la parole devraient atteindre 6,9 milliards de dollars d’ici 2025.

Google AI blog

Mastercard teste la biométrie comportementale

Mastercard a conclu un accord avec l’opérateur du secteur des télécommunications basé aux Emirats Arabes Unis pour explorer comment sa technologie biométrique comportementale NuDetect peut être utilisée pour effectuer des paiements sécurisés et transparents via les smartphones des utilisateurs à travers le Moyen-Orient et l’Afrique.

NuDetect utilise machine learning et est le produit phare développé par NuData Security, acquis par Mastercard en 2017. Mastercard avait déjà identifié l’Afrique, où 95 % des transactions sont effectuées en espèces, comme un marché pouvant bénéficier des paiements mobiles sécurisés.

Le nouveau protocole d’accord avec « du », qui a été rebaptisé Emirates Integrated Telecommunications Company (EITC) en 2007, prévoit d’analyser la « biométrie passive » – à savoir la manière dont une personne tape, tient son téléphone, déplace sa souris ou encore l’endroit où elle utilise son téléphone – pour anticiper et prévenir les transactions frauduleuses sans présence de carte, y compris les paiements en ligne. Le processus consiste à vérifier l’identité de l’utilisateur et ne cause aucune difficulté ou interruption dans la transaction.

Les mots de passe disparaîtront progressivement d’ici 2025

« Dans le monde connecté d’aujourd’hui, les études indiquent que le développement d’une expérience utilisateur plus fluide est une priorité absolue pour plus de 90 % des commerçants lorsqu’ils évaluent leur approche sur la sécurité transactionnelle. » déclare Gaurang Shah, vice-président de Mastercard, Paiements Digitaux  & Labs, Moyen-Orient et Afrique. « Partant de ce constat, il est essentiel de veiller à ce qu’une expérience utilisateur fluide soit contrebalancée par une authentification robuste. Notre solution NuDetect répond à ces préoccupations en déployant une analyse de données innovante pour offrir des interactions numériques transparentes et sûres. Nous sommes heureux de nous associer à du pour mettre en place ce produit de pointe, lequel procurera plus de confiance à chaque transaction. »

« du s’engage à offrir à ses clients des interactions rapides et pratiques. Cet engagement joue un rôle important dans notre succès continu. Notre partenariat avec Mastercard nous permettra de rationaliser davantage le processus de paiement des consommateurs à travers une variété de points de contact, tout en maintenant les plus hauts niveaux de sécurité transactionnelle. Nous sommes enthousiastes à l’idée d’explorer l’énorme potentiel de NuDetect, et nous nous réjouissons à l’avance d’une collaboration longue et fructueuse. »

NuData Security A Mastercard Company, Mastercard Newsroom

La Chine pourrait devenir le leader mondial des recherches sur l’IA

La Chine dépassera l’Europe en termes de production de documents de recherche sur l’intelligence artificielle dans les quatre prochaines années si les tendances actuelles se maintiennent, selon un rapport publié par Elsevier.

Le rapport révèle que les États-Unis, qui abritent des géants de la technologie tels que Google, Amazon et Facebook, ont réussi à attirer les meilleurs talents en intelligence artificielle. Il montre également que la recherche aux États-Unis est en train de passer des milieux universitaires aux opérations de recherche au sein de grandes entreprises technologiques.

La Chine a commencé à dépasser les recherches américaines en nombre de documents publiés en 2004, a indiqué le rapport.

“La Chine aspire à devenir le leader mondial en matière d’intelligence artificielle et s’appuie sur des politiques nationales ambitieuses”, indique le rapport. « Les chercheurs chinois en intelligence artificielle pensent que l’environnement de recherche est attrayant. L’Intelligence artificielle chinoise se concentre sur la vision par ordinateur et ne dispose pas d’un traitement du langage naturel dédié et pôle de représentation des connaissances, y compris la reconnaissance vocale, peut-être parce que ce type de recherche en Chine est réalisée par des sociétés qui ne peuvent pas publier autant d’articles scientifiques.

Outre des recherches de plus en plus nombreuses menées par des entreprises telles que Baidu et Tencent, la Chine abrite certaines des sociétés d’IA les mieux financées sur la planète.

Plus tôt cette semaine, par exemple, il a été annoncé que la société mère de Face ++, Megvii, chercherait à lever 500 millions de dollars supplémentaires pour une valorisation de 3,5 milliards de dollars.

En plus des rapports du Future Today Institute et du rapport annuel sur les tendances Internet qui décrivent la domination croissante de l’intelligence artificielle en Chine, des sommités technologiques telles que le Dr Kai-Fu Lee et l’ancien chef des opérations de Baidu, Qi Lu – qui ont occupé des postes de direction dans les plus grandes entreprises de technologie aux États-Unis et en Chine – ont prédit que les initiatives d’intelligence artificielle chinoises dépasseraient celles d’autres régions du monde dans les années à venir.

La Chine, prochaine superpuissance de l’intelligence artificielle?

Malgré le nombre total d’articles publiés, les travaux de recherche sur l’IA en Chine n’ont pas vu autant de citations parmi leurs pairs, une tendance qui pourrait être un symptôme de portée régionale plutôt que mondiale, révèle le rapport.

Globalement, le nombre d’articles de recherche sur l’intelligence artificielle publiés a augmenté de 12,9% au cours des cinq dernières années, tandis que les pré-impressions d’Arxiv dans des domaines clés de l’intelligence artificielle, tels que le traitement du langage naturel et la vision par ordinateur, ont augmenté de 37% au cours des cinq dernières années.

L’Inde figure actuellement au troisième rang des publications de recherche sur l’IA, derrière les États-Unis et la Chine. L’Allemagne et le Japon se classent aux cinquième et sixième rangs mondiaux pour la production de documents de recherche sur l’IA, tandis que l’Iran, au neuvième rang, se classe aux côtés de pays comme la France et le Canada.

Les catégories de publications qui ont connu la plus forte croissance au cours de cette période comprennent le machine learning et le raisonnement probabiliste, la vision par ordinateur et les réseaux de neurones.

L’Europe occupe actuellement la première place mondiale en matière de publications scientifiques sur l’intelligence artificielle, selon le rapport.

Le rapport annuel sur l’état des technologies européennes, publié l’année dernière par la société de capital-risque Atomico, préconisait de resserrer les liens entre le secteur des technologies de la région et les instituts de recherche afin de concurrencer la Chine et les États-Unis.

Venturebeat

Prédire les crimes

Des programmes informatiques sont aujourd’hui capables d’anticiper la survenue d’actes criminels.

Une aide précieuse pour la justice ou un risque réel pour nos libertés ?

Un logiciel capable de prédire le lieu et l’instant où un individu s’apprêtera à commettre un délit ne relève plus de la science-fiction. Dans certaines villes comme Chicago, Londres ou Munich, ces programmes sont en effet devenus réalité. Accompagnant l’évolution des sociétés modernes vers le tout-sécuritaire, la police expérimente de plus en plus ces nouveaux outils technologiques. Grâce à un algorithme capable d’analyser l’énorme masse de données personnelles que nous produisons et laissons en permanence sur le numérique, ces logiciels spécialisés peuvent en effet établir des listes d’individus susceptibles d’être mêlés à des actes répréhensibles.

Mais l’utilisation des nouvelles technologies à des fins prédictives pose un grand nombre de questions éthiques et morales. Sommes-nous prêts à abandonner notre liberté au nom de la sécurité ? Peut-on réellement faire confiance à un algorithme pour trier les individus et déterminer aujourd’hui qu’ils deviendront des criminels demain ? Fascinant et glaçant, ce documentaire part à la rencontre de professionnels qui utilisent déjà ces méthodes, mais donne également la parole à des victimes de ces logiciels, citoyens sans histoires que les ordinateurs ont identifiés un jour comme de potentiels criminels.

Hitachi : une IA capable de prédire les crimes avant qu’ils se produisent
On en sait plus sur les algorithmes de Palantir. Le département de police de Los Angeles a une nouvelle formule de surveillance, alimentée par Palantir
Des projets Chinois à la Minority Report utiliseront l’IA pour prédire des crimes
Tout votre historique de navigation sur Internet est maintenant en vente

Palantir Technologies

Palantir Technologies Inc. développe et construit des plates-formes de fusion de données pour l’intégration, la gestion et la sécurisation de tout type de données à grande échelle. Il propose Palantir Gotham, une plate-forme pour intégrer, gérer, sécuriser, et analyser les données de l’entreprise; et la plate-forme Palantir Metropolis pour enquête quantitative à grande échelle qui intègre à travers de multiples sources de données, rassemblant des informations disparates dans un environnement unifié d’analyse quantitative. La société apporte une réponse contre la fraude, marchés de capitaux, gestion de cas, intervention de crises, cyber-sécurité, défense,  préparation aux catastrophes, intervention de la maladie, livraison de soins de santé, menaces internes, analyse d’assurance, intelligence/renseignement, application de la loi, veille juridique, palantir verus, pharma R & D, supervision de trader et des solutions personnalisées.

L’entreprise travaille pour la communauté du renseignement des États-Unis, notamment pour la NSA, la CIA et le FBI, ainsi que pour différents acteurs du système de défense américain, comme les US Marines, l’US Air force et les Opérations spéciales. Elle s’est diversifiée dans les secteurs de la finance, de l’assurance, de la santé et des biens de consommation courante. Elle met par ailleurs sa technologie à disposition d’ONG comme Community solutions.

La société a été constituée en 2003 et est basée à Palo Alto, en Californie. Elle fait partie des valeurs sures de la Silicon Valley. Depuis sa création, l’entreprise a levé en tout et pour tout 2,3 milliards de dollars et sa valorisation pourrait prochainement atteindre 20 milliards de dollars. Parmi les investisseurs figure la CIA, qui y a injecté 2 millions de dollars au moment de son lancement. L’agence centrale de renseignement est alors séduite par le projet de Palantir : utiliser les algorithmes informatiques afin de déjouer d’éventuelles attaques terroristes. (ndlr)

Le cofondateur de Palantir, Peter Thiel, est également le co-fondateur de PayPal.

pour en savoir plus : Techcrunch

L’algorithme PredPol

PredPol est basé sur une décennie de recherches académiques détaillées sur les causes de la formation de schémas criminels. Cette recherche a permis de relier plusieurs aspects clés du comportement des délinquants à une structure mathématique utilisée qui permet de prédire l’évolution des schémas criminels au jour le jour. Qu’est-ce que PredPol et ce que PredPol n’est PAS ?

Pour en savoir plus : The PredPol Algorithm

Qui a besoin de la démocratie quand on a des données ?

Qui a besoin de la démocratie quand on a des données ?

Comment la Chine gouverne grâce aux données, à l’intelligence artificielle et à la surveillance Web.

En 1955, l’auteur de science-fiction Isaac Asimov a publié une nouvelle sur la « démocratie électronique », où un seul citoyen, choisi pour représenter une population entière, répondait aux questions générées par un ordinateur nommé Multivac. La machine recueillait ces données et calculait les résultats d’une élection qui, conséquemment, n’avait plus besoin d’avoir lieu. L’histoire d’Asimov se déroule à Bloomington, en Indiana, mais aujourd’hui, une machine semblable à Multivac est en construction en Chine.

Dans tout régime autoritaire, « le problème fondamental réside dans le fait que le centre ne comprend pas ce qui se passe aux niveaux inférieurs ni dans l’ensemble de la société », affirme Deborah Seligsohn, politologue et spécialiste de la politique chinoise à la Villanova University à Philadelphie. Comment peut-on gouverner efficacement un pays abritant un cinquième de la population planétaire et doté d’une économie et d’une société complexes si aucun débat public, aucun activisme civil ni aucune rétroaction ne sont permis ?

Comment recueille-t-on suffisamment de renseignements pour vraiment prendre des décisions ? Et comment un gouvernement qui n’invite pas ses citoyens à participer au débat peut-il encore susciter la confiance et modifier le comportement du public sans ingérence policière ?

Hu Jintao, leader de la Chine de 2002 à 2012, a tenté de régler ces problèmes en permettant un modeste dégel démocratique, où le peuple avait la possibilité de présenter ses griefs à la classe dirigeante. Son successeur, Xi Jinping, a inversé cette tendance. Sa stratégie pour comprendre et réagir à ce qui se passe chez une nation de 1,4 billion de citoyens repose plutôt sur une combinaison de surveillance, d’intelligence artificielle et de mégadonnées pour surveiller leur vie et leur comportement dans les moindres détails.

Cybersouveraineté 

Les deux dernières années dans les démocraties du monde ont été tumultueuses, ce qui a aidé l’élite politique chinoise à se sentir de plus en plus justifier de faire taire les électeurs. Des évènements comme l’élection de Donald Trump, le Brexit, la montée de parties de l’extrême droite en Europe et le règne de terreur de Rodrigo Duterte aux Philippines ont mis en évidence ce que les critiques voient comme un problème propre à la démocratie, plus particulièrement le populisme, l’instabilité et le leadership dangereusement personnalisé.

Depuis qu’il est devenu secrétaire général du Parti communiste chinois en 2012, Xi a établi de nombreux plans ambitieux pour le pays, dont bon nombre sont enracinés dans la technologie — y compris l’objectif de devenir le leader mondial en intelligence artificielle d’ici 2030. Xi revendique une « cybersouveraineté » pour améliorer la censure et exercer un contrôle total sur l’Internet dans les foyers. En mai, il a déclaré lors d’une réunion de l’académie chinoise des sciences que la technologie était la clé pour atteindre « l’objectif ultime d’édification d’une nation socialiste et modernisée ».

En janvier, lorsqu’il s’est adressé à la nation via la télévision, on pouvait voir dans les étagères de sa bibliothèque des classiques comme ceux de Das Kapital et de nouveaux ajouts, notamment deux ouvrages sur l’intelligence artificielle : The Master Algorithm de Pedro Domingos et Augmented: Life in the Smart Lane de Brett King.

La Chine, prochaine superpuissance de l’intelligence artificielle?

« Aucun gouvernement n’a un plan plus ambitieux et de plus grande envergure que le gouvernement chinois pour exploiter le pouvoir des données afin de changer la façon dont il gouverne », affirme Martin Chorzempa de la Peterson Institute for International Economics de Washington, DC. Même certains observateurs étrangers, observant de loin, pourraient bien se demander si une telle gouvernance axée sur les données n’offre pas une solution viable au modèle électoral, qui semble de plus en plus dysfonctionnel. Mais se fier indûment à la sagesse de la technologie et des données comporte des risques.

Des données plutôt qu’un dialogue

Les leaders chinois ont depuis longtemps voulu exploiter l’opinion publique sans ouvrir la porte des débats houleux et à des critiques à l’égard des autorités. Pendant la plus grande partie de l’histoire de la Chine impériale et moderne, des citoyens mécontents provenant du milieu rural ont fait le voyage jusqu’à Pékin et ont organisé des manifestations en tant que « requérants » publics. Ils croyaient que si les autorités locales ne comprenaient pas ou ignoraient leurs griefs, l’empereur pourrait faire preuve d’un meilleur jugement.

Sous l’autorité de Hu Jintao, certains membres du Parti communiste ont vu cette ouverture limitée comme une façon d’exposer et de résoudre certains types de problèmes. Blogueurs, journalistes anti-corruption, avocats des droits de la personne et critiques en ligne mettant en lumière la corruption locale ont suscité un débat public vers la fin du règne de Hu. Selon un ancien officier américain au courant de l’affaire, Xi a, au début de son mandat, été informé quotidiennement des préoccupations du public et des perturbations des médias sociaux. Au cours des dernières années, des requérants se sont amenés dans la capitale pour attirer l’attention sur des scandales comme la saisie illégale de propriétés par les autorités locales et le lait en poudre contaminé.

Mais la police empêche de plus en plus les requérants d’atteindre Pékin. « Il faut maintenant présenter des pièces d’identité nationale pour acheter des billets de trains, ce qui permet aux autorités d’identifier plus facilement les « trouble-fêtes » potentiels comme ceux qui ont protesté contre le gouvernement dans le passé », explique Maya Wang, chercheuse principale de la Chine chez Human Rights Watch.

« Plusieurs requérants nous ont affirmé avoir été arrêtés dans des gares. » Des blogueurs, activistes et avocats sont aussi systématiquement réduits au silence ou emprisonnés, comme si les données pouvaient donner au gouvernement les mêmes renseignements sans les problèmes épineux de la liberté.

L’idée d’utiliser la technologie en réseau en tant qu’outil de gouvernance en Chine remonte au moins au milieu des années 80. Comme l’explique l’historien Julian Gewirtz de la Harvard University, « Quand le gouvernement chinois a vu que les technologies de l’information devenaient partie prenante du quotidien, il a compris qu’il aurait un nouvel outil puissant pour à la fois recueillir de l’information et contrôler la culture et pour rendre le peuple chinois plus « moderne » et plus « gouvernable » — éternelle obsession du leadership. » Par la suite, les avancées technologiques dans le domaine de l’intelligence artificielle et l’amélioration des processeurs ont rapproché cette vision de la réalité.

Pour autant que nous le sachions, il n’existe pas de schéma directeur unique liant technologie et gouvernance en Chine. Mais il existe plusieurs initiatives qui partagent une stratégie commune de collecte de données sur les personnes et les entreprises pour éclairer la prise de décision et créer des systèmes d’incitations et de sanctions pour influencer les comportements.

Ces initiatives comprennent le « système de crédit social » de 2014 du Conseil d’État, la loi de 2016 sur la cybersécurité, diverses expériences sur le plan local et corporatif en matière de « crédit social », des plans de « villes intelligentes » et des politiques axées sur la technologie dans la région occidentale du Xinjiang. Il s’agit généralement de partenariats entre le gouvernement et les sociétés technologiques de Chine.

L’initiative la plus ambitieuse est le système de crédit social, bien qu’une meilleure traduction en français soit un système de « confiance » ou de « réputation ». Le plan du gouvernement, qui couvre population et entreprises, énumère parmi ses objectifs la « construction d’une transparence dans les affaires gouvernementales, une sincérité commerciale et une crédibilité judiciaire. » (Tout le monde en Chine a une tante qui s’est fait escroquer. Il existe un réel besoin de s’attaquer à l’effondrement de la confiance du public », affirme Paul Triolo, responsable de la géotechnologie chez Eurasia Group.) À ce jour, il s’agit d’un travail en cours, bien que plusieurs projets-pilotes donnent un aperçu de son fonctionnement en 2020, date où l’initiative devrait être entièrement implantée.

Les listes noires représentent le premier outil du système. Au cours des cinq dernières années, le système judiciaire chinois a publié le nom des personnes qui n’avaient pas payé leurs amendes ou ne s’étaient pas conformées à un jugement. Aux termes de nouveaux règlements sur le crédit social, cette liste a été communiquée à diverses entreprises et agences gouvernementales. Les personnes figurant sur la liste se sont vues refuser des emprunts, la réservation de vols aériens et de séjours dans des hôtels luxueux.

Les sociétés de transport national de la Chine ont créé d’autres listes noires pour punir certains usagers qui, entre autres, bloquent des portes ou se bagarrent durant un trajet. Les contrevenants ne peuvent plus acheter de billets pendant une période de six à douze mois. Plus tôt cette année, Pékin a lancé une série de listes noires pour empêcher les entreprises « malhonnêtes » de se voir attribuer de futurs contrats du gouvernement ou des concessions de terres.

Quelques gouvernements locaux ont testé le « pointage » du crédit social, bien qu’il ne soit pas certain que ce système fera partie du plan national. La ville de Rongcheng, dans le nord du pays, par exemple, attribue un pointage à chacun de ses 740 000 habitants, selon Foreign Policy. Tout le monde commence avec 1 000 points. Si vous faites un don à un organisme de charité ou vous recevez un prix du gouvernement, vous gagnez des points, si vous enfreignez le code de la route, par exemple en conduisant en état d’ébriété ou en accélérant à un passage piétonnier, vous perdez des points.

Les citoyens avec un bon pointage peuvent obtenir des rabais sur des fournitures de chauffage ou obtenir de meilleures modalités hypothécaires. Ceux ayant un mauvais pointage peuvent perdre leur accès à des prêts bancaires ou à une promotion s’ils ont un emploi auprès du gouvernement. La mairie met des affiches de modèles à suivre, qui ont fait preuve de « vertu » et gagné le plus de points.

« L’idée du crédit social est de surveiller et de gérer le comportement des gens et des institutions », explique Samantha Hoffman de la Mercator Institute for China Studies à Berlin. « Dès qu’une violation est inscrite dans une partie du système, elle peut déclencher une réaction dans d’autres parties du système. Il s’agit d’un concept conçu pour favoriser le développement économique et la gestion sociale, c’est fondamentalement politique. »

Certains systèmes similaires à l’avant-projet de la Chine existent déjà aux États-Unis : une mauvaise cote de crédit peut vous empêcher d’obtenir une hypothèque et une condamnation pour délit grave suspend ou annule votre droit de vote. « Mais ces systèmes ne sont pas tous reliés de la même façon. Il n’y a pas de plan global », souligne Hoffman.

La police chinoise ajoute des lunettes de reconnaissance faciale à leur arsenal de surveillance

L’une des plus grandes inquiétudes entoure le fait que la Chine n’a pas de système judiciaire indépendant, les citoyens n’ont aucun recours pour contester des allégations fausses ou inexactes. Certaines personnes ont vu leur nom ajouté à la liste noire des transports sans préavis après la décision d’un tribunal. Des requérants et des journalistes d’investigation sont surveillés en fonction d’un autre système, et les personnes qui participent à des programmes de désintoxication sont surveillées par un autre système de surveillance.

« En théorie, les bases de données sur les toxicomanes sont censées effacer le nom de ces personnes après cinq ou sept ans, pour la plupart des cas, ce n’est pas fait », affirme Wang de Human Rights Watch. « C’est extrêmement difficile de faire retirer votre nom de ces listes. »

D’occasionnels éclats de rage en ligne traduisent le ressentiment du public. La nouvelle qu’un étudiant s’était vu refuser son admission par un collège parce que le nom de son père figurait sur une liste noire de crédit a récemment enflammé le Net. La décision du collège n’a pas été officiellement sanctionnée ni ordonnée par le gouvernement. Plutôt, dans leur effort pour appuyer ces nouvelles politiques, les administrateurs de l’école les ont simplement interprétés de la façon qu’ils estimaient logique.

L’opacité du système rend difficile l’évaluation de l’efficacité des tests comme ceux de Rongcheng. Depuis 2012, le parti a écrasé presque toutes les voix critiques, et les risques de contester le système, même de façon relativement modeste, se sont accrus. Les informations disponibles sont profondément erronées; la falsification systématique de toutes les données, de la croissance du PIB à l’utilisation de l’hydroélectricité, est omniprésente dans les statistiques du gouvernement chinois. Borge Bakken, chercheur à la Australian National University, estime que les chiffres officiels de la criminalité, que le gouvernement a clairement intérêt à minimiser, peuvent ne représenter que 2,5 % de tous les comportements criminels.

En théorie, la gouvernance axée sur les données pourrait aider à résoudre ces problèmes – en contournant les distorsions pour permettre au gouvernement central de recueillir directement les renseignements. C’est l’idée derrière, par exemple, l’introduction des dispositifs de surveillance de la qualité de l’air qui envoient des données aux autorités centrales plutôt que de se fier aux fonctionnaires locaux qui pourraient être de mèche avec les industries polluantes. Mais plusieurs aspects d’une bonne gouvernance sont trop complexes pour permettre ce genre de suivi direct et se fient plutôt aux données saisies par ces mêmes fonctionnaires locaux.

Cependant, le gouvernement chinois publie rarement les données sur le rendement que des étrangers pourraient utiliser pour évaluer ces systèmes. Prenons par exemple les caméras qui sont utilisées pour identifier et humilier des piétons dans certaines villes en projetant l’image de leur visage sur des panneaux d’affichage public, de même que pour suivre les habitudes de prière des musulmans en Chine occidentale. Leur précision soulève des questions : plus particulièrement, comment un logiciel de reconnaissance faciale programmé à reconnaître des visages chinois Han peut-il reconnaître avec justesse le visage d’une personne d’une minorité ethnique de l’Eurasie ?

En outre, même si les données collectées sont exactes, comment le gouvernement utilisera-t-il cette information pour orienter ou empêcher un certain comportement futur ? Les algorithmes de la police qui prédisent qui deviendra possiblement un criminel ne sont pas soumis à l’examen du public, pas plus que les statistiques qui démontreraient si un certain type de crime ou le terrorisme est en hausse ou en baisse. (Par exemple, dans la région occidentale du Xinjiang, les renseignements disponibles démontrent que le nombre de personnes placées en garde à vue par la police a considérablement augmenté, soit de 731 % entre 2016 et 2017.)

In the city of Xiangyang, cameras linked to face-recognition technology project photos of jaywalkers, with names and ID numbers, on a billboard.
Credit: TechnologyReview

« Ce n’est pas la technologie qui a créé les politiques, mais elle accroît grandement la quantité de données que le gouvernement chinois peut recueillir sur ses citoyens », déclare Richard McGregor, agrégé supérieur à Lowy Institute et auteur de l’ouvrage The Party: The Secret World of China’s Communist Rulers. « L’Internet en Chine agit comme une agence de renseignement numérique privée en temps réel. »

Politiques algorithmiques

Dans un article paru dans le Washington Post plus tôt cette année, Xiao Qiang, professeur de communications à la University of California, à Berkeley, a qualifié la gouvernance améliorée par les données de la Chine d’« État totalitaire numérique ». Les aspects dystopiques sont plus évidents dans l’ouest de la Chine.

Xinjiang (le « nouveau territoire ») est le foyer traditionnel d’une minorité musulmane connue sous le nom d’Ouïgours. Comme de nombreux migrants chinois Han s’y sont installés, certains disent « colonisés », les possibilités de travail et les occasions religieuses offertes à la population locale ouïghoure ont diminué, ce qui a entraîné une recrudescence de la violence dans laquelle Han et les Ouïghours ont été pris pour cible, y compris l’émeute de 2009 dans la capitale de Urumqi, où 200 personnes ont trouvé la mort.

La réaction du gouvernement à l’intensification des tensions n’a pas été de tenir des forums de discussion pour solliciter l’avis du public ou des conseils stratégiques, l’État choisit plutôt d’avoir recours à la collecte de données et les algorithmes pour déterminer qui est «susceptible» de commettre dans le futur des actes de violence ou de défiance.

Le gouvernement du Xinjiang a fait appel à une société privée pour concevoir des algorithmes prédictifs qui évaluent divers réseaux de données. Il n’existe aucun registre public ni aucune imputabilité à l’égard de la façon dont ces calculs sont déterminés ou pondérés. « Les personnes dont la vie est régie par ce système ne savent généralement pas quelles en sont les règles », affirme Rian Thum, anthropologue à la Loyola University qui étudie le Xinjiang et qui a vu les avis d’appel d’offres du gouvernement qui ont été émis dans le cadre de la conception du système.

Des projets Chinois à la Minority Report utiliseront l’IA pour prédire des crimes

Dans la ville de Kashgar, à l’ouest du pays, bon nombre de maisons et de boutiques sises sur les rues principales sont désormais murées et les parcs publics sont vides. Lors de ma visite en 2013, il était évident que Kashgar était déjà une ville marquée par la ségrégation — les populations han et ouïgoure vivaient et travaillaient chacun dans des quartiers distincts de la ville.

Mais le soir, c’était aussi un endroit vivant et parfois bruyant, où l’appel à la prière se mêlait à la musique des bars locaux et aux conversations des vieillards assis dans des chaises en plastique sur les terrasses. Aujourd’hui, la ville est étrangement silencieuse; la vie de quartier n’existe quasiment plus. Emily Feng, journaliste pour le Financial Times, a visité Kashgar en juin et a affiché des photos sur Twitter de ces rues nouvellement fantômes.

La raison est que, selon certaines estimations, plus d’un adulte ouïghour et kazakh sur dix dans le Xinjiang a été envoyé dans des « camps de rééducation » aux anneaux barbelés – et ceux qui restent en liberté ont peur.

Dans les deux dernières années, des milliers de points de contrôle ont été mis en place où les passants doivent présenter leur visage et leur carte d’identité nationale pour emprunter l’autoroute, entrer dans une mosquée ou encore visiter un centre commercial. Les Ouïghours sont tenus d’installer des applications de surveillance conçues par le gouvernement sur leur téléphone intelligent, lesquelles surveillent leurs contacts en ligne et les pages Web qu’ils visitent.

Les policiers se rendent régulièrement dans les maisons pour collecter d’autres données notamment sur le nombre de personnes qui vivent dans le ménage, leurs relations avec leurs voisins, le nombre de fois où les gens prient quotidiennement, s’ils ont voyagé à l’étranger et quels livres ils possèdent.

Tous ces flux de données alimentent le système de sécurité publique du Xinjiang, de même que d’autres registres comprenant des renseignements sur tout, de l’historique bancaire à la planification familiale. « Le programme informatique regroupe toutes les données provenant de ces différentes sources et signale celles qui pourraient devenir une « menace » pour les autorités », explique Wang.

Bien que l’algorithme précis soit inconnu, on pense qu’il peut signaler des comportements tels que visiter une mosquée particulière, posséder beaucoup de livres, acheter une grande quantité d’essence ou recevoir des appels ou courriels provenant de l’étranger. Les personnes qui sont signalées reçoivent la visite de la police, qui peut les placer en garde à vue et les mettre en prison ou encore dans des camps de rééducation sans aucune accusation formelle.

Adrian Zenz, politologue à la European School of Culture and Theology à Korntal, en Allemagne, estime que le taux d’internement des minorités dans le Xinjiang pourrait atteindre 11,5 % de la population adulte. Ces camps sont conçus pour instiller le patriotisme et faire renier les croyances religieuses des internés. (De nouveaux avis d’appel d’offres pour des gardiens de sécurité dans les crématoires semblent indiquer que le gouvernement essaye d’éradiquer les pratiques d’inhumation musulmanes traditionnelles dans la région.)

Alors que le Xinjiang représente un extrême draconien, ailleurs en Chine, les citoyens commencent à repousser certains types de surveillance. Une société Internet qui diffusait en continu des images de télévision en circuit fermé en ligne a mis fin à ces émissions à la suite d’un tollé général. La ville de Shanghai a récemment publié des règlements pour permettre aux gens de contester les renseignements inexacts utilisés pour compiler les dossiers de crédit social.

« Les demandes de protection de la vie privée de la part des internautes chinois sont de plus en plus nombreuses », affirme Samm Sacks, chercheur principal au Programme de la politique technologique du SCRS à New York. « Ce n’est pas tout à fait la liberté d’expression qu’elle est censée être. »

MIT Technology Review

La Chine lance sa première puce d’intelligence artificielle

Baidu dévoile la puce AI Kunlun pour l’informatique de pointe et le cloud computing

Baidu a dévoilé une puce d’intelligence artificielle appelée Kunlun lors de son événement annuel Baidu Create. L’entreprise se joint à un grand nombre d’autres entreprises chinoises dans la conception de matériel conçu pour l’apprentissage automatique.

La puce Kunlun est optimisée pour les tâches d’intelligence artificielle, notamment la reconnaissance vocale, le traitement du langage naturel, la reconnaissance d’images et la conduite autonome. Le nouveau design est 30 fois plus rapide que le processeur FPGA original de Baidu de 2011, mais la société affirme qu’elle n’est pas encore prête à en produire en masse. Les puces FPGA sont également au centre du Project Brainwave de Microsoft pour le traitement rapide de l’intelligence artificielle dans le cloud.

Les capacités d’intelligence artificielle de l’entreprise se développent rapidement. Ses minibus sans conducteur seront bientôt déployés sur les campus des centrales électriques en Chine. EasyDL, un outil d’apprentissage en profondeur (deep learning), permet aux médecins d’utiliser des outils de diagnostic DIY tels que des tests de dépistage parasitologique plus efficaces.

Les tensions commerciales croissantes avec les États-Unis galvanisent l’intérêt de la Chine pour les technologies fondamentales.

VentureBeat

Science des données, Machine Learning et Deep Learning