Microsoft fait pression contre un projet de loi

Des projets de loi sur la reconnaissance faciale dans l’État de Washington provoquent un débat sur la réglementation

Microsoft fait du lobbying contre un projet de loi avec le soutien des deux partis à l’assemblée législative de l’État de Washington qui interdirait l’utilisation de la reconnaissance faciale par l’État et le gouvernement local jusqu’à ce que certaines conditions soient remplies, rapporte Wired.

Le projet de loi a été rédigé par l’Union américaine des libertés civiles (ACLU), selon Wired, et les conditions pour débloquer l’utilisation de la technologie par l’État et les administrations locales incluent un rapport du procureur général montrant la même exactitude lorsqu’il s’agit de comparer des personnes couleurs, de sexes et d’âge différents.

Microsoft a récemment offert son soutien à un projet de loi sur la protection des données similaire au GDPR, qui traite spécifiquement de la reconnaissance faciale, mais qui est moins restrictif. L’ACLU s’oppose à ce projet de loi, car l’avis public ne limitera pas l’utilisation de la reconnaissance faciale, et les autorités utiliseront ses dispositions ” d’urgence ” comme une échappatoire, selon le directeur du projet technologique et de liberté de l’ACLU Washington, Shankar Narayan.

“Le projet de loi de Microsoft nous emmène dans un monde où la surveillance faciale est la norme et omniprésente”, a déclaré Narayan.

Le projet de loi de l’ACLU est soutenu par des groupes représentant les immigrants, les musulmans et les avocats de la défense pénale. Un avocat de Microsoft a déclaré lors d’une audience du comité au début du mois que les utilisations positives de la technologie par le gouvernement seraient bloquées, avec l’appui d’un représentant de la Washington Association of Sheriffs and Police Chiefs. Microsoft a plaidé en faveur d’une réglementation gouvernementale de la biométrie faciale, mais le président de la société, Brad Smith, a refusé d’appuyer un moratoire sur l’utilisation par les forces de l’ordre en réponse à une question posée par Joy Buolamwini, chercheuse au MIT, lors d’un débat au Forum économique mondial à Davos en janvier.

Le sénateur Reuven Carlyle, le principal parrain du projet de loi sur la protection des données, affirme que le procureur général est chargé de superviser des questions comme la disposition d’urgence et qu’un moratoire freinerait l’innovation et représenterait un excès de pouvoir du gouvernement.

Qui a besoin de la démocratie quand on a des données ?

“Je ne crois pas qu’il faille que le gouvernement décide si une application commerciale peut ou non être utilisée, a-t-il déclaré à Wired.

Carlyle ajoute qu’Amazon, qui a récemment proposé des lignes directrices pour une utilisation responsable de la technologie de reconnaissance faciale, a suggéré des modifications mineures à la partie de son projet de loi qui concerne spécifiquement la reconnaissance faciale. Le fabricant de caméras de police Axon, en revanche, s’est opposé au projet de loi sur la protection des données, affirmant aux législateurs qu’il pourrait bloquer sa nouvelle technologie.

Jevin West, codirecteur du DataLab de l’Université de Washington, affirme que les projets de loi en duel favorisent une saine conversation sur la question, et que chaque projet de loi a ses forces et ses faiblesses.

Les deux projets de loi feront l’objet d’un processus de comité à l’assemblée législative au cours des prochaines semaines.

Microsoft et Amazon sous le feu de la technologie de reconnaissance faciale

Biometricupdate

Position de Google sur l’implication du gouvernement dans l’IA

Dans un livre blanc, Google a exposé sa position sur la réglementation gouvernementale en matière d’intelligence artificielle, suggérant une approche limitée de la législation et appelant les gouvernements à intervenir dans cinq domaines spécifiques.

Perspectives sur les enjeux de la gouvernance de l’intelligence artificielle (PDF) est un document de 34 pages qui appelle les gouvernements à collaborer avec les acteurs de la société civile et de l’industrie sur les normes d’explicabilité, l’évaluation de l’équité, la sécurité, la collaboration en matière d’intelligence artificielle et de responsabilité. Le livre blanc note également certains des compromis inhérents à la discussion, tels qu’entre explicabilité et sécurité.

Dans la section sur les considérations de sécurité, Google suggère que, comme les produits électriques en Europe sont tenus de démontrer leur sécurité par le biais de la certification CE, il pourrait en être de même pour l’intelligence artificielle.

“Par exemple, la technologie de reconnaissance biométrique dans les systèmes de verrouillage intelligent pourrait être testée par rapport à un ensemble de données représentatif et aléatoire afin de garantir qu’elles dépassent les normes de précision prédéfinies avant d’être certifiées pour une utilisation sans danger.”

Charina Chou, responsable des stratégies mondiales pour les technologies émergentes chez Google, et co-auteur du rapport, a déclaré à Wired que la motivation était de répondre aux questions des gouvernements sur les mesures pratiques à prendre pour garantir l’utilisation responsable de l’intelligence artificielle. Elle met en garde qu’il faut poursuivre le dialogue avant de rédiger de nouvelles lois.

“À l’heure actuelle, il n’est pas forcément très évident de savoir ce qui doit être réglementé ou non”, déclare Chou. “Le but de cet article est de vraiment réfléchir à : Quels sont les types de questions auxquelles les décideurs doivent répondre et les décisions que nous devons prendre en tant que société ?”

Sandra Wachter, chercheuse à Internet Institute, a expliqué à Wired que les revendications abstraites de haut niveau telles que l’intelligence artificielle qui doit être juste, ont une valeur limitée à ce stade.

“Je pense que c’est une bonne liste initiale. Là où je dirais qu’il y a encore un vide, c’est comment gouverner ces choses”, dit-elle.

Les suggestions de Google sont plus abstraites, mais beaucoup plus larges que les récentes propositions de Microsoft concernant la réglementation de la reconnaissance faciale, et s’appliqueraient également à d’autres éléments biométriques. Les législateurs continuent quant à eux d’aller de l’avant avec les restrictions proposées à la biométrie et autres technologies de l’intelligence artificielle à différents niveaux.

La Chine a construit une IA anti-corruption

Le système chinois d’intelligence artificielle anti-corruption “Zero Trust” est-il désactivé pour cause d’efficacité ?

Depuis 2012, une intelligence artificielle sophistiquée a utilisé les mégadonnées pour déceler des signes de corruption au sein du gouvernement chinois – mais les autorités locales de nombreuses régions sont en train de la fermer, selon le South China Morning Post.

Un chercheur impliqué dans le programme, surnommé “Zero Trust”, a déclaré au journal de Hong Kong que des responsables locaux pourraient fermer le programme parce qu’ils “ne se sentent pas très à l’aise avec la nouvelle technologie”.

Mais le SCMP a une autre explication : l’intelligence artificielle fonctionne trop bien.

Explosion de corruption

Selon le journal, Zero Trust passe en revue les données des banques, des archives de propriétés et de construction, et même des données satellitaires, pour signaler des signes de corruption. Par exemple, il pourrait remarquer un transfert d’argent suspect, ou une nouvelle voiture ou propriété enregistrée au nom de la famille ou des amis d’un représentant du gouvernement.

“Nous utilisons simplement le résultat de la machine comme référence”, a déclaré Zhang Yi au SCMP, un responsable d’une province qui utilise toujours le logiciel. “Nous devons contrôler et vérifier sa validité. La machine ne peut pas prendre le téléphone et appeler la personne qui a un problème. La décision finale est toujours prise par les humains.”

Des projets Chinois à la Minority Report utiliseront l’IA pour prédire des crimes

Justice algorithmique

Bien que la corruption soit répandue en Chine, les responsables ont probablement raison de se méfier d’un algorithme de type boîte noire qui pourrait faire tomber le marteau de la justice sans en expliquer le raisonnement.

“L’intelligence artificielle peut rapidement identifier un responsable corrompu, mais elle n’est pas très efficace pour expliquer le processus suivi pour parvenir à une telle conclusion”, a déclaré un chercheur non identifié ayant travaillé sur Zero Trust au SCMP. “Bien que cela fonctionne correctement dans la plupart des cas, vous avez besoin d’un humain pour travailler en étroite collaboration avec cela.”

Big data : les algorithmes sont-ils les maitres de notre futur ?

Des données collectées, puis traitées par des algorithmes, permettent d’émettre certaines prédictions. Les champs d’application des algorithmes sont nombreux, par exemple dans la lutte contre la criminalité.

Prédire les crimes

« iBorderCtrl» ou la sécurité totale

On a l’habitude de parler de la Chine comme le champion des caméras à reconnaissance faciale. La Commission Européenne a mis au point depuis 2016 une technologie dîte de « contrôle intelligent » qui va être testée pendant neuf mois jusqu’à août 2019 sur trois frontières de l’Union Européenne (Grèce, Hongrie, Lettonie) sur la base du volontariat. Elle est financée par le programme européen de recherche et d’innovation Horizon 2020 à hauteur de 4,5 Millions d’euros. Aucune loi nationale ou européenne n’autorisant à l’heure actuelle un tel dispositif, les volontaires à cet essai doivent signer un consentement éclairé. Le projet, « conscient des dimensions éthiques et légales » travaille en « étroite proximité avec un conseiller en éthique »1.

Comme l’explique aussi le site de la Commission Européenne, la procédure se fait en deux étapes. Le voyageur – dûment informé de ses droits et découragé d’entreprendre des activités illégales – remplira d’abord un formulaire en ligne et téléchargera ses documents officiels (passeport, visa, preuves de fonds) avant de répondre devant une webcam à des questions personnalisées. Ses réponses seront analysées par un système « détecteur de mensonges » qui vérifiera si elles sont en adéquation avec les expressions du visage à l’aide de 38 micromouvements indétectables par un être humain. A partir de ces résultats, le voyageur sera dirigé soit vers une file à « bas risque », soit vers une file à « haut risque »2.

Ses opposants lui reprochent son taux d’erreur (le système ne détecterait que 76% des menteurs) ainsi que le risque de répandre des technologies de reconnaissance faciale à caractère racial3. Ces arguments supposent-ils qu’un détecteur de mensonges 100 % fiable et garanti non raciste serait légitime ? Ces objections seraient d’ailleurs en voie de résolution, puisque le système prétend devoir être encore amélioré afin d’atteindre une meilleure fiabilité, et qu’il n’est pas supposé être destiné à la prise de décision mais seulement à être un « indicateur de risque ».

Le risque de quoi ? Lisons plutôt les justifications du projet sur son propre site. Il s’agit, nous dit-on, de simplifier et accélérer les processus de contrôle aux frontières, de diminuer les coûts, d’améliorer la sécurité en combinant différentes technologies, de diminuer l’immigration illégale et les activité criminelles. En effet, explique le site sans la moindre fausse pudeur, « la croissance continue des flux combinée avec la menace croissante d’immigration illégale exercent aujourd’hui une pression considérable aux postes de frontière. Les passages de frontière ralentis entravent la satisfaction des voyageurs, les affaires et le commerce4

Le site précise qu’il s’agit d’un système interdisciplinaire unifié convergeant vers un système global [overall system] comprenant :

1) un détecteur de mensonge automatique ;
2) un module biométrique lisant les empreintes de doigts et de veines ;
3) un outil de reconnaissance faciale ;
4) un outil de vérification des documents officiels ;
5) un outil de détection des humains dissimulés ;
6) un outil d’évaluation du risque aidant à la la décision du garde-frontière ;
7) un outil intégré d’analyse du contrôle des frontières chargé d’analyser l’ensemble des données collectées et d’évaluer l’ensemble du système.

On appréciera l’équivoque de la fin : « En tant que projet de recherche iBorderCtrl vise à élaborer de nouvelles technologies et déterminer si elles ont la capacité d’améliorer la qualité des contrôles de frontière aussi bien pour les voyageurs que pour les garde-frontières, mais ne vise pas à implémenter de nouvelles politiques5. » Cela veut-il dire que les lois qui n’existent pas encore pour encadrer ce système pourraient encore être refusées par les citoyens européens malgré ces investissements considérables ? Ou bien cela veut-il dire au contraire que, en vérité, la politique est déjà faîte, et qu’il ne restera qu’à lui donner un vernis démocratique assorti de grands principes éthiques, pour que ce système devienne légal ?

Qu’on ne croit pas que ce système de contrôle soit seulement réservé aux frontières. Il est destiné à se généraliser au gré des « villes intelligentes » pour assurer une sécurité sans faille. Les caméras intelligentes sont discutées et expérimentées avec les mêmes arguments6. L’ex-ministre de l’intérieur Gérard Collomb justifiait récemment de telles orientations : « L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre7. » Peut-être ces systèmes rassureront-ils tous ceux qui sont de plus en plus obnubilés par le terrorisme, l’immigration et la criminalité et qui sont même prêts à devenir des acteurs du systèmes de surveillance « intelligent ». « La “smart city” faisant appel à l’intelligence citoyenne, adaptative et ubiquitaire, nous avons tout intérêt à nous inspirer des modes de gouvernance “bottom-up”, où l’information remonte directement du terrain, pour que la “safe city” s’inscrive enfin dans une logique de ville intelligente8. » Car les criminels deviendront évidemment toujours plus inventifs pour déjouer les pièges de la prédiction algorithmique : alors, pourquoi pas, il sera de nécessité publique d’implanter des puces à tout le monde pour assurer notre sécurité – toujours avec notre consentement éclairé.

Notes :

2 Un système intelligent de détection de mensonges resserrera les frontières de l’UE. Smart lie-detection system to tighten EU’s busy borders

3 Harold Grand, « Pourrez-vous passer les contrôles aux frontières ? C’est une intelligence artificielle qui décide », Le Figaro, 07/11/2018, en ligne

4 Le projet iBorderCtrl : « Continuous traffic growth, combined with the increased threat of illegal immigration, is putting nowadays border agencies under considerable pressure. Slow border crossings impact traveller satisfaction, business and trade. »

5 Cadre technique iBorderCtrl : « iBorderCtrl as a research project aims at elaborating new technologies and whether they have the capabilities to enhance the quality of border checks for both travellers and border guards, not at implementing new policies

6 Rapport d’information n° 788 (2015-2016) de MM. François Bonhomme et Jean-Yves Leconte, fait au nom de la commission des lois, déposé le 13 juillet 2016, en ligne

7 Flore Thomasset, « Le ministère fait le bilan d’un an de maintien de l’ordre », La croix, 08/06/2018 en ligne.

8 Flavien Bazenet, Gabriel Périès, « Des citoyens et des caméras “inelligentes” bientôt au service de la sécurité urbaine », La Tribune, 05/12/2017, en ligne.