Les cybermenaces et l’OTAN 2030 : un nouveau rapport du CCDCOE

Le Centre d’excellence de cyberdéfense coopérative de l’OTAN (CCDCOE), en coopération avec le King’s College London et William & Mary, a publié un nouveau rapport intitulé “Cyber Threats and NATO 2030 : Horizon Scanning and Analysis“.

Le rapport comprend 13 chapitres qui examinent comment l’OTAN peut faire face au mieux aux cybermenaces, ainsi que les possibilités et les défis liés aux technologies émergentes et perturbatrices dans le domaine cybernétique au cours de la prochaine décennie.

PREMIÈRE PARTIE

Le présent rapport aborde les exigences conceptuelles et pratiques et contribue de manière significative aux discussions sur l’OTAN 2030. L’ouvrage est divisé en cinq courtes parties, qui commencent par ” Les adversaires du cyberespace et la réponse de l’OTAN “.

Cette partie s’ouvre sur deux articles consacrés à l’internet et aux cybercapacités russes. Juha Kukkola explore les implications stratégiques des plans russes pour un réseau national fermé, identifiant les avantages défensifs et offensifs pour la Russie dans les asymétries structurelles ainsi promues.

Joe Cheravitch et Bilyana Lilly attirent l’attention sur les contraintes qui pèsent sur la capacité cybernétique de la Russie en raison de problèmes de recrutement et de ressources au niveau national, et suggèrent comment l’OTAN pourrait tirer parti de ces limitations pour atteindre ses propres objectifs en matière de cybersécurité.

Martin C. Libicki et Olesya Tkacheva proposent une nouvelle perspective sur les cyberconflits avec un adversaire comme la Russie, en analysant les possibilités d’escalade horizontale dans d’autres domaines ainsi que d’escalade verticale dans un même domaine, et les conséquences pour la doctrine et la gestion des risques de l’OTAN.

DEUXIÈME PARTIE

La deuxième partie, intitulée ” Les nouvelles technologies et la réponse de l’OTAN “, s’ouvre sur un chapitre consacré à la 5G. Les auteurs proposent une série de mesures que l’OTAN et ses partenaires peuvent mettre en œuvre pour sécuriser les technologies 5G et leurs chaînes d’approvisionnement, notamment des formes de gestion des risques, de normalisation et de certification qui permettront de maximiser les avantages militaires et sociaux de cette nouvelle génération de systèmes mobiles.

À l’aide d’une base de données étendue, Jacopo Bellasio et Erik Silfversten identifient une série de technologies nouvelles et émergentes susceptibles de façonner le futur paysage des cybermenaces et proposent des moyens par lesquels l’OTAN peut se préparer et s’adapter à ces éventualités.

Simona R. Soare et Joe Burton démontrent les vulnérabilités de l’hyperconnectivité à travers le scénario hypothétique d’une ville intelligente soumise à une cyberattaque concertée, en tirant les leçons que l’OTAN doit tirer de la relation entre la sécurité locale et supranationale dans des conditions de haute technologie.

TROISIÈME PARTIE

La troisième partie, intitulée ” Le combat, le domaine cybernétique et la réponse de l’OTAN “, contient deux chapitres consacrés aux opérations multi-domaines (MDO), le concept de combat adopté par l’OTAN.

James Black et Alice Lynch étudient les implications des dépendances en réseau des MDO et la manière dont les adversaires espèrent les exploiter. Ils suggèrent que l’OTAN doit mieux comprendre l’interaction des menaces externes et des vulnérabilités internes pour lutter contre les cybermenaces qui pèsent sur les activités multi-domaines.

Franz-Stefan Gady et Alexander Stronell effectuent une analyse comparative de l’intégration par les Alliés de l’OTAN de leurs cybercapacités aux opérations cinétiques dans le cadre des MDO et formulent des propositions pour améliorer les performances de l’OTAN dans un futur conflit de haute intensité avec un concurrent proche.

QUATRIÈME PARTIE

La quatrième partie, intitulée ” Partage de l’information, renseignement sur les cybermenaces et exercices “, commence par un point de vue du secteur de la cybersécurité, présenté par Michael Daniel et Joshua Kenway de la Cyber Threat Alliance. Ils proposent un programme de partage de la CTI entre l’OTAN et ses parties prenantes, qui vise à corriger certaines des hypothèses erronées des cadres CTI existants.

L’analyse comparative de Chon Abraham et Sally Daultrey sur le partage des CTI au Japon, aux États-Unis et au Royaume-Uni suggère que des facteurs contextuels nationaux peuvent inhiber cette fonction coopérative essentielle et propose une série de changements organisationnels pour y remédier.

Andreas Haggman apporte une contribution méthodologique distincte au débat de l’OTAN sur la cybersécurité en promouvant le wargaming comme un outil permettant d’imaginer et d’anticiper des futurs conflictuels dans leurs diverses dimensions sociales, politiques et techniques.

CINQUIÈME PARTIE

La cinquième partie est consacrée aux “Réponses réglementaires et politiques aux défis de la cybersécurité”. Cindy Whang s’intéresse à la manière dont les régimes de contrôle des exportations devraient être redynamisés pour répondre aux préoccupations en matière de cybersécurité dans l’ensemble de l’Alliance.

Laurin B. Weissinger conclut l’ouvrage en lançant un appel pour que l’OTAN améliore sa compréhension de la complexité des réseaux, notamment par la modélisation des menaces et des attaques, afin de fournir des solutions de cybersécurité plus efficaces et mieux adaptées.

Tous les chapitres de ce rapport ont fait l’objet d’un examen par les paies en double aveugle par au moins deux experts externes.

Microsoft et Improbable s’associent pour améliorer les capacités de sécurité nationale

Microsoft et Improbable annoncent un partenariat mondial pour le secteur de la défense et de la sécurité nationale

Improbable Worlds Limited, une société spécialisée dans les technologies d’environnement synthétique, annonce un partenariat avec la division Défense et renseignement de Microsoft afin d’aider les gouvernements à améliorer leurs résultats en matière de sécurité nationale.

Ce partenariat transformera la capacité des gouvernements et de leurs fournisseurs de solutions à fournir des environnements synthétiques multi-domaines pour la défense et la sécurité nationale.

L’activité de défense d’Improbable, basée principalement à Londres et à Washington DC, s’appuie sur la base de la technologie innovante pour les jeux et le divertissement numérique, combinée à une expertise spécifique en modélisation informatique, IA, analyse de données et autres compétences et connaissances pertinentes pour les applications de défense et de sécurité nationale.

La plateforme d’environnement synthétique d’Improbable est une plateforme de simulation puissante, flexible et sécurisée, adaptée aux besoins de la communauté de la défense et capable de prendre en charge les simulations militaires et les environnements synthétiques les plus sophistiqués jamais expérimentés.

Improbable travaille au sein de l’alliance de l’OTAN et avec une série de partenaires industriels pour transformer la planification, la formation et l’aide à la décision au sein des communautés gouvernementales, de la défense et de la sécurité.

La plateforme d’environnement synthétique d’Improbable sera disponible sur les services Azure en local, dans le cloud et cloud-to-edge.

La combinaison de leurs outils transformerait les capacités, notamment la planification opérationnelle, la conception des politiques, la formation collective, la résilience nationale et l’expérimentation en matière de défense.

Dans le cadre de ce partenariat, les organisations utilisant Microsoft Azure pourront proposer des produits tels que des modèles, des ensembles de données et des applications d’intelligence artificielle par le biais de la plateforme d’Improbable.

Les deux entreprises ont déclaré que cela renforcerait l’innovation dans le développement de l’environnement synthétique et faciliterait l’accès des clients de la défense aux capacités fournies par l’industrie, le gouvernement et les universités.

Gus MacGregor-Millar, directeur général de Microsoft Defence & Intelligence, a déclaré : “Nous sommes fiers d’annoncer que la plateforme d’environnement synthétique d’Improbable est désormais disponible sur le cloud Microsoft Azure et l’offre Azure Stack.”

“Nous sommes ravis de combiner nos forces complémentaires et d’offrir à nos clients du secteur de la défense et du renseignement le potentiel de transformation des environnements synthétiques alimentés par des calculs sécurisés et fiables dans le cloud.”

Microsoft et Improbable ont déclaré que la combinaison de la plate-forme d’environnement synthétique et des services professionnels, ainsi que des “écosystèmes de partenaires communs”, permettrait de “développer, valider, déployer et adapter plus rapidement et plus facilement des solutions d’environnement synthétique” conçues pour répondre à de plus nombreux défis en matière de défense et de sécurité.

La pandémie est utilisée comme un prétexte… selon l’ONU

C’est une confirmation importante que les médias français ont peu relayée. Nous citons le Secrétaire Général de l’ONU en personne :

Brandissant la pandémie comme prétexte, les autorités de certains pays ont pris des mesures de sécurité sévères et adopté des mesures d’urgence pour réprimer les voix dissonantes, abolir les libertés les plus fondamentales, faire taire les médias indépendants et entraver le travail des ONG.” António Guterres, Secrétaire Général de l’ONU, à l’ouverture de la 46e session du Conseil des droits de l’homme du 22 février 2021.

Le chef de l’Organisation des Nations Unies ajoute, notamment : “Des défenseurs des droits humains, des journalistes, des avocats, des militants, et même des professionnels de la santé, ont fait l’objet […] de poursuites, et de mesures d’intimidation et de surveillance pour avoir critiqué les mesures – ou le manque de mesures – prises pour faire face à la pandémie. Les restrictions liées à la pandémie servent d’excuses pour miner les processus électoraux, affaiblir les voix des opposants et réprimer les critiques.

Les quatre coins du globe sont touchés par des violations des droits humains“.

M. Guterres a déploré “l’affaiblissement de la démocratie, l’utilisation de la force brutale, les arrestations arbitraires, la répression dans toutes ses manifestations ou la restriction de l’espace civique“.

De plus, “la pandémie a affecté de manière disproportionnée les femmes, les minorités, les personnes âgées, les personnes en situation de handicap, les réfugiés, les migrants et les peuples autochtones” et “l’extrême pauvreté gagne du terrain” a-t-il déploré.

La Haute-Commissaire de l’ONU aux droits de l’homme, Michelle Bachelet, a également dénoncé “les restrictions illégitimes des libertés publiques (et) l’utilisation excessive des pouvoirs d’urgence” dans le cadre de l’épidémie. “L’usage de la force ne mettra pas fin à cette pandémie. Envoyer les critiques en prison ne mettra pas fin à cette pandémie”, a-t-elle martelé, sans toutefois mentionner de pays.

ONU : Conseil des droits de l’homme : « Les coups d’État n’ont pas leur place dans notre monde moderne » (Guterres)
Voir aussi La Libre.be

Réglementation de la biométrie : Approches globales et questions urgentes

L’AI Now Institute a publié un recueil d’études de cas sur les approches réglementaires de la technologie de reconnaissance biométrique, les leçons tirées et les futures actions de sensibilisation

Dans un contexte de surveillance publique accrue, l’intérêt pour la réglementation des technologies biométriques telles que la reconnaissance faciale et vocale s’est considérablement accru dans le monde entier, sous l’impulsion de la recherche et de la défense des intérêts des communautés. Il se dégage de ce moment un sentiment croissant que des technologies comme la reconnaissance faciale ne sont pas inévitables, et peut-être même pas nécessaires ou utiles.

“Regulating Biometrics: Global approaches and urgent questions”, par Amba Kak, présente huit études de cas détaillées d’universitaires, avocats et experts politiques qui examinent les tentatives actuelles de réglementation des technologies biométriques et donnent un aperçu des promesses et des limites de ces approches. Dans quels domaines la réglementation est-elle capable de déterminer si et comment les technologies biométriques sont utilisées, et dans quels domaines est-elle insuffisante ? En examinant ces questions, ces auteurs experts éclairent les domaines d’engagement, de défense et de réglementation futurs.

Ces essais brossent un tableau du paysage mondial complexe de la réglementation de la biométrie, en mettant en évidence les nombreuses approches adoptées par les partisans de la biométrie, qui réclament un contrôle accru de ces technologies, ainsi que la manière dont les gouvernements ont utilisé la loi comme outil pour étendre ou consolider l’utilisation de la biométrie.

Projet de loi australien sur les services de rapprochement des identités (p.44)

Jake Goldenfein (Faculté de droit de Melbourne) et Monique Mann (Université Deakin) suivent les manœuvres institutionnelles et politiques qui ont conduit l’Australie à créer une grande base de données centralisée de reconnaissance faciale (“The Capability”) à l’usage de divers acteurs gouvernementaux. Ils examinent les échecs de la réglementation pour remettre en cause de manière significative la construction de ce système, voire pour façonner son architecture technique ou institutionnelle.

L’économie (et la pratique réglementaire) que la biométrie inspire : Une étude du projet Aadhaar (p.52)

Nayantara Ranganathan (avocate et chercheuse indépendante, Inde) explique comment le droit et la politique autour du projet indien d’identification biométrique (“Aadhaar”) ont finalement servi à construire des données biométriques comme ressource pour l’extraction de données de valeur par des entreprises privées. Elle explore comment la réglementation a été influencée par les logiques et les cultures du projet qu’elle cherchait à réglementer.

Une première tentative de réglementation des données biométriques dans l’Union européenne (p.62)

Els Kindt (KU Leuven) fournit un compte-rendu détaillé de l’approche du Règlement général sur la protection des données (RGPD) de l’Union européenne en matière de réglementation des données biométriques. Comme de nombreux pays sont sur le point de mettre en œuvre des lois nationales rédigées de manière similaire, elle identifie les lacunes potentielles et souligne les domaines clés pour la réforme.

Réflexion sur la politique biométrique du Comité international de la Croix-Rouge : Réduire au minimum les bases de données centralisées (p.70)

Ben Hayes (Agence AWO, conseiller juridique consultant auprès du Comité international de la Croix-Rouge [CICR]) et Massimo Marelli (chef du Bureau de la protection des données du CICR) expliquent le processus décisionnel du CICR pour formuler sa première politique en matière de biométrie, qui visait à éviter la création de bases de données et à minimiser les risques pour les populations vulnérables dans les contextes humanitaires.

Utilisation par la police de la reconnaissance faciale en live au Royaume-Uni (p.78)

Peter Fussey (Université d’Essex) et Daragh Murray (Université d’Essex), principaux auteurs de l’étude empirique indépendante du procès de la police métropolitaine de Londres sur la reconnaissance faciale en live (LFR-Live Facial Recognition), expliquent comment les normes juridiques et les outils de régulation existants n’ont pas réussi à empêcher la prolifération d’un système dont les effets néfastes ont été démontrés. Ils tirent ainsi des enseignements plus larges pour la réglementation de la LFR au Royaume-Uni et des technologies similaires ailleurs.

Une taxonomie des approches législatives pour la reconnaissance faciale aux États-Unis (p.86)

Jameson Spivack et Clare Garvie (Georgetown Center on Privacy and Technology) écrivent sur les dizaines de lois d’interdiction et de moratoires sur l’utilisation de la reconnaissance faciale par la police aux États-Unis, la plupart d’entre elles menées par des avocats et des organisations communautaires. Les auteurs fournissent une taxonomie détaillée qui va au-delà des grandes catégories d’interdiction et de moratoire, et réfléchissent aux leçons tirées de leur mise en œuvre.

BIPA : La plus importante loi biométrique sur la protection de la vie privée aux États-Unis ? (p.96)

Woodrow Hartzog (Northeastern University) explore les promesses et les pièges de la loi sur la confidentialité des informations biométriques (BIPA) de l’État de l’Illinois et, plus largement, du droit des particuliers à engager leurs propres actions contre des entreprises privées. Il s’interroge sur les limites inévitables d’une loi centrée sur le “consentement éclairé”, un système qui donne l’illusion d’un contrôle tout en justifiant des pratiques douteuses que les gens n’ont pas assez de temps ou de ressources pour comprendre et agir.

Réglementation biométrique ascendante : La réponse de la Communauté à l’utilisation de la surveillance faciale dans les écoles (p.104)

Stefanie Coyle (NYCLU) et Rashida Richardson (Rutgers Law School ; AI Now Institute, NYU) examinent la décision controversée d’un district scolaire de Lockport, New York, de mettre en place un système de reconnaissance faciale et d’objets pour surveiller les élèves. Elles mettent en lumière la réponse de la communauté qui a suscité un débat national et a conduit à une législation à l’échelle de l’État réglementant l’utilisation des technologies biométriques dans les écoles.

Lire le rapport complet (PDF)

Un projet de loi américain vise à interdire l’utilisation de la reconnaissance faciale par la police

Les législateurs américains ont présenté un projet de loi, The Facial Recognition and Biometric Technology Moratorium Act, qui interdirait l’utilisation de la technologie de reconnaissance faciale par les agences fédérales de maintien de l’ordre.

Plus précisément, il rendrait illégal pour toute agence fédérale ou tout fonctionnaire “d’acquérir, de posséder, d’accéder ou d’utiliser” la technologie de surveillance biométrique aux États-Unis. Il exigerait également que les services de police des États et des collectivités locales instaurent des interdictions similaires afin de pouvoir bénéficier d’un financement fédéral.

La proposition de loi est arrivée à un stade où l’utilisation de la technologie de reconnaissance faciale par la police fait l’objet d’une attention accrue dans le cadre des protestations qui ont suivi l’assassinat de George Floyd fin mai. Des études ont montré à plusieurs reprises que la technologie est moins précise pour les Noirs, et au début de cette semaine, le New York Times a rapporté qu’un homme noir innocent du Michigan avait été arrêté après avoir été mal identifié par un logiciel de reconnaissance faciale.

L’activisme fonctionne

La décision de restreindre l’utilisation de la technologie de reconnaissance faciale est en partie due à la pression exercée par les entreprises technologiques elles-mêmes, après avoir été soumises au lobbying des militants pendant des années.

Il y a deux semaines, Amazon a annoncé qu’elle imposerait un moratoire d’un an sur l’utilisation par la police de son système de reconnaissance faciale, Rekognition, après qu’IBM ait décidé de mettre fin à son système de reconnaissance faciale à usage général. Le lendemain, Microsoft a annoncé qu’il cesserait de vendre son système aux services de police jusqu’à ce que la loi fédérale réglemente la technologie.

Il appartient maintenant aux législateurs de décider s’ils peuvent obtenir un soutien suffisant pour l’adopter.

On en sait plus sur les algorithmes de Palantir

UCIPT, CNET, Fortune, MIT

La nouvelle vague biométrique

Comment savoir si une personne est bien celle qu’elle prétend être ? Avant, c’était simple. Les personnes étaient identifiées par la vue, le nom, la voix ou, le cas échéant, un tiers de confiance pouvait se porter garant pour elles. Nous nous appuyions sur une combinaison d’attributs connus et de reconnaissance pour vérifier l’identité d’une personne. Ce n’est que plus tard que sont apparus des documents comme les passeports, les cartes d’identité et les permis de conduire.

Aujourd’hui, la question est plus difficile : Comment identifier quelqu’un que je ne connais pas, que je ne vois pas et qui n’est pas physiquement présent ? Nous pouvons échanger des informations – sous la forme de mots de passe, de codes PIN, de données mémorisables ou de détails personnels. Mais ces méthodes de vérification ont un prix, notamment la perte de la vie privée, les désagréments, l’insécurité et l’usurpation d’identité.

La première vague de biométrie – physique – a apporté une solution. Il s’agit de faire correspondre des caractéristiques physiques à des attributs connus, qu’il s’agisse d’empreintes digitales, de visages, de voix ou d’une série de facteurs émergents. Mais la nouvelle vague de biométrie – comportementale – offre des possibilités encore plus grandes lorsqu’elle est combinée avec le physique.

Rien qu’en 2023, on prévoit que 37,2 milliards de transactions, d’une valeur de 2 000 milliards de dollars, seront authentifiées par la biométrie. Et la plupart de ces transactions sont à distance – l’individu n’est pas présent. La révolution de la biométrie est clairement en marche. Et ce, parce que cette technologie centrale répond à un défi fondamental des transactions dans le monde numérique en expansion – elle nous permet de confirmer plus précisément que nous sommes bien qui nous prétendons être. C’est un retour à la connaissance et à la reconnaissance, mais cette fois, la science de la familiarité est alimentée par l’IA.

Améliorer la biométrie physique

La biométrie physique continue de se diversifier, rendant les solutions existantes (par exemple les empreintes digitales, le visage et la voix) plus sûres et intelligentes, et explorant de nouvelles références physiologiques (par exemple la paume et l’œil) pour vérifier l’identité d’un individu. Voici quelques-uns des développements qui se mettent en place :

– Scanners d’empreintes digitales sans contact – Ces lecteurs acquièrent des images d’empreintes digitales en utilisant une technologie d’imagerie 3D avancée sans qu’il soit nécessaire de toucher l’appareil. Cela permet de surmonter les difficultés associées aux scanners à capteurs, comme les doigts secs et humides, les images fantômes laissées sur le scanner et les problèmes d’hygiène.

– Empreintes digitales sur les cartes de débit et de crédit – Ces cartes associent des capteurs d’empreintes digitales intégrés à la technologie des puces pour une double authentification afin de rendre les transactions plus sûres. L’empreinte digitale est cryptée sur la carte, ce qui permet d’éviter les honeypots d’informations sensibles et de renforcer la sécurité des données.

– Empreintes palmaires et veines de la paume – Tout simplement, la paume est plus grande que le doigt, ce qui permet de saisir des caractéristiques plus distinctives. Avec l’amélioration de la technologie de numérisation sans contact, les empreintes palmaires pourraient se généraliser. Le balayage des veines de la paume – où la lumière infrarouge est utilisée pour scanner des structures veineuses uniques et complexes – pourrait représenter une nouvelle évolution dans ce domaine. En tant que biométrie interne, elle est plus difficile à falsifier.

Reconnaître les comportements

Dans le monde réel, nous ne nous fions pas uniquement à l’apparence physique pour identifier un individu. De même, dans le monde numérique, nous devons aller au-delà de la biométrie physique et prendre en compte les technologies avancées comme l’IA et l’apprentissage automatique (machine learning) qui reconnaissent les traits de comportement.

Prenons un exemple hypothétique : votre voisin, Lyn, frappe à votre porte pour vous emprunter votre tondeuse à gazon. Vous vous sentez en confiance pour la lui prêter car, tout d’abord, vous reconnaissez Lyn (physiologie). Deuxièmement, il n’est pas surprenant que vous voyiez votre voisin à votre porte d’entrée (contexte). Troisièmement, Lyn a déjà emprunté la tondeuse (histoire) et, par conséquent, vous estimez (intelligence) que le risque de lui prêter la tondeuse est très faible. Tous ces facteurs se combinent pour créer un niveau élevé de confiance dans cette interaction particulière.

De la même manière, l’IA et le machine learning sont capables d’apprendre à reconnaître les comportements pertinents pour la tâche à accomplir et de prendre des décisions en une fraction de seconde. Dans le commerce mobile, l’analyse comportementale peut évaluer la biométrie passive de la manière dont un individu interagit avec son téléphone : comment il tape, glisse et navigue sur les sites web et les applications. À partir de ces points de données individuels, il est possible de créer un profil d’utilisateur que les fraudeurs peuvent difficilement usurper. Les solutions d’IA et de machine learning sont également efficaces parce qu’elles permettent d’apprendre. Plus elles disposent d’échantillons, plus l’identification sera intelligente. Elles peuvent également constituer une présence dynamique. Connue sous le nom de vérification continue, la biométrie comportementale multiple peut être combinée en arrière-plan pour vérifier constamment l’individu, sans que cette couche de sécurité supplémentaire ne cause la moindre perturbation.

Il est essentiel que ces techniques d’authentification ne requièrent pas de nombreuses informations personnelles. Vous n’avez pas besoin de connaître la date ou le lieu de naissance de Lyn, son casier judiciaire, son solde bancaire ou son nom de jeune fille pour lui prêter une tondeuse à gazon. Vous devez juste en savoir assez pour reconnaître Lyn et être sûr qu’on peut lui faire confiance dans cette situation.

La biométrie au-delà des transactions

Ce ne sont pas seulement les transactions des consommateurs qui sont transformées. La sécurité des patients et le respect de la vie privée sont depuis longtemps des questions importantes dans le domaine des soins de santé. Et avec l’augmentation de la demande de services sans contact et virtuels, la biométrie a un rôle énorme à jouer, en garantissant à chacun un accès sûr à l’aide vitale dont il a besoin. L’authentification vocale, par exemple, peut être utilisée comme un moyen beaucoup plus sûr et pratique de se connecter à des portails de télémédecine, permettant aux médecins d’accéder rapidement et en toute sécurité aux dossiers médicaux des patients.

Cela fait partie d’un besoin plus large de meilleure identification dans l’industrie. En 2007, il a été révélé qu’en une seule année, des milliers de patients au Royaume-Uni ont reçu un mauvais traitement en raison d’erreurs d’identification. Pour lutter contre ce phénomène, les prestataires de soins de santé et les hôpitaux déploient de plus en plus souvent des scanners de veines palmaires pour les patients et prennent les empreintes digitales des nouveau-nés et de leurs mères.

Les niveaux de sécurité élevés et le nombre de points de contrôle exigés dans le secteur des voyages placent également celui-ci au centre de l’application de la biométrie. La reconnaissance faciale et la biométrie des empreintes digitales par téléphone prennent tout leur sens, compte tenu de la nécessité d’une distanciation sociale et d’une hygiène primordiale.

Alors que les employés commencent à retourner sur leur lieu de travail partout dans le monde, les solutions biométriques deviendront un pilier de la vie professionnelle – pour entrer dans le bâtiment, se connecter aux appareils et accéder aux documents. La vérification continue fonctionnera en arrière-plan pour améliorer l’expérience des employés, la sécurité et éviter les connexions répétées.

Une chose est claire : nous allons voir l’importance et la dépendance de la biométrie jouer un rôle exponentiel dans la façon dont nous effectuons nos transactions et interagissons à l’avenir. La crise actuelle a entraîné une augmentation des cyber-attaques et l’importance d’une authentification forte est devenue évidente.

Une biométrie efficace se fond dans une expérience plus large de services centrés sur le consommateur. L’avènement des solutions biométriques a entraîné le passage de méthodes de vérification basées sur la connaissance à celles qui font appel à la reconnaissance intelligente – en remplaçant le mot de passe par la personne. Mais l’adoption continue de cette technologie dépend de la confiance des utilisateurs dans sa sécurité. Comme notre identité devient de plus en plus numérique, ceux d’entre nous qui conçoivent la technologie doivent s’assurer que leur confiance en celle-ci progresse également. Cela signifie qu’il faut recourir à la sécurité par la conception, une approche qui place la protection des données d’identité au cœur de la biométrie. Connaissance, reconnaissance et sécurité.

À propos de l’auteur

Ajay Bhalla est président des solutions de cybernétique et de renseignement pour Mastercard. Il dirige l’équipe qui développe des produits ou des solutions qui améliorent la sûreté, la sécurité et l’expérience des consommateurs, des commerçants, des partenaires et des gouvernements du monde entier. Ajay est membre du comité de direction de l’entreprise.

Biometric Update

L’UE vient de publier de nouvelles lignes directrices pour réglementer l’IA

Le nouveau livre blanc de l’Union européenne contenant des lignes directrices pour la réglementation de l’intelligence artificielle reconnaît que l’intelligence artificielle peut entraîner la violation des droits fondamentaux, comme la partialité, la suppression de la dissidence et l’absence de vie privée. Il suggère des exigences légales telles que :

– S’assurer que l’IA est formée sur des données représentatives
– L’obligation pour les entreprises de conserver une documentation détaillée sur la manière dont l’IA a été élaborée
– Apporter des informations aux citoyens lorsqu’ils interagissent avec une IA
– Exiger une surveillance humaine des systèmes d’IA

La critique

Les nouveaux critères sont beaucoup plus faibles que ceux suggérés dans la version du livre blanc qui a fait l’objet d’une fuite en janvier. Ce projet suggérait un moratoire de cinq ans sur la reconnaissance faciale dans les espaces publics, alors que celui-ci n’appelle qu’à un “large débat européen” sur la politique de reconnaissance faciale. Michael Veale, professeur en droits numériques à l’University College London, note que la commission adopte souvent des positions plus extrêmes dans les premières ébauches comme tactique politique, il n’est donc pas surprenant que le document officiel ne suggère pas de moratoire. Cependant, il estime que c’est quand même décevant parce que cela fait suite à un rapport tout aussi terne du groupe d’experts de haut niveau sur l’intelligence artificielle, qui a été considéré comme “fortement influencé par l’industrie”.

En attendant, les lignes directrices du document pour l’IA ne s’appliquent qu’aux technologies qu’il considère comme des technologies “à haut risque”, explique Frederike Kaltheuner, chargé de la politique technologique chez Mozilla. Le terme “à haut risque” peut inclure certaines industries, comme le secteur de la santé, ou certains types de technologies, comme la surveillance biométrique. Mais les suggestions ne s’appliqueraient pas à la technologie de la publicité ou à la vie privée des consommateurs, qui, selon Kaltheuner, peuvent avoir des effets importants et qui ne sont pas pris en compte dans le cadre du RGPD.

Le livre blanc n’est qu’un ensemble de lignes directrices. La Commission européenne commencera à élaborer une législation basée sur ces propositions et commentaires à la fin de l’année 2020.

L’UE a également publié un document sur la “stratégie européenne pour les données” qui suggère qu’elle veut créer un “espace européen unique des données” – c’est-à-dire un géant européen des données qui défiera les grandes entreprises technologiques de la Silicon Valley.

Quand les humains deviennent des cyborgs

Propriété numérique et intégrité corporelle à l’ère des cyborgs humains

Lorsque les cyborgs humains seront dotés de pouvoirs surhumains, ils deviendront des machines de collecte de données avec tous leurs minuscules implants et capteurs, mais où iront ces données et à qui appartiendront-elles ?

Si la technologie devenait une extension de votre propre corps et vous donnait des pouvoirs surhumains, ne voudriez-vous pas savoir si vos capacités vous appartiennent réellement ?

Nous décodons le monde à travers nos cinq sens corporels. Ce que nous voyons, entendons, sentons, ressentons et goûtons entre dans les expériences sensuelles qui composent nos souvenirs, lesquels sont interprétés dans notre cerveau. Nous nous identifions à ces expériences. Elles constituent ce que nous sommes.

Mais que se passerait-il si ces expériences personnelles, ces souvenirs et ces moments intimes n’étaient pas uniquement les nôtres ? Et si un étranger vivait ces mêmes moments tout en sachant exactement ce que vous et moi pensions et ressentions ?

Bienvenue dans l’agenda transhumaniste où les cerveaux humains sont pucés, les corps humains remplis de capteurs, et où les données circulent comme une rivière vers une mer de serveurs auxquels vous n’avez pas accès.

Le dernier jour du World Economic Forum 2020, une discussion sur le thème “Quand les humains deviennent des cyborgs” a tenté d’aborder certaines grandes questions éthiques concernant l’intégrité corporelle et la propriété numérique des cyborgs.

Ilina Singh, professeur de neuroscience à Oxford, a déclaré à Davos que l’une des principales préoccupations des officiers militaires était le sentiment de propriété et celui de l’intégrité corporelle.

“Nous avons parlé à des officiers militaires du monde entier de leurs implants cérébraux”, a déclaré Singh.

“S’ils devaient avoir un implant rétinien qui améliorerait leurs capacités visuelles ou un implant cochléaire qui leur permettrait d’entendre à grande distance – quelles sont les questions éthiques qui se posent à eux ?

“Une question qui est vraiment intéressante est celle de l’intégrité corporelle”, a-t-elle ajouté.

Les officiers militaires étaient surtout préoccupés par des questions telles que :

Est-ce que je possède mon propre implant ?
Est-ce que mon implant fait partie de moi ?
Que se passe-t-il lorsque je quitte l’armée ?
Qui paie pour mon implant ?
Mon implant est-il retiré ?
Est-ce que je peux garder mon implant à vie ?
Mon implant est-il mis à niveau ? Qui paie pour cela ?

Ce type de questions provenant d’officiers militaires souligne que la propriété de l’implant et des données était très importante pour eux.

Biohacking : implant de puce sur scène pour créer un cyborg humain

“On commence à dépasser les limites quand on pense à l’amélioration et à l’augmentation”

Les questions de vie privée concernant l’accès aux pensées de l’utilisateur ou les questions de savoir qui serait réellement responsable des actions du soldat étaient absentes des priorités des officiers.

Il ne s’agissait pas non plus de savoir s’il était ou non éthique d’aller au-delà des utilisations médicales des implants et d’aller directement vers l’amélioration des capacités humaines.

Singh a ajouté que l’armée était un des principaux investisseurs dans les technologies BCI* “parce que ce sont les technologies qui sont considérées comme améliorant les capacités humaines de manière à protéger les soldats mais qui nous permettent de faire beaucoup plus que ce que nous pouvons déjà faire”.

* interface neuronale directe – abrégée IND ou BCI “brain-computer interface” ou encore ICM pour interface cerveau-machine, ou encore interface cerveau-ordinateur.

Alors que l’armée est optimiste quant aux BCI pour l’amélioration de la condition humaine, le président de l’Académie nationale de médecine, Victor Dzau, a déclaré aux élites de Davos que l’utilisation d’interfaces cerveau-ordinateur pour augmenter les humains au-delà de leurs capacités naturelles dépasse la ligne éthique.

“Je pense que vous êtes en terrain assez sûr lorsque vous utilisez ces technologies dans le but de guérir une maladie, de traiter une maladie ou au moins de remédier à un handicap”, a-t-il déclaré.

“Je pense que vous commencez à dépasser les limites quand vous pensez à l’amélioration et à l’augmentation.”

“Lorsque le cerveau humain et le corps humain se remplissent de capteurs, des données sont collectées”.

Outre l’éthique philosophique concernant la fusion des humains avec les machines, d’un point de vue juridique, les cyborgs humains seraient soumis aux lois existantes sur la protection de la vie privée car les cyborgs seraient essentiellement des machines de collecte de données.

L’avocat Ronaldo Lemos a déclaré à Davos que le corps humain serait rempli de capteurs qui collectent et envoient des données à des serveurs éloignés – que ce soit au Brésil, en Chine ou aux États-Unis.

“Quand vous améliorez le cerveau, quand vous remplissez le corps humain de capteurs, ces capteurs sont capables de collecter des données”, a déclaré Lemos.

“Mais l’infrastructure qui est utilisée pour collecter ces données, pour les partager, n’est pas vraiment une nouveauté.

“Si nos cerveaux sont connectés et que vous enregistrez, par exemple, ce que vous pensez, quelles zones de votre cerveau sont stimulées […] ce que vous ressentez, et ainsi de suite – ces données vont être stockées quelque part”, a-t-il ajouté.

Du point de vue de l’avocat, toute personne qui se ferait implanter une puce électronique dans le cerveau dans le futur pourrait un jour devoir fournir des conditions d’accord chaque fois qu’elle entre en contact avec un autre être humain parce que son corps pucé recueillerait des données sur cette autre personne 24 heures sur 24, 7 jours sur 7.

“Nous devenons des capteurs”, a déclaré Lemos, ajoutant : “Lorsque vous rencontrez une nouvelle personne et que vous lui serrez la main, devrez-vous signer une déclaration de confidentialité pour lui parler ?

“Lorsque le cerveau et le corps humain se remplissent de capteurs, des données sont recueillies.

“Et il existe une législation qui exige le consentement d’autres personnes pour collecter des données les concernant. Cela peut sembler un exemple fou, mais la loi l’exige déjà”.

Il a ajouté : “Nous pourrions craquer le code du cerveau humain à un moment donné […] Si nous craquons ce code, nous allons être des cibles beaucoup plus vulnérables pour la publicité, les fausses nouvelles, les campagnes de désinformation, la manipulation des postures politiques, etc.

“Nous parlons du contrôle politique et social des gens”

Le philosophe Lou Marinoff a dit un jour qu’une BCI peut être soit de la médecine, soit du poison.

“Cela remonte à l’ancien enseignement bouddhiste et à d’autres enseignements occidentaux, c’est soit de la médecine, soit du poison. Il peut être utilisé de l’une ou l’autre manière”, a-t-il déclaré.

“Si vous voulez apprendre une langue, il serait beaucoup plus facile de brancher la puce et ensuite de faire fonctionner ces neurones, d’absorber le vocabulaire, et probablement en un temps relativement court vous pourriez parler couramment le mandarin sans avoir à supporter toute la difficulté et la pratique.

“D’autre part,” a-t-il ajouté, “nous parlons du contrôle politique et social des gens”.

“C’est l’histoire d’horreur ultime – qui nous transforme tous en une colonie de fourmis, en gros. Et la dignité humaine, la liberté et toutes les choses auxquelles nous sommes censés attacher de la valeur sont mises à l’écart.

“Qui va contrôler l’IA, et que se passera-t-il si l’IA décide de prendre le relais ?

“Cela conduit à des scénarios qui, jusqu’à présent, avant cette révolution numérique, n’étaient que de la science-fiction, et qui sont maintenant réels, ou potentiellement réels.”

Avec les implants cérébraux qui envoient des données entre les humains et les machines, qui ou qu’est-ce qui tire réellement les ficelles derrière le rideau ?

L’UE abandonne l’idée d’interdire la reconnaissance faciale dans les lieux publics

Selon le dernier draft de la stratégie de l’UE en matière d’intelligence artificielle vu par Reuters et EURACTIV, l’Union européenne n’est plus intéressée par la possibilité d’une interdiction de la reconnaissance faciale dans les espaces publics ; cependant, il devrait y avoir des “critères clairs” dans le futur déploiement à grande échelle des systèmes d’identification biométriques dans l’UE.

Un précédent projet de la Commission européenne avait évoqué l’idée d’un moratoire pouvant aller jusqu’à cinq ans afin de se donner le temps de réfléchir aux moyens de prévenir les abus.

Selon EURACTIV, le document indique “Cette évaluation dépendra de l’objectif pour lequel la technologie est utilisée et des garanties mises en place pour protéger les personnes. Dans le cas où des données biométriques sont utilisées pour la surveillance de masse, il doit y avoir des critères clairs quant aux personnes qui doivent être identifiées”.

L’utilisation de la reconnaissance faciale dans les investigations policières a suscité des inquiétudes, car les défenseurs des libertés civiles et de la vie privée craignent que cette technologie ne soit utilisée pour une surveillance massive et discriminatoire, violant ainsi les droits des personnes à la confidentialité des données.

Le projet de moratoire faisait partie d’un ensemble de mesures plus larges visant à réglementer l’intelligence artificielle et ses défis, en particulier dans les secteurs à haut risque, tels que les domaines de la santé et des transports. La proposition est actuellement en cours de révision et la Commission a l’intention de la présenter le 19 février.

Au début du mois, le gouvernement américain a dévoilé ses propres lignes directrices en matière de réglementation de l’IA, visant à limiter la portée excessive des autorités et a exhorté l’Europe à éviter les approches agressives.

Le président de Microsoft, Brad Smith, a déclaré qu’une interdiction de l’IA par reconnaissance faciale équivaut à utiliser un hachoir au lieu d’un scalpel pour résoudre des problèmes potentiels, tandis que le PDG d’Alphabet, Sundar Pichai, a exprimé son soutien.