La France lance un programme national d’identification faciale à l’échelle nationale

La France est sur le point de devenir le premier pays européen à utiliser la technologie de reconnaissance faciale pour donner aux citoyens une identité numérique sécurisée, qu’ils le souhaitent ou non.

Le gouvernement du président Emmanuel Macron, qui dit vouloir rendre l’État plus efficace, fait avancer le projet de déploiement d’un programme d’identification, baptisé Alicem “Authentification en ligne certifiée sur mobile”. Il sera déployée en novembre. Le régulateur des données du pays affirme que le programme viole la règle européenne du consentement et qu’un groupe de protection de la vie privée le conteste devant la plus haute juridiction administrative de France. Il a fallu un peu plus d’une heure à un pirate informatique pour pirater une application de messagerie “sécurisée” du gouvernement cette année, ce qui soulève des inquiétudes quant aux normes de sécurité de l’État.

Rien de tout cela ne décourage le ministère de l’intérieur français.

“Le gouvernement veut amener les gens à utiliser Alicem et la reconnaissance faciale”, a déclaré Martin Drago, un avocat membre du groupe de protection de la vie privée La Quadrature du Net qui a porté plainte contre l’État. “Nous nous dirigeons vers une utilisation massive de la reconnaissance faciale. Peu d’intérêt pour l’importance du consentement et du choix.” L’affaire, déposée en juillet, ne suspendra pas Alicem.

Identités numériques

La France rejoindra ainsi les Etats du monde entier qui s’empressent de créer des “identités numériques” pour donner aux citoyens un accès sécurisé à tout, de leurs impôts et de leurs banques aux factures de sécurité sociale et de services publics. Singapour utilise la reconnaissance faciale et a signé un accord pour aider le Royaume-Uni à préparer son propre système d’identification. L’Inde utilise la balayage de l’iris.

La France affirme que le système d’identification ne sera pas utilisé pour surveiller les résidents. Contrairement à la Chine et à Singapour, le pays n’intégrera pas la biométrie de reconnaissance faciale dans les bases de données d’identité des citoyens. En fait, le ministère de l’Intérieur, qui a développé l’application Alicem, affirme que les données de reconnaissance faciale recueillies seront supprimées lorsque le processus d’inscription sera terminé. Cela n’a pas empêché les gens de s’inquiéter de son utilisation abusive potentielle.

“Se lancer dans la reconnaissance faciale à ce stade est un risque majeur” en raison des incertitudes sur son utilisation finale, a déclaré Didier Baichere, un législateur du parti au pouvoir qui siège à la commission “technologies du futur” du Parlement et qui est l’auteur d’un rapport sur ce sujet en juillet. Permettre l’utilisation de masse avant de mettre en place des freins et contrepoids appropriés est “ridicule”, a-t-il déclaré.

Image publicitaire du ministère de l’Intérieur pour Alicem.

Sans consentement

L’application exclusivement Android et portant le blason de la République française, que Bloomberg a pu consulter, sera le seul moyen pour les résidents de créer une identité numérique légale et la reconnaissance faciale en sera l’unique catalyseur. Un identifiant sera créé par le biais d’une inscription unique qui consiste à comparer la photo de l’utilisateur figurant dans son passeport biométrique à une vidéo selfie prise sur l’application qui capturera les expressions, les mouvements et les angles. Le téléphone et le passeport communiqueront via leurs puces intégrées.

Les opposants affirment que l’application enfreint potentiellement le règlement général européen sur la protection des données, qui rend obligatoire le libre choix. Emilie Seruga-Cau, qui dirige le service des affaires régaliennes à la CNIL, le régulateur indépendant du pays pour la protection de la vie privée, a déclaré que ses préoccupations étaient “très claires”.

La sécurité est une autre préoccupation. Les autorités disent que la sécurité d’Alicem est au “plus haut niveau de l’Etat”. Pourtant, en avril, Robert Baptiste, un pirate informatique qui se fait appeler Elliot Alderson sur Twitter, a pu accéder en 75 minutes à l’une des applications “hautement sécurisées” du gouvernement, ce qui soulève des questions sur la résilience de la sécurité en ligne de l’État.

“Le gouvernement ne devrait pas se vanter que son système est sécurisé, mais accepter d’être contesté”, a déclaré Baptiste.” Ils pourraient débloquer des primes pour la découverte de bugs critiques avant de commencer, parce que ce serait grave si des failles étaient découvertes après que les gens commencent à l’utiliser, ou pire si l’application est piratée lors de l’inscription, lorsque les données de reconnaissance faciale sont recueillies”.

Fuite d’une base de données de reconnaissance faciale en Chine

Les législateurs de l’opposition s’inquiètent de l’intégration de la reconnaissance faciale dans les lois permettant de suivre les manifestants violents, comme lors des manifestations du gilet jaune. Drago, qui conteste les projets du gouvernement sur les questions de confidentialité et de consentement, a déclaré que l’absence de débat “permet à l’État d’aller de l’avant, sans entraves”.

Pendant ce temps, les tests de reconnaissance faciale se multiplient. La surveillance par caméra en direct dans les rues du Pays de Galles a été jugée légale ce mois-ci par un tribunal de Londres. L’Allemagne, les Pays-Bas et l’Italie l’utilisent pour accélérer les contrôles aux frontières. En août, l’autorité suédoise de protection des données a infligé une amende à la municipalité de Skelleftea pour avoir testé la reconnaissance faciale d’élèves du secondaire afin de mesurer leur fréquentation. Apple Inc. a banalisé l’utilisation de la biométrie pour déverrouiller les téléphones portables.

La nouvelle Commission de l’UE, dont le mandat débute en novembre, a notamment pour objectif la construction d’une “Europe digne de l’ère numérique”. Un document de politique interne de la Commission décrivait en détail les mesures que l’UE devrait prendre pour maîtriser les technologies de l’intelligence artificielle, y compris la reconnaissance faciale.

“L’utilisation généralisée d’un équivalent de l’ADN public est un défi pour les régulateurs”, a déclaré Patrick Van Eecke, spécialiste de la vie privée et des données chez DLA Piper à Bruxelles. “L’utilisation par la France de la reconnaissance faciale pour l’identité numérique peut être envisagée de deux façons : elle va trop loin en termes de respect de la vie privée, ou elle utilise la nouvelle technologie la plus sûre.

Bloomberg, Numerama

Les implants cérébraux pourraient nous rendre télépathiques

Nous pourrions bientôt être en mesure de communiquer par télépathie, grâce à des interfaces cerveau-ordinateur.

C’est du moins l’essentiel du nouveau rapport de la Royal Society, une organisation scientifique britannique, sur la technologie des implants neuronaux, qui a été examiné par The Independent. Le document présente certaines des choses les plus intéressantes que les interfaces cerveau-ordinateur pourraient rendre possibles, mais il avertit également que le fait de connecter le cerveau à un ordinateur pourrait également compromettre la vie privée des individus.

“Non seulement les pensées, mais aussi les expériences sensorielles, pourraient être communiquées d’un cerveau à l’autre”, peut-on lire dans le rapport. “Quelqu’un en vacances pourrait téléporter une carte postale neurale de ce qu’il voit, entend ou goûte dans l’esprit d’un ami à la maison.”

La communication cerveau à cerveau chez les humains pourrait bientôt devenir une réalité

Neuralink veut connecter votre cerveau à Internet

Pour veiller à ce que ces implants neuronaux du futur profitent aux citoyens et à la société, la Royal Society demande au gouvernement de mener une enquête sur la technologie, rapporte The Independent. Sinon, les entreprises privées comme Facebook, qui travaillent déjà sur leurs propres systèmes, seront en mesure de dicter l’utilisation de la technologie selon leurs propres conditions.

“Ils pourraient apporter d’énormes avantages économiques au Royaume-Uni et transformer des secteurs tels que le NHS (National Health Service), la santé publique et les services sociaux”, a déclaré Christofer Toumazou à The Independent, l’ingénieur et co-président du rapport de l’Imperial College London. “Mais si les développements sont dictés par une poignée d’entreprises, des applications moins commerciales pourraient être mises de côté. C’est pourquoi nous appelons le gouvernement à lancer une enquête nationale”.

The Independent

Selon un scientifique, la “puce cérébrale” d’Elon Musk pourrait être un suicide de l’esprit The New York Observer

Facebook fait des progrès sur son casque de lecture de l’esprit

Mastercard teste la biométrie comportementale

Mastercard a conclu un accord avec l’opérateur du secteur des télécommunications basé aux Emirats Arabes Unis pour explorer comment sa technologie biométrique comportementale NuDetect peut être utilisée pour effectuer des paiements sécurisés et transparents via les smartphones des utilisateurs à travers le Moyen-Orient et l’Afrique.

NuDetect utilise machine learning et est le produit phare développé par NuData Security, acquis par Mastercard en 2017. Mastercard avait déjà identifié l’Afrique, où 95 % des transactions sont effectuées en espèces, comme un marché pouvant bénéficier des paiements mobiles sécurisés.

Le nouveau protocole d’accord avec « du », qui a été rebaptisé Emirates Integrated Telecommunications Company (EITC) en 2007, prévoit d’analyser la « biométrie passive » – à savoir la manière dont une personne tape, tient son téléphone, déplace sa souris ou encore l’endroit où elle utilise son téléphone – pour anticiper et prévenir les transactions frauduleuses sans présence de carte, y compris les paiements en ligne. Le processus consiste à vérifier l’identité de l’utilisateur et ne cause aucune difficulté ou interruption dans la transaction.

Les mots de passe disparaîtront progressivement d’ici 2025

« Dans le monde connecté d’aujourd’hui, les études indiquent que le développement d’une expérience utilisateur plus fluide est une priorité absolue pour plus de 90 % des commerçants lorsqu’ils évaluent leur approche sur la sécurité transactionnelle. » déclare Gaurang Shah, vice-président de Mastercard, Paiements Digitaux  & Labs, Moyen-Orient et Afrique. « Partant de ce constat, il est essentiel de veiller à ce qu’une expérience utilisateur fluide soit contrebalancée par une authentification robuste. Notre solution NuDetect répond à ces préoccupations en déployant une analyse de données innovante pour offrir des interactions numériques transparentes et sûres. Nous sommes heureux de nous associer à du pour mettre en place ce produit de pointe, lequel procurera plus de confiance à chaque transaction. »

« du s’engage à offrir à ses clients des interactions rapides et pratiques. Cet engagement joue un rôle important dans notre succès continu. Notre partenariat avec Mastercard nous permettra de rationaliser davantage le processus de paiement des consommateurs à travers une variété de points de contact, tout en maintenant les plus hauts niveaux de sécurité transactionnelle. Nous sommes enthousiastes à l’idée d’explorer l’énorme potentiel de NuDetect, et nous nous réjouissons à l’avance d’une collaboration longue et fructueuse. »

NuData Security A Mastercard Company, Mastercard Newsroom

IA : A notre service, et non à nos dépens

Nous nous dirigeons inexorablement vers un futur automatisé et une intelligence artificielle aux possibilités quasi illimitées. Il nous faut impérativement peser toutes les implications éthiques de cette nouvelle technologie et nous attaquer aux défis légaux et sociaux sans précédent qui risquent d’apparaître.

Les nouvelles technologies nous obligent parfois à nous interroger sur ce qui fait l’homme. C’est en tout cas vrai pour l’intelligence artificielle, dont les implications potentielles sont si considérables qu’elles appellent un effort de réflexion. Voilà des décennies qu’elle hantait notre imagination collective, aujourd’hui elle fait irruption dans nos vies.

Les récents progrès de l’intelligence artificielle, notamment en matière d’apprentissage machine (machine learning) et d’apprentissage profond (deep learning), montrent que ces systèmes peuvent surpasser les hommes dans de nombreux domaines, y compris les tâches exigeant une certaine dose de raisonnement cognitif. L’intelligence artificielle peut donc être une source formidable de progrès et de bienfaits pour l’humanité, mais elle pourrait aussi ébranler les fondements socio-économiques et politiques de la société humaine.

Avant de s’interroger sur les implications éthiques de l’intelligence artificielle, il faut d’abord préciser en quoi elle consiste, aujourd’hui. Lorsqu’on parle d’intelligence artificielle, on entend généralement « l’intelligence artificielle restreinte », ou « l’intelligence artificielle faible », conçue pour accomplir une tâche spécifique : analyser et fluidifier la circulation, recommander des produits en ligne à partir d’achats antérieurs, par exemple. Cette IA faible existe déjà, mais elle va se complexifier et imprégner davantage notre vie quotidienne.

Nous ne parlons pas ici de ce qu’on appelle l’« IA forte » ou l’« IA générale », telle que la dépeignent tant de romans et de films de science-fiction. Elle serait supposément capable d’accomplir toute la gamme des activités cognitives humaines, et même, selon certains experts, d’accéder à un relatif degré de « conscience ». Nous sommes encore loin d’un consensus quant à la faisabilité et aux perspectives de mise en œuvre d’une telle intelligence artificielle.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Une collecte sans fin de données

L’apprentissage machine et l’apprentissage profond exigent une grande quantité de données historiques et de données recueillies en temps réel, si l’on veut que le système d’intelligence artificielle puisse « apprendre » sur la base de son « expérience ». Leur développement a aussi besoin d’infrastructures permettant à l’intelligence artificielle de réaliser ses tâches ou objectifs à partir de ce qu’elle aura appris. Notre réflexion sur les implications éthiques de l’intelligence artificielle doit tenir compte de l’environnement technologique complexe dont elle a besoin pour fonctionner et qui englobe la collecte permanente des données de masse (big data) issues de l’Internet des objets, leur stockage dans le nuage informatique (cloud), leur utilisation par l’intelligence artificielle pour alimenter son processus d’« apprentissage » et la mise en œuvre des analyses ou des activités de l’intelligence artificielle dans les villes intelligentes, les véhicules autonomes, les robots, etc.

Plus le développement technologique devient complexe, plus les questions éthiques qu’il soulève se complexifient. Et si les principes éthiques restent immuables, notre manière de les aborder pourrait changer radicalement, au risque, sciemment ou non, de les remettre gravement en question.

Notre conception de la vie privée, de la confidentialité et de l’autonomie, par exemple, pourrait se trouver totalement transformée. Grâce à des applications ou dispositifs appelés smart (intelligents, malins) qui sont devenus des instruments de la communication des réseaux sociaux comme Facebook ou Twitter, nous divulguons « librement » et volontairement nos informations personnelles, sans pleinement cerner quels usages pourront être faits de ces données, et par qui. Elles sont ensuite transmises à des systèmes d’IA essentiellement développés par le secteur privé.

Ces données restent nominales, si bien que les informations concernant nos préférences et habitudes peuvent être utilisées pour créer des modèles de comportement permettant à l’intelligence artificielle de nous adresser des messages à caractère politique, par exemple, ou de nous vendre des applications commerciales ou encore de stocker des informations concernant notre suivi médical.

Qui a besoin de la démocratie quand on a des données ?

Le meilleur et le pire

Serait-ce la fin de notre vie privée ? Quid de la sécurité et de la vulnérabilité des données aux actions de piratage ? L’État ne pourrait-il pas s’en emparer pour contrôler la population, au probable détriment des droits humains individuels ? Un environnement d’intelligence artificielle qui, à toute heure, surveille nos préférences et s’en sert pour nous proposer différentes options, ne risque-t-il pas de limiter notre liberté de choix et notre créativité ?

Autre question importante : les données utilisées par l’intelligence artificielle pour apprendre ne risquent-elles pas d’être pétries d’idées reçues et de préjugés, pouvant éventuellement entraîner des décisions discriminatoires ou stigmatisantes ? Cela rendrait vulnérables notamment les systèmes d’intelligence artificielle chargés de relations avec le public ou de la distribution de services sociaux. Nous devons être conscients que certaines données, comme celles qui sont produites sur l’Internet, contiennent des informations qui sont le reflet du meilleur comme du pire de l’humanité. Par conséquent, on ne peut pas se fier uniquement à l’intelligence artificielle pour tirer des leçons à partir de ces données sans courir des risques sur le plan éthique. Une intervention humaine directe est indispensable.

De la fin de la vie privée au transhumanisme, le monde selon Google

Peut-on enseigner à l’intelligence artificielle un comportement éthique ? Pour certains philosophes, il est des expériences – notamment d’ordre esthétique et éthique – qui sont inhérentes à l’être humain et, par conséquent, non programmables. D’autres estiment que si la morale peut être rationnelle, c’est qu’elle peut être programmée, mais qu’il convient de respecter la liberté de choisir.

« L’État ne pourrait‑il pas s’emparer des données pour contrôler la population, au probable détriment des droits humains individuels ? »

Actuellement, il n’y a pas consensus sur la question de savoir si l’éthique et la morale peuvent être enseignées aux hommes en s’appuyant uniquement sur la raison. Dès lors, comment y en aurait-il un quand il s’agit de les enseigner à l’intelligence artificielle ! Et en imaginant qu’une intelligence artificielle puisse être un jour programmée pour être éthique, de quelle éthique s’agirait-il ? Celle des développeurs ? Le développement de l’intelligence artificielle est essentiellement entre les mains du secteur privé dont les idées sur l’éthique peuvent ne pas être conformes à celles qui prévalent dans la société.

Pour que l’intelligence artificielle puisse travailler à notre service, et non à nos dépens, nous devons engager un débat de fond qui prenne en compte les points de vue éthiques de tous ceux qui sont concernés. Et, face aux bouleversements qu’elle pourrait provoquer dans la société, veiller à ce que le cadre éthique dans lequel s’inscrira son développement futur prenne en compte aussi la question plus large de la responsabilité sociale.

Spécialiste du programme au sein de la section Bioéthique et éthique des sciences à l’UNESCO, Tee Wee Ang (Malaisie) a travaillé en ingénierie de la conception et en ingénierie de gestion, avant de rejoindre l’Organisation en 2005.

Docteur en psychologie et bioéthique, Dafna Feinholz (Mexique) dirige la section Bioéthique et éthique des sciences à l’UNESCO. Elle a été secrétaire générale de la Commission nationale mexicaine de bioéthique.

Le Courrier de l’UNESCO • juillet-septembre 2018

Quels risques éthiques ?

Marc-Antoine Dilhac répond aux questions de Régis Meyran

L’intelligence artificielle permet d’accroître l’efficacité de certaines mesures discriminatoires qui existent déjà : profilage racial, prédiction de comportement, voire repérage de l’orientation sexuelle des personnes. Les questions éthiques qu’elle soulève ainsi requièrent la mise en place d’une législation capable d’assurer un développement responsable de l’intelligence artificielle.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Quels problèmes posent les logiciels d’analyse du comportement à partir d’images filmées ?

L’intelligence artificielle contribue à améliorer l’usage préventif des systèmes de vidéosurveillance dans les espaces publics. Désormais les images sont analysées en continu par des logiciels qui détectent les actes d’agression et peuvent rapidement donner l’alerte. Ce nouveau système est expérimenté par exemple dans les couloirs du métro parisien, à la station Châtelet. Si l’on accepte le principe de la vidéosurveillance, le seul problème que pose l’usage de l’intelligence artificielle est le risque d’erreur, et ce risque n’est pas très élevé, puisque ce sont des humains qui doivent prendre la décision finale d’intervenir ou non.

Néanmoins, les erreurs dans la reconnaissance faciale sont très fréquentes. Il suffit d’une perturbation dans l’image pour que l’intelligence artificielle voie un grille-pain au lieu d’un visage ! Le sentiment d’une surveillance abusive et la multiplication des erreurs peuvent devenir particulièrement anxiogènes.

Par ailleurs, il y a lieu de s’inquiéter des dérives qui risquent de découler de ces systèmes intelligents et des méthodes de profilage (racial, social) qu’ils pourraient solliciter.

À quel type de dérives faites-vous allusion ?

Je pense notamment aux programmes, appliqués dans plusieurs pays, visant à identifier les « comportements terroristes » ou le « caractère criminel » de certaines personnes, par le biais de la reconnaissance faciale. Leurs traits de visage dénonceraient donc leur criminalité intrinsèque !

Alarmés par cette résurgence de la physiognomonie, Michal Kosinski et Yilun Wang de l’université de Stanford (États-Unis) ont voulu montrer les dangers de cette théorie pseudoscientifique que l’on croyait reléguée à l’histoire et qui consiste à étudier le caractère d’une personne à partir des traits et des expressions de son visage. Pour attirer l’attention sur les risques d’atteinte à la vie privée, ils ont créé en 2017 le « gaydar », un programme qui vise à identifier les personnes homosexuelles d’après leur photographie ! Selon les auteurs, la marge d’erreur du programme n’est que de 20 %. Outre l’effet de stigmatisation, l’application de cette technologie violerait le droit de chacun à ne pas révéler son orientation sexuelle.

Toute recherche scientifique sans repères philosophiques et sans boussole sociologique ou juridique est susceptible de poser des problèmes éthiques. Ces quelques exemples que je viens d’évoquer montrent qu’il est urgent d’imposer un cadre éthique à la recherche en IA.

Qu’en est-t-il des dérives eugénistes ?

À mon sens, l’intelligence artificielle ne constitue pas a priori un facteur d’eugénisme. Certains prédisent l’avènement d’un monde où l’être humain pourrait être amélioré grâce à l’utilisation de l’intelligence artificielle : puces qui augmentent la mémoire ou perfectionnent la reconnaissance faciale, etc. Si la robotique intelligente peut apporter des solutions médicales à des situations de handicap (rendre la mobilité grâce à des prothèses sophistiquées), l’hypothèse transhumaniste de l’homme augmenté reste quant à elle de l’ordre de la science-fiction.

Professeur adjoint en éthique et philosophie politique à l’Université de Montréal, Marc-Antoine Dilhac (France) est titulaire de la Chaire de recherche du Canada en éthique publique et Co-directeur de l’axe éthique et politique du Centre de recherche en éthique (CRÉ).

Le Courrier de l’UNESCO • juillet-septembre 2018

Une technologie pour lire les émotions des employés chinois

Des projets de surveillance soutenus par le gouvernement déploient une technologie de lecture du cerveau pour détecter les changements dans les états émotionnels chez les employés de la chaîne de production, de l’armée et à la tête des trains à grande vitesse

Les travailleurs en Chine sont connectés à des appareils de lecture de cerveau qui transmettent des informations sur leurs humeurs à leurs employeurs, ce qui soulève des inquiétudes quant à la confidentialité des émotions les plus élémentaires. Les systèmes pourraient représenter un “tout nouveau niveau” d’abus de la vie privée.

Les capteurs électroniques intégrés aux chapeaux et aux casques sont utilisés en Chine sur une échelle sans précédent pour lire les émotions des employés, rapporte le South China Morning Post, dans ce que les entreprises disent faire partie de l’amélioration de l’efficacité et de la productivité.

Bien que les détails sur le fonctionnement de la technologie ne soient pas clairs, les rapports suggèrent que les appareils utilisent des capteurs légers et des algorithmes d’intelligence artificielle pour surveiller les ondes cérébrales et détecter les pics d’émotions tels que la rage, l’anxiété et la dépression. Ils peuvent être dissimulés dans des casques de sécurité ou des chapeaux uniformes, et transmettre des données à des ordinateurs auxquels les employeurs ont accès.

Credit The Telegraph

Les scientifiques décodent les pensées, lisent l’esprit des personnes en temps réel

Certaines entreprises ont indiqué qu’elles utilisaient cette technologie pour surveiller les niveaux de stress des travailleurs afin qu’ils puissent ajuster leurs rythmes de production, les flux de travail et la durée des temps de pause en conséquence, en augmentant l’efficacité et en améliorant potentiellement les moyens de subsistance de leur personnel. L’idée est que le système donne aux entreprises l’occasion de stimuler le moral des travailleurs avant que la détresse émotionnelle puisse causer un problème, pas après.

“Lorsque le système émet un avertissement, le manager demande au travailleur de prendre un jour de congé ou de passer à un poste moins critique”, a déclaré Jin Jia, professeur agrégé de sciences du cerveau et de psychologie cognitive à l’Université de Ningbo, où l’un des projets de surveillance du cerveau a eu lieu. “Certains emplois exigent une forte concentration. Il n’y a pas de place pour une erreur.”

Le machine-learning peut lire votre électroencéphalographie (EEG) et découvrir vos habitudes

Cheng Jingzhou, un responsable du système de surveillance de la State Grid Zhejiang Electric Power à Hangzhou, dans la province orientale du Zhejiang, a déclaré que le système avait connu un énorme succès. Cheng a déclaré que son entreprise, qui compte 40 000 employés, a vu ses bénéfices augmenter d’environ deux milliards de yuans (315 millions de dollars) après le déploiement du système en 2014. “Il n’y a aucun doute sur son effet”, a-t-il ajouté.

Et si vous pouviez « voir » directement dans le cerveau d’une autre personne ?

Les travailleurs qui utilisent l’équipement de balayage cérébral ont montré qu’ils craignaient une atteinte à la vie privée encore plus envahissante. Jia Jia a déclaré que certains utilisateurs pensaient que nous pouvions lire dans leurs pensées. Cela a causé un certain inconfort et une certaine résistance au début.

Qiao Zhian, professeur de psychologie de gestion à l’Université de Beijing, a déclaré que le manque de réglementation de la technologie mettait en péril la vie privée des utilisateurs. “L’employeur peut être fortement incité à utiliser la technologie pour augmenter ses profits, et les employés sont généralement dans une position trop faible pour dire non”.

Il a ajouté : “La vente des données de Facebook est assez mauvaise. La surveillance du cerveau peut porter l’abus de la vie privée à un tout autre niveau.”

Les Chinois sont, sans doute, parmi les personnes les plus surveillées sur Terre. Le gouvernement équipe de nombreuses caméras avec reconnaissance faciale, surveille le revenu des citoyens et leur activité sociale afin de déterminer leur pointage de crédit social. Un score inférieur peut affecter les opportunités d’emploi, les options de voyage et bien plus encore.

The South China Morning Post (SCMP), The Telegraph, MIT Tech Review

Fujitsu étend sa plate-forme biométrique multimodale en tant que service à l’Australie

La plate-forme biométrique multimodale de Fujitsu est maintenant disponible en Australie grâce à un accord de partenariat avec ImageWare Systems suite à des collaborations réussies en Europe et en Amérique du Nord. La solution basée sur le cloud permettra aux entreprises australiennes de déployer et de gérer l’authentification biométrique centralisée et de prendre en charge l’authentification biométrique multimodale via des appareils mobiles tels que les smartphones, les tablettes et les ordinateurs portables.

En tirant parti d’une architecture centralisée, la solution permet de vérifier les nouvelles informations biométriques par rapport aux bases de données biométriques existantes d’une organisation afin de réduire la fraude, ce qui n’est pas possible avec les solutions de jumelage. Selon l’annonce, les organisations tirant parti des solutions d’authentification unique (SSOSingle Sign-On) et d’accès à distance peuvent désormais améliorer la sécurité de tous les utilisateurs grâce à ce service d’authentification multifacteur.

«Grâce à cet accord avec ImageWare Systems, nos clients ont accès à un portefeuille amélioré de solutions de sécurité biométriques qui réduisent les obstacles au déploiement d’une authentification biométrique hautement sécurisée», a commenté Mike Foster, directeur général de Fujitsu Australie et de Nouvelle-Zélande.

Jim Miller, Président et CEO d’ImageWare Systems, a ajouté: « Cet accord étend nos activités de marketing et de vente avec Fujitsu à de nouvelles régions en vue d’une offre véritablement mondiale. La capacité mondiale de Fujitsu étend la portée de la technologie biométrique multimodale brevetée d’ImageWare en tant qu’élément central du portefeuille de cybersécurité de Fujitsu à travers le monde. »

pour en savoir plus à propos de la solution biométrique en tant que service « Biometrics-as-a-Service (BIOaaS )
Plate-forme cloud mondiale Fujitsu

La technologie de reconnaissance faciale sera utilisée lors des JO 2020 de Tokyo

Les Jeux Olympiques et Paralympiques de Tokyo 2020 déploieront la technologie de reconnaissance faciale de NEC sur les sites de jeux afin de filmer les athlètes, le personnel et les journalistes, rapporte le Japan Times.

NEC lance un logiciel d’IA – NeoFace – avec une recherche individuelle spécifique

La technologie devrait accroître la sécurité en empêchant l’utilisation de cartes d’identité qui ont été empruntées, volées ou contrefaites, et peut-être aussi réduire les temps d’attente. Des sources sans nom ont déclaré au Times que le processus d’entrée des spectateurs sera le même que celui des Jeux olympiques précédents.

Le système a été testé au centre d’information de Japan House lors des Jeux olympiques de 2016 à Rio de Janeiro. Le rapport qualifie la technologie de NEC comme l’une des plus précises au monde, et capable de distinguer les jumeaux identiques et ceux qui ont subi une chirurgie esthétique.

Visa annonce un projet pilote pour les cartes de paiement biométriques

Visa a annoncé des projets pilotes pour la mise en place d’une nouvelle carte de paiement EMV biométrique à double interface pour des transactions avec et sans contact, en partenariat avec Mountain America Credit Union et Bank of Cyprus. Ces projets vont tester l’utilisation de la reconnaissance d’empreintes digitales comme alternatives au PIN ou à la signature pour authentifier le détenteur de la carte.

Les mots de passe disparaîtront progressivement d’ici 2025

Les cartes de paiement sont équipées de capteurs intégrés de la série FPC1300 de Fingerprint Cards. La technologie biométrique fournie par Gemalto est utilisée dans le cadre du projet pilote de Bank of Cyprus, tandis que le projet de Mountain America Credit Union utilise la solution de Precise Biometrics, une solution algorithmique de lecture d’empreintes digitales basé sur Precise BioMatch Embedded, ainsi que la technologie fournie par Kona-I.

« Je suis heureux que nous fassions partie des premiers essais sur le marché américain pour les cartes de paiement biométriques à double interface d’un fournisseur mondial de solutions de paiement. L’intérêt pour les cartes de paiement biométriques est élevé et Precise Biometrics est à l’avant-garde dans ce domaine », note Torgny Hellström, président du conseil d’administration de Precise Biometrics.

Zwipe a annoncé plus tôt ce mois-ci qu’il collaborerait avec Gemalto pour fournir sa capacité de récupération d’énergie et son moteur biométrique pour le projet pilote de Bank of Cyprus, tandis que Precise Biometrics et Kona-I ont déjà établi des partenariats avec Fingerprint Cards.

« La collaboration est essentielle dans l’écosystème des cartes à puce et des paiements. Nous sommes fiers de participer à ces essais de marché inédits avec Visa, le leader mondial des paiements numériques. Cela signifie que nous entrons dans la phase suivante de l’exécution de notre stratégie pour les cartes de paiement biométriques à double interface », déclare Thomas Rex, Vice-président principal chez Fingerprint Cards.

Le projet pilote a été annoncé à l’occasion du NRF Big Show 2018 de la National Retail Federation et sera géré par le programme Visa Ready for Biometrics, qui, selon la société, est un nouveau programme vertical destiné à répondre à la demande croissante d’authentification biométrique.

Un système de lecture labiale automatique pourrait mettre fin aux mots de passe tels que nous les connaissons

« Le monde se dirige rapidement vers un avenir sans mots de passe, car les consommateurs réalisent à quel point les technologies biométriques peuvent leur faciliter la vie », explique Jack Forestell, responsable des solutions commerciales mondiales chez Visa Inc..

Alors que les paiements électroniques augmentent considérablement dans le monde, Visa s’engage à développer et à investir dans des capacités émergentes offrant une expérience de paiement meilleure et plus sécurisée.

HSBC a publié un nouveau rapport de recherche intitulé « Faire confiance à la technologie »

La carte authentifie les utilisateurs en faisant correspondre une empreinte digitale prise au point de vente d’une agence bancaire, les données de référence des empreintes digitales sont stockées directement sur la puce sécurisée de la carte. Elle est équipée de voyants verts et rouges pour indiquer le succès ou l’échec de l’authentification, et est compatible avec les terminaux de paiement avec ou sans contact existants.

Les projets pilotes de Mountain America Credit Union et de Bank of Cyprus débuteront au début de 2018.

traduction Thomas Jousse

Visa Inc., Gemalto, Business Wire, Reuters, BiometricUpdate

L’EAB lance un forum suédois sur la biométrie

L’Université d’Halmstad, en coopération avec l’Association européenne pour la biométrie (EAB – European Association for Biometrics), organise la réunion de lancement du Swedish Biometrics Forum le vendredi 26 janvier 2018.

Le but du forum est de réunir des chercheurs, des entreprises, des agences et d’autres parties prenantes pour une réunion d’une journée à Halmstad pour discuter de nouvelles idées et de nouveaux défis et où les conférenciers invités parlent de leurs recherches ou activités dans la région.

L’ordre du jour comprend : Le professeur Christoph Busch sur la biométrie et la détection des attaques ; Diane Friberg sur l’inscription biométrique libre-service et l’authentification biométrique, expérience au Pays-Bas et au Royaume-Uni avec Idemia Secure Identity; Lena Klasén sur les activités du Swedish National Forensic Centre (NFC); Mattias Wecksten et Olga Torstensson sur l’éducation médico-légale à l’Université Halmstad; Patrick Bours sur la sécurité du chatroom, le comportement de la personne par la dynamique des frappes, la biométrie douce et la sémantique ; et, Eric Setterberg sur les activités des cartes d’empreintes digitales AB en biométrie.

L’EAB est un organisme à but non lucratif qui cherche à promouvoir l’utilisation correcte et bénéfique de la biométrie en Europe – dont le membre d’honneur n’est autre que Bernard Didier (anciennement Morpho (Groupe Safran)) reconnu internationalement comme l’un des chefs de file de la biométrie – en tenant compte des intérêts des citoyens européens, des industries, des universités et des gouvernements. L’Association européenne pour la biométrie est la principale plate-forme européenne multi parties prenantes pour la biométrie. Elle engage les parties prenantes de tous les pays européens, y compris la Commission européenne et le Parlement européen, en créant un réseau paneuropéen de points de contact nationaux et de plates-formes en fournissant un programme qui répond aux besoins communs.

Les rapports sur la biométrie