Le gouvernement canadien embrasse ouvertement le transhumanisme

Le texte et les diapositives qui suivent sont tirés directement de l’organisation du gouvernement fédéral du Canada, Horizons de politiques Canada. Il s’agit de transhumanisme et de technocratie purs qui visent à “l’intégration physique complète des entités biologiques et numériques” afin de “modifier l’être humain – notre corps, notre esprit et notre comportement“.

Qu’arrive-t-il lorsque la biologie et les technologies numériques fusionnent ?

Dans les années à venir, les technologies bionumériques pourraient être intégrées dans nos vies de la même manière que les technologies numériques le sont présentement. La convergence des systèmes biologiques et numériques pourraient changer notre manière de travailler, de vivre et même d’évoluer en tant qu’espèce. Plus qu’un changement technologique, cette convergence bionumérique pourrait transformer notre compréhension de nous-mêmes et nous amener à redéfinir ce que nous considérons comme humain ou naturel.

La convergence bionumérique pourrait avoir des répercussions profondes sur notre économie, nos écosystèmes et notre société. En nous tenant prêts à l’appuyer, tout en gérant les risques qui en découlent avec soin et en faisant preuve de sensibilité, nous serons en meilleure position pour gérer les considérations sociales et éthiques et pour orienter les conversations concernant les politiques et la gouvernance.

Guidé par son mandat, Horizons de politiques Canada (Horizons de politiques) souhaite amorcer un dialogue éclairé et utile sur les avenirs plausibles de la convergence bionumérique et sur les questions de politiques qui pourraient émerger. Dans ce premier document, nous définissons et explorons la convergence bionumérique – l’importance de l’explorer maintenant, ses caractéristiques, les nouvelles capacités qui pourraient en découler et quelques répercussions initiales sur les politiques. Nous voulons amorcer un dialogue avec un large éventail de partenaires et d’intervenants sur la forme que pourrait prendre notre avenir bionumérique, sur les répercussions que cette convergence pourrait avoir sur les secteurs et les industries, ainsi que sur l’évolution possible de notre relation avec la technologie, avec la nature et même avec la vie.

Qu’est-ce que la convergence bionumérique ?

La convergence bionumérique est l’association interactive, parfois au point de fusion, des technologies et des systèmes numériques, d’une part, et biologiques d’autre part. Horizons de politiques explore trois différentes voies de convergence.

Téléchargez le PDF pour poursuivre la lecture : Explorer la convergence bionumérique

convergence bionumérique

Qu’est-ce que la convergence bionumérique?

Dans cette vidéo, ils parlent de la convergence envisageable du numérique et du vivant, et de ses effets potentiels sur notre vie quotidienne.

Transcription

NARRATEUR : Les technologies numériques et les systèmes biologiques ont commencé à s’imbriquer et à fusionner de manières qui pourraient bouleverser nos hypothèses au sujet de la société, de l’économie, et du corps humain. C’est ce que nous appelons la convergence bionumérique.

Au cours des quarante dernières années, l’économie s’est transformée avec l’évolution numérique des technologies de l’information comme l’lnternet, les téléphones intelligents, les applis, et l’analyse de mégadonnées. La convergence bionumérique pourrait changer la façon dont nous concevons et produisons des biens, révolutionner les soins de santé et l’agriculture, modifier notre environnement, et même changer la façon dont l’être humain évolue en tant qu’espèce.

Aujourd’hui, de nombreuses innovations accélèrent ces changements, mais quels sont les éléments clés à surveiller?

Quelles nouvelles capacités bionumériques pourraient complètement transformer le monde?

AVALYNE DIOTTE : Je suis Avalyne.

MARCUS BALLINGER : Je m’appelle Marcus Ballinger.

ERIC WARD : Je m’appelle Eric Ward.

KRISTEL VAN DER ELST : Je suis Kristel Van der Elst.

PIERRE-OLIVIER DESMARCHAIS : Je m’appelle Pierre-Olivier Desmarchais.

MARCUS : L’idée du bionumérique, c’est vraiment celle de la convergence de deux domaines qu’on considère souvent comme séparés. En gros, on prend quelque chose de biologique et quelque chose de numérique et combine les deux.

Comme la « DragonflEye » par exemple, ce qu’ils font, c’est qu’ils prennent une libellule, donc une entité biologique, et ils lui mettent une puce sur le dos et ils le relient à un capteur qui permet de stimuler les nerfs de l’entité biologique et de contrôler la libellule. C’est une intégration simple de deux choses, assez évidente pour tout le monde.

L’autre, c’est celle où il y a d’énormes avancées dans un domaine qui dépendent d’avancées dans d’autres disciplines. Par exemple, on sait maintenant que les gènes activent ou désactivent des choses, mais on ne sait cela que parce que nous avons des technologies numériques énormes qui permettent de séquencer le génome. On peut utiliser l’intelligence artificielle pour repérer les bons gènes, donc on n’aurait pas pu avoir ces avancées en biologie sans les avancées du numérique.

La troisième possibilité, c’est une convergence plus conceptuelle. On pensait que la vie était plutôt aléatoire et imprévisible, quelque chose de mystérieux. Par contre on considérait les technologies numériques comme hautement prévisibles et précises, on programme un ordinateur pour une tâche particulière, et il n’en dévie pas du tout.

Ce qu’on observe dans cette convergence, c’est qu’on comprend maintenant la biologie. En fait, elle est beaucoup plus prévisible, beaucoup plus proche du numérique, on peut programmer des séquences génétiques ou programmer l’ADN pour faire des tâches spécifiques, donc on peut programmer des organismes d’une façon comparable à ce qu’on faisait pour les machines.

À l’inverse, on constate que les technologies numériques deviennent plus complexes, comme l’intelligence artificielle par exemple, qui se comporte parfois de façon inattendue. À bien des points de vue, elle commence à ressembler à ce qu’on pensait de la biologie, imprévisible, aléatoire, donc quand on y regarde de plus près, on peut voir ça comme l’intégration ou la synthèse de ces deux concepts, plutôt que comme deux éléments séparés.

PIERRE-OLIVIER : Une des idées qui m’a surpris le plus, c’est sans doute l’année dernière, le chercheur chinois qui a donné naissance à ce qu’on appelle les « jumelles CRISPR », qui est une technologie, une biotechnologie qui permet de modifier l’ADN in vitro, et on peut commencer à s’imaginer, au cours des dix à quinze prochaines années, où est-ce que cette technologie-là pourrait nous mener, dans une optique où on pourrait peut-être éliminer certaines maladies et immuniser le corps humain au points d’une génération complète contre certaines maladies. Et aussi c’est la possibilité de personnaliser l’humain dans le futur.

AVALYNE : L’une des choses les plus étranges que j’ai mis du temps à vraiment comprendre, c’est la biologie synthétique, le café moléculaire, par exemple, quand j’ai fait des recherches sur une entreprise à Seattle qui fait du café sans grains. Ils abordent ça du point de vue environnemental, et il y a beaucoup de mouvement dans le bionumérique autour de la durabilité, et ça va de la viande imprimée en 3D, imprimer une poitrine de poulet dans votre cuisine au lieu de l’acheter à la ferme et faire du café synthétique, sans les grains.

MARCUS : Je crois qu’une des choses les plus bizarres était un robot dans lequel on avait implanté des cellules cérébrales. Il n’est pas conscient au même sens que nous, mais il semble prendre des décisions, le cerveau semble décider où envoyer le robot. Je trouve ça vraiment bizarre.

ERIC : Au cours de nos recherches prospectives, nous avons vu émerger l’intégration de nos technologies informatiques en réseau et des systèmes biologiques qui ont évolué sur Terre, et l’apparition d’une troisième entité, quelque chose de nouveau. C’est ça que nous voulons explorer par la prospective.

AVALYNE : Ça pourrait chambouler beaucoup de choses, avec les levures et les bactéries, on peut tout faire à partir de levures. On commence à voir que les gens peuvent fabriquer des choses à la maison qui auraient pris tout un laboratoire de recherche, et c’est ce qui est si intéressant dans le bionumérique, c’est qu’il est accessible.

KRISTEL : Nous pensons que la convergence entre les systèmes biologiques et les systèmes numériques en est au même point où étaient les technologies numériques dans les années 80. Donc, cette convergence bionumérique ouvre la voie à des façons entièrement nouvelles de nous changer, nos corps, notre esprit, nos comportements. Cela nous permet aussi de changer nos écosystèmes, de créer de nouveaux organismes. Nous pourrons aussi d’une façon différente, percevoir, stocker, traiter et transmettre des informations. Nous pourrons aussi restructurer différemment les chaînes d’approvisionnement et la production.

Nous pensons que dans les années qui viennent, nous pourrons avoir une intégration de cette technologie bionumérique, tout comme le sont maintenant les technologies numériques. Nous pouvons aussi être amenés à nous poser des questions sur ce que ça veut dire d’être humain, ce qui est naturel. Par conséquent, vu l’ampleur des implications de la convergence bionumérique, nous devons commencer à réfléchir à ce qui est possible, à ce qu’on veut voir dans le futur pour que nous puissions construire un futur bionumérique que nous voulons.

ERIC : Ce que j’espère pouvoir attendre de cette étude, c’est de faire ressortir une image assez précise d’avenirs plausibles de la convergence bionumérique pour le Canada. J’ai beaucoup d’espoir pour la prochaine génération et ce qu’elle pourra accomplir à mesure que la convergence bionumérique évoluera.

Pendant les décennies des technologies de l’information, nous nous sommes surtout concentrés sur l’économie du savoir. Si on veut éviter de se tromper à l’époque du bionumérique, dans les choix que nous ferons, les connaissances ne suffiront pas. Il faudra aussi de la sagesse.

KRISTEL : La convergence bionumérique aura des impacts sur différentes industries et sur plein de domaines politiques. Pour un analyste, il serait intéressant de commencer à regarder ce qui pourrait arriver. En quoi est-ce que ça impacte en fait mon domaine de responsabilité ? Est ce qu’il y a des changements dans le futur pour lesquels il faut que je me prépare ? Est ce qu’il y a besoin de nouvelles lois qui doivent être créées ? Est ce qu’il y a besoin de changements dans les stratégies politiques afin d’arriver à nos buts ? Est ce qu’il y a des investissements à considérer pour pouvoir saisir les opportunités qui viennent de cette convergence ?

Ou est ce qu’il y a des conversations avec la société qu’on doit mener pour savoir ce que la société veut et comment on peut se préparer justement pour saisir les opportunités sans tomber dans les conséquences inattendues d’une convergence pareille.

Intelligence artificielle : quelles conséquences pour la protection de nos données ?

L’intelligence artificielle est au cœur de nombreux débats en ce qui concerne la confidentialité en ligne, la sécurité et la protection des données des utilisateurs. Avec ses capacités d’analyse décuplées, l’IA est souvent vue comme un outil de protection à fort potentiel. Mais, à l’image des technologies de dématérialisation comme celle du cloud gaming, l’IA est un outil à double tranchant.

La rapidité de calcul et d’analyse de centaines de milliers de données en quelques instants ferait ainsi de l’intelligence artificielle une alliée puissante lorsqu’elle est utilisée à bon escient, selon certains experts. Elle pourrait par exemple permettre de découvrir très rapidement de potentielles failles dans les systèmes informatiques des grandes entreprises, ce qui protégerait les utilisateurs finaux de manière plus efficace contre les pirates informatiques ou les personnes malveillantes.

Certaines entreprises de cybersécurité se spécialisent d’ailleurs dans la protection assistée par l’IA. Mais cela est loin d’être un tableau idyllique, car le potentiel de l’IA vient avec un coût pour la protection des données des utilisateurs. La rapidité et l’efficacité de l’intelligence artificielle lui viennent ainsi en partie de l’incroyable masse de données de laquelle elle a appris.

Cela se fait d’ailleurs souvent aux dépens de la confidentialité. Car pour que ces produits, dont la promesse et le bénéfice sont basés sur l’intelligence artificielle, soient efficaces, il est nécessaire de rassembler et d’analyser les actions de millions de personnes ou même leurs profils personnels.

Même si ces données sont anonymisées, elles permettent parfois de retrouver des informations bien trop personnelles. Plusieurs enquêtes d’investigation par des journalistes du monde entier ont ainsi souligné le danger des services de localisation utilisés par certaines applications, en montrant qu’il était possible de suivre les allers et venues de tout un chacun et d’ainsi de deviner leur identité.

Dans le contexte de la pandémie de COVID, ces questions se sont faites encore plus pressantes. L’utilisation de l’IA permet ainsi déjà de générer des statistiques sur le nombre de personnes qui portent un masque dans les espaces publics à Paris ou à Cannes.

Harold Li, expert en cybersécurité et Vice-Président d’ExpressVPN, avertit ainsi les utilisateurs : “À l’ère du numérique, la protection de la vie privée dépend de notre capacité à contrôler la manière dont nos données sont collectées, stockées, modifiées et supprimées. Tant que nous pouvons le faire de manière responsable, il est possible de respecter la vie privée tout en bénéficiant des progrès technologiques. Mais pour l’instant, lorsque que des données sont utilisées par une intelligence artificielle ou pour le machine learning, il n’existe toujours pas de moyen de récupérer ces données ou de revendiquer leur influence sur le produit final qu’elles ont servi à produire. Il n’est pas non plus évident de savoir si nous pouvons apprendre à une machine à “oublier” quelque chose après qu’elle l’ait “appris””.

En plus de ces problèmes liés à la confidentialité, il est aussi important de garder à l’esprit que les pirates informatiques sont souvent très réactifs quand il s’agit de s’approprier une technologie, quel que soit son niveau de complexité. Il est ainsi possible que l’avenir des cyberattaques réside lui aussi dans les IA. Protéger ses données et sa confidentialité devient donc de plus en plus important. Il est néanmoins possible de maintenir sa confidentialité grâce à quelques solutions simples et peu coûteuses, comme l’installation d’un réseau privé virtuel premium en profitant d’une promo VPN. Un contrôle régulier des permissions de ses applications mobiles permet également de mieux comprendre quels acteurs s’intéressent à quelles données, et ainsi de mieux en contrôler le partage. Un partage qui devrait d’ailleurs toujours aller dans le sens de l’utilisateur.

Julie Khoum
Après environ 10 années dans le digital et la French Tech à Paris, je suis devenue rédactrice et journaliste. Je suis passionnée de sport et par les sujets liés à l’avenir du travail, le digital nomadisme et le développement personnel. Convaincue que nous sommes à une grande ère comportant de multiples changements, j’œuvre pour que ces derniers soient documentés.

Réglementation de la biométrie : Approches globales et questions urgentes

L’AI Now Institute a publié un recueil d’études de cas sur les approches réglementaires de la technologie de reconnaissance biométrique, les leçons tirées et les futures actions de sensibilisation

Dans un contexte de surveillance publique accrue, l’intérêt pour la réglementation des technologies biométriques telles que la reconnaissance faciale et vocale s’est considérablement accru dans le monde entier, sous l’impulsion de la recherche et de la défense des intérêts des communautés. Il se dégage de ce moment un sentiment croissant que des technologies comme la reconnaissance faciale ne sont pas inévitables, et peut-être même pas nécessaires ou utiles.

“Regulating Biometrics: Global approaches and urgent questions”, par Amba Kak, présente huit études de cas détaillées d’universitaires, avocats et experts politiques qui examinent les tentatives actuelles de réglementation des technologies biométriques et donnent un aperçu des promesses et des limites de ces approches. Dans quels domaines la réglementation est-elle capable de déterminer si et comment les technologies biométriques sont utilisées, et dans quels domaines est-elle insuffisante ? En examinant ces questions, ces auteurs experts éclairent les domaines d’engagement, de défense et de réglementation futurs.

Ces essais brossent un tableau du paysage mondial complexe de la réglementation de la biométrie, en mettant en évidence les nombreuses approches adoptées par les partisans de la biométrie, qui réclament un contrôle accru de ces technologies, ainsi que la manière dont les gouvernements ont utilisé la loi comme outil pour étendre ou consolider l’utilisation de la biométrie.

Projet de loi australien sur les services de rapprochement des identités (p.44)

Jake Goldenfein (Faculté de droit de Melbourne) et Monique Mann (Université Deakin) suivent les manœuvres institutionnelles et politiques qui ont conduit l’Australie à créer une grande base de données centralisée de reconnaissance faciale (“The Capability”) à l’usage de divers acteurs gouvernementaux. Ils examinent les échecs de la réglementation pour remettre en cause de manière significative la construction de ce système, voire pour façonner son architecture technique ou institutionnelle.

L’économie (et la pratique réglementaire) que la biométrie inspire : Une étude du projet Aadhaar (p.52)

Nayantara Ranganathan (avocate et chercheuse indépendante, Inde) explique comment le droit et la politique autour du projet indien d’identification biométrique (“Aadhaar”) ont finalement servi à construire des données biométriques comme ressource pour l’extraction de données de valeur par des entreprises privées. Elle explore comment la réglementation a été influencée par les logiques et les cultures du projet qu’elle cherchait à réglementer.

Une première tentative de réglementation des données biométriques dans l’Union européenne (p.62)

Els Kindt (KU Leuven) fournit un compte-rendu détaillé de l’approche du Règlement général sur la protection des données (RGPD) de l’Union européenne en matière de réglementation des données biométriques. Comme de nombreux pays sont sur le point de mettre en œuvre des lois nationales rédigées de manière similaire, elle identifie les lacunes potentielles et souligne les domaines clés pour la réforme.

Réflexion sur la politique biométrique du Comité international de la Croix-Rouge : Réduire au minimum les bases de données centralisées (p.70)

Ben Hayes (Agence AWO, conseiller juridique consultant auprès du Comité international de la Croix-Rouge [CICR]) et Massimo Marelli (chef du Bureau de la protection des données du CICR) expliquent le processus décisionnel du CICR pour formuler sa première politique en matière de biométrie, qui visait à éviter la création de bases de données et à minimiser les risques pour les populations vulnérables dans les contextes humanitaires.

Utilisation par la police de la reconnaissance faciale en live au Royaume-Uni (p.78)

Peter Fussey (Université d’Essex) et Daragh Murray (Université d’Essex), principaux auteurs de l’étude empirique indépendante du procès de la police métropolitaine de Londres sur la reconnaissance faciale en live (LFR-Live Facial Recognition), expliquent comment les normes juridiques et les outils de régulation existants n’ont pas réussi à empêcher la prolifération d’un système dont les effets néfastes ont été démontrés. Ils tirent ainsi des enseignements plus larges pour la réglementation de la LFR au Royaume-Uni et des technologies similaires ailleurs.

Une taxonomie des approches législatives pour la reconnaissance faciale aux États-Unis (p.86)

Jameson Spivack et Clare Garvie (Georgetown Center on Privacy and Technology) écrivent sur les dizaines de lois d’interdiction et de moratoires sur l’utilisation de la reconnaissance faciale par la police aux États-Unis, la plupart d’entre elles menées par des avocats et des organisations communautaires. Les auteurs fournissent une taxonomie détaillée qui va au-delà des grandes catégories d’interdiction et de moratoire, et réfléchissent aux leçons tirées de leur mise en œuvre.

BIPA : La plus importante loi biométrique sur la protection de la vie privée aux États-Unis ? (p.96)

Woodrow Hartzog (Northeastern University) explore les promesses et les pièges de la loi sur la confidentialité des informations biométriques (BIPA) de l’État de l’Illinois et, plus largement, du droit des particuliers à engager leurs propres actions contre des entreprises privées. Il s’interroge sur les limites inévitables d’une loi centrée sur le “consentement éclairé”, un système qui donne l’illusion d’un contrôle tout en justifiant des pratiques douteuses que les gens n’ont pas assez de temps ou de ressources pour comprendre et agir.

Réglementation biométrique ascendante : La réponse de la Communauté à l’utilisation de la surveillance faciale dans les écoles (p.104)

Stefanie Coyle (NYCLU) et Rashida Richardson (Rutgers Law School ; AI Now Institute, NYU) examinent la décision controversée d’un district scolaire de Lockport, New York, de mettre en place un système de reconnaissance faciale et d’objets pour surveiller les élèves. Elles mettent en lumière la réponse de la communauté qui a suscité un débat national et a conduit à une législation à l’échelle de l’État réglementant l’utilisation des technologies biométriques dans les écoles.

Lire le rapport complet (PDF)

France : Reconnaissance faciale dans des lieux publics

Dans un entretien au Parisien, mardi 24 décembre, le secrétaire d’Etat au Numérique a exprimé le souhait de lancer une expérimentation de la reconnaissance faciale en temps réel sur des images de vidéosurveillance. Cette phase devrait durer de six mois à un an, “sous la supervision de la société civile et de chercheurs”, précise le membre du gouvernement.

Francetvinfo, Les Echos

La France lance un programme national d’identification faciale à l’échelle nationale

Les études du CJG – Vers un transhumanisme libéral ?

Actuellement, une révolution médicale est en cours en raison de l’accélération des progrès conjugués dans le domaine des nanotechnologies, des biotechnologies et des sciences cognitives. Il devient désormais possible non plus de simplement soigner ou guérir les êtres humains mais d’améliorer les aptitudes de ceux-ci tant au niveau physique que psychique.

Nous défendons la thèse que ces progrès peuvent être autorisés sous certaines conditions et dans certaines limites. Il n’est pas souhaitable – au nom d’une prétendue nature intangible de l’humanité – de s’opposer au principe même de cette évolution, qui ne s’est jamais interrompue depuis l’apparition des pré-hominidés, et qui permet de vivre plus vieux, en meilleure santé et avec davantage de bien-être.

Nous pensons que l’homme qui en fait librement le choix doit – au nom de le liberté morphologique – se voir reconnaître le droit d’améliorer son organisme et que, au nom du principe d’égalité des chances, ce droit doit devenir accessible à chacun et soit même, progressivement et dans les limites budgétaires disponibles financé par la sécurité sociale. Car les améliorations – impensables aujourd’hui – deviendront indispensables demain.

Il est impératif que le législateur veille à ce que le progrès des technologies s’opère de manière salutaire en traçant des lignes rouges partout où ces technologies risquent de porter atteinte à ces composantes du sujet que sont l’intimité, l’identité, le libre-arbitre, la volonté, l’autonomie, le désir, etc. Notre spécificité ne réside pas dans notre organisme qui évolue depuis toujours mais, dans des principes et valeurs fondamentaux. C’est ceux-là qu’il importe de défendre. C’est sur base de ces derniers que nous proposons d’encadrer le progrès transhumanistes par dix principes régulateurs libéraux.

Une étude réalisée par Corentin De Salle, directeur du Centre Jean Gol

Quelle forme de complicité a rendu Facebook possible ?

L’exemple de Facebook1 permet de remonter à la racine d’une « responsabilité du clic » associant le réflexe corporel – celui de cliquer, commun à toute l’économie du net – et le succès fulgurant d’une révolution globale non pas tant numérique (comme on se plaît à le dire) que politique. Facebook peut être considéré comme un exemple princeps de ce que Foucault nommait les « techniques du corps », exemple dont la valeur repose ici sur sa portée contre-intuitive, puisque l’Internet est réputé réaliser le triomphe de « l’immatériel ». Ainsi, la mystification est totale. La focalisation imaginaire sur la production des biens physiques – telles une voiture ou une paire de chaussures – fait volontiers oublier aux militants écologistes combien les réseaux ont accaparé un potentiel de croissance économique exponentielle qu’eux-mêmes hésitent à intégrer dans leur critique, en raison d’un désir de propager leur propre audience par ces moyens-là, désormais déclarés incontournables. Cette croissance est destinée à devenir ubiquitaire avec l’implantation du réseau 5G (de cinquième génération) et la généralisation de l’Internet des objets, ce qui montre à rebours que le capitalisme n’a pas dit son dernier mot sur les objets matériels : il s’agit par là de créer de toutes pièces une nouvelle phase d’accumulation qui ne laissera aucun geste quotidien en dehors de son emprise jusqu’à s’implanter dans le corps humain. Il s’agit de coloniser sans reste toute chose et tout être, et même les flux de pensée, avec notre consentement imperceptible, au nom de l’argument selon lequel il n’y a rien de mal à promouvoir des technologies si pratiques et si rapides. La croissance économique se présente ainsi sous les espèces d’une communication inoffensive, qu’il convient seulement de « faciliter » dans l’intérêt de tous, au service de bonnes causes, alors qu’elle vise à absorber l’ensemble des sphères non économiques dans sa progression dévorante. Ce faisant, elle parachève l’intégration de toute critique dans l’escarcelle de sa propre valorisation. Elle réussit à éliminer son propre dehors en contribuant à l’inanité de toute opposition politique – ceci dans la mesure même où elle prétend faciliter la diffusion de causes politiques. L’argument selon lequel on doit à Facebook (et d’autres réseaux sociaux) le départ et la diffusion de contestations sociales doit être analysé à l’aune de la croissance de Facebook lui-même, qui, pendant qu’on poussait les représentants de l’État à la démission, engrangeait les bénéfices cachés de ces révoltes : nous avons insensiblement changé de maîtres. La critique de la croissance peut ainsi en rester à la critique fétichiste des objets physiques en éludant les progrès d’une infrastructure de la communication prétendument acceptée pour la bonne cause. Ce faisant, elle nourrit un capitalisme à qui elle demande en même temps de décroître ou de disparaître. Cela démontre par les faits l’inconséquence d’une critique qui ne va pas jusqu’à considérer sérieusement l’affirmation de MacLuhan sur l’identité du message et du média. Que ne faut-il de naïveté ou d’idéologie pour penser qu’une bonne idée se suffit tellement à elle-même qu’elle n’a pas à s’interroger sur ses voies de médiatisation !

Facebook offre un cas d’espèce qui permet de définir un certain type d’enrôlement subjectif et d’éclairer la nature de certains compromis apparemment sans retour. La rumeur qui parlait d’une candidature de Zuckerberg aux élections américaines est à prendre au sérieux, même si la réputation de l’entreprise est désormais entachée : nous savons que le scénario d’un président milliardaire sans expérience politique est possible, aussi le scénario d’un milliardaire de la Silicon Valley président des États-Unis n’est pas à exclure. Comme chacun sait, Mark Zuckerberg a dû répondre en 2018 devant le Sénat américain et le Parlement européen du scandale de la vente des données personnelles à Cambridge Analytica, c’est-à-dire pour avoir transgressé le respect de la vie privée des utilisateurs et avoir permis que soient influencés les résultats des présidentielles Américaines. Mais la dénonciation aussi irrégulière qu’inefficace du monopole des GAFAM2 semble incapable de mener à une poursuite juridique à l’aide des seules lois antitrust américaines, en raison de l’intérêt pour le bien commun dont se targuent les géants du monde numérique : investissement dans la recherche scientifique (qui est cependant bien davantage qu’une recherche désintéressée puisqu’elle porte un vaste projet de société) et accession des particuliers à une multitude de services « gratuits ». Ces lois américaines qui surent dans le passé conduire au démantèlement d’entreprises aussi influentes que la Standard Oil ne s’appliquent plus à la situation actuelle. C’est pourquoi un auteur libéral comme Luc Ferry n’a rien de mieux à proposer aux Européens que de créer leur propre GAFAM. Leur monopole et leur ascension politique a déjà réussi la paralysie du monde politique, au point que la seule « alternative » aux GAFAM américains serait des équivalents européens, ce que les Chinois ont bien compris avant tout le monde avec leurs BATX3. L’arrogance européenne consistant à considérer par provision l’Europe comme naturellement porteuse de valeurs plus hautes – capable de transcender les horreurs américaines et chinoises – est une fois encore sans limites. Mais la menace que font peser les GAFAM sur l’économie et la politique elles-mêmes est la raison pour laquelle ces entreprises sont désormais dans le viseur de tout le spectre politique de droite comme de gauche, y compris américain : elles sont déclarées contrevenir aux règles minimales du libre-échange et inquiètent donc non pas tant pour leurs vertus capitalistes que pour leur nature anticapitaliste4, comme un tricheur à qui on rappelle les règles du jeu, sauf que c’est désormais le tricheur qui fait les règles. Il n’est donc pas étonnant qu’une libérale comme Margrethe Vestager, commissaire européenne à la concurrence (et, depuis le 1er décembre 2019, vice-présidente de la commission européenne en charge du numérique), ait fait de la lutte contre les GAFAM son plus grand défi. Comment en sommes-nous arrivés à une situation où des entreprises en situation de monopole mondial sont devenues à ce point capables de dicter les règles du jeu politique ? Il est possible d’étudier toute la stratégie commerciale de ces firmes pour en tirer des conclusions sur leurs ambitions politiques, dont le transhumanisme est le fleuron idéologique. Mais cette approche ne suffit pas : elle n’explique pas la protestation persistante des utilisateurs même les plus gauchistes et les plus anticapitalistes en faveur de Facebook « malgré leur répugnance », et ceci en dépit des nombreux signaux d’une modification sournoise et fondamentale de la vie politique que Facebook et d’autres ont déjà enclenchée et bientôt remportée. Il n’est que de voir le nombre de lieux qui se disent anticapitalistes et alternatifs, dont le compte Facebook est mieux mis à jour que leur site Internet : ce qui contribue de fait soit à forcer le sympathisant à ouvrir un compte Facebook pour accéder aux contenus, soit à l’exclure de ces mêmes contenus s’il persiste à refuser de se joindre à la communauté Facebook. On conviendra que c’est là un comble pour toute pensée critique. Qu’on en juge par les propos sans fards de Peter Thiel, fondateur de PayPal, actionnaire de Facebook, transhumaniste, libertarien élitiste et adversaire résolu de la démocratie : « Nous sommes engagés dans une course à mort entre la politique et la technologie. Le sort de notre monde dépend d’un seul individu, d’une personne, qui sera capable de bâtir et diffuser des outils technologiques favorisant la liberté et permettant un monde plus sûr pour l’épanouissement du capitalisme5. » Les États, pour rester dans la course, sont sur une pente glissante : la France des droits de l’homme n’a pas craint de faire passer sans débat parlementaire en 2016 un méga-fichier (Titres électroniques sécurisés) qui centralise les informations personnelles et biométriques de tous les Français. L’Europe met à l’essai « à des fins de recherche » un système de contrôle aux frontières européennes (iBorderCtrl) financé par la Commission européenne, qui utilise les technologies de reconnaissance faciale, un détecteur de mensonges et le recueil des données – tout ceci au nom du confort des usagers et de la sécurité collective qui seront les critères décisifs pour l’éventuelle adoption ultérieure de ce système de contrôle. Nous sommes insensiblement, une étape après l’autre, dépossédés du droit de ne pas être traçabilisés et personne ne sait à quoi peut servir dans un avenir incertain la constitution de tels fichiers (dont l’exemple de la Chine donne un certain avant-goût). Il n’y a aucune raison de penser qu’ils ne vont pas continuer de s’étendre en volume et en applications, toujours pour la bonne cause. « On vous protège », affirme désormais péremptoirement le métro parisien pour justifier les caméras de surveillance. Le progrès technologique est vu ici comme un développement autonome, naturel, cosmique en somme, contre lequel seules des interdictions puissantes auraient peut-être une chance de nous sauver du désastre. Il n’y a pas de choix ; il n’y a que des permissions ou des interdictions, des évitements ou des facilitations d’un phénomène qui, pour ainsi dire, se passe sans nous (dans la droite continuation du fétichisme du progrès). Pendant ce temps, nous continuons de nous enfoncer mollement dans la consommation numérique comme dans un sommeil de nos facultés critiques. Je prie le lecteur d’imaginer sur quelle pente nous mène ce faisceau de tendances qui concourent, mises ensemble, à transformer la planète en lieu invivable et sans échappatoire et l’humanité à un troupeau d’enfants qu’on dresse, qu’on surveille, qu’on protège et qu’on évalue.

Or tout se passe ainsi comme si nous avions (presque) tous voté pour Facebook et que nous considérions cette dictature d’un genre nouveau (sans doute difficile à décrypter aux habitudes héritées de l’histoire des dictatures) comme la seule option possible, rapportée à une inoffensive évolution des pratiques – du moins aussi longtemps que quelqu’un d’en haut ne nous en aura pas libérés, comme des enfants pris au piège. C’est dans ce contexte qu’il convient de replacer la demande répétée aux institutions européennes de nous libérer des GAFAM. Se peut-il que tout le monde s’en serve, mais que personne n’en veuille ? Voulons-nous ce que nous désirons, pour reprendre une formule de Lacan ? Personne ne se risque à dire sur quel modèle économique l’Europe pourrait sortir des GAFAM, étant donné qu’une version européenne des GAFAM fondée sur le même modèle économique n’aurait évidemment rien d’émancipateur, sauf à supposer qu’un label européen serait naturellement plus moral qu’un label étranger, comme tend à le croire le vieux chauvinisme européen. Quoi qu’il en soit, les politiques nationales et européennes sont dans l’impasse et leurs représentants sont détestés à la mesure de l’attente exorbitante à leur endroit. Que dire ici des utilisateurs de Facebook ? Ils ne semblent à tout le moins pas faire grand cas ni de leurs données personnelles, ni des projets qu’elles permettent de financer, ni des influences qu’on exerce sur eux. Pourquoi en effet poursuivre les entreprises si le public en redemande ? La même personne qui ne se déclare pas prête à quitter Facebook peut à la fois critiquer la viduité de la plus grande partie des communications échangées sur Facebook, jouer tout de même les « infiltrés » et en appeler à la lutte active contre les GAFAM6. De manière caractéristique, cette argumentation manie soumission et fausse critique sans rien trancher sur le fond. À côté de l’argument pratique, il se développe en particulier une série de « justification par l’infiltration » : être présent sur Facebook permettrait justement d’observer Facebook, voire permettrait de répandre à grande échelle des informations critiques, de lancer des mouvements ou d’accéder soi-même à des informations inaccessibles ailleurs (alors même que tant d’informations sont notoirement des fake news et que tant d’autres sont censurées). Voyons plutôt ce que déclarait l’une des collaboratrices de Facebook au souvenir de l’introduction des News Feed en 2006 :

« Nous nous sommes réveillés avec des centaines de milliers de gens indignés. Pendant la nuit, des groupes Facebook comme “je déteste newsfeed”, “Ruchi [la collaboratrice en question] est le diable” s’étaient constitués. Des reporters journalistiques et des étudiants étaient campés devant les bureaux. Nous avons dû nous faufiler discrètement par la sortie arrière pour quitter le bureau. Des tas de gens nous demandaient de fermer définitivement News Feed. Et la plupart des autres entreprises auraient exactement fait cela, en particulier si 10 % de leurs usagers menaçaient de boycotter le produit. Mais nous ne l’avons pas fait… En fait, News Feed a marché. Au milieu de tout ce bazar, de toute cette indignation, nous avons remarqué quelque chose d’inhabituel. Bien que chacun prétendait le détester, l’activité avait doublé7. »

La mesure de l’action plutôt que celle de l’opinion aura ici été déterminante : non pas ce que vous dîtes, mais ce que vous faites. C’est bien le coup de clic qui aura été décisif, cette sorte de réflexe inscrit dans la peau des utilisateurs de l’ère numérique. Cela porte un nom en théorie néoclassique : ce sont les préférences révélées8. L’écart entre l’indignation affichée des utilisateurs et le succès réel de la chose (« News Feed a marché… l’activité avait doublé ») justifie la poursuite de l’entreprise, ressort ultime de son ascension. Le compromis passé à ce moment-là ouvre une voie qui, semble-t-il, est sans retour : une fois que ce cap fut franchi, Facebook devint en quelques années toujours plus puissant et politiquement hors d’atteinte. Les conditions d’installation initiales furent comme frappées de refoulement. Le compromis originel devient illisible dans ce que Freud nomme les phénomènes de déplacement ou de condensation : le destin du compromis est d’avoir effacé ses propres traces. Il n’empêche que le monde numérique est plein de repentis, tel le fondateur de WhatsApp qui, après avoir revendu l’application à Facebook investit désormais dans la protection des données, laquelle ne change rien au modèle économique de Facebook : elle renforce au contraire sa légitimité écornée. L’opinion d’une gauche imbue d’elle-même selon laquelle nous ne voulons pas de ce modèle de société est contredite par l’ascension arrogante de ce même modèle assise sur une complicité généralisée. Se peut-il alors que les gens ne reçoivent pas autre chose en fait que ce qu’ils veulent vraiment ? Leur véritable désir est-il celui, pur, qui précèderait le moment de corruption, ou bien celui révélé par l’offre qu’ils acceptent gracieusement ? Cette spirale rétroactive ne se ferme sur aucune ontologie subjective susceptible d’endosser l’entière responsabilité du circuit de l’offre et de la demande. Leur vrai désir n’est certainement ni l’un ni l’autre : le désir n’a pas de substance. Lacan a dit que le désir de l’homme, c’est le désir de l’Autre : toutes les gesticulations sur mon désir insatisfait ne valent pas un instant de considération si mon adresse constitue un ralliement secret à cet Autre incarné dans le discours du moment – en attendant le prochain discours. À charge donc pour le critique d’incarner un autre discours. Le moment fictif de corruption (celui où un utilisateur se met à agir d’une manière qu’il réprouve ou prétend réprouver) est lui-même ce point évanouissant d’une subjectivité impossible à objectiver à la fin autrement que dans la somme de ses actes. L’autre sujet, celui de l’inconscient, celui qui articule la structure « je sais bien, mais quand même… », n’est justement pas lisible dans l’ordre du monde algorithmique. Que vous ayez un doute, une mauvaise conscience ou un repentir ne compte pas pour les big data, qui ne font que totaliser des actes. Il s’ensuit que ce réseau social est probablement l’entreprise la plus populiste au monde, à savoir qu’il accorde une certaine fonction politique à la multitude dont il révèle ou façonne une préférence en supplantant imperceptiblement dans son creuset algorithmique toutes les formes connues d’organisation politique.

Mark Zuckerberg ne cesse de protester ingénument (lui aussi) du fait qu’il n’avait aucune autre intention que celle de lancer un réseau efficace et enrichissant pour les utilisateurs. Il nous semble décidément n’avoir à faire qu’à une humanité exclusivement soucieuse de générosité et de partage. Mais l’histoire de Facebook montre que la bonne intention dérape à un endroit de sa collusion obscure avec l’Autre au cours de son processus de multiplication. N’est-ce pas à juste raison que Zuckerberg ne manque jamais de remercier les utilisateurs de l’avancement de son grand projet universel ?

« À un moment, il [Mark Zuckerberg] décida que le principe universel qui vaut ici, c’est celui de l’acte d’engagement. Ce à quoi nous devrions vraiment prêter attention, ce dont il s’assurera que nous y prêtions attention, ce sont les choses qui génèrent de l’engagement. […] Le behaviourisme est ancré dans Facebook. Facebook n’en a pas fait mystère. Facebook est constamment en train d’ajuster ses algorithmes pour essayer de commuter nos états émotionnels positifs, qu’on appelle habituellement le bonheur. C’est l’une des raisons pour lesquelles Facebook mesure le bonheur du mieux qu’il peut, ou du moins c’est ce que pensent ses administrateurs. Voilà pourquoi ils ont conduit des études sur le changement de l’humeur (et cela leur causa des problèmes). C’est le genre d’ingénierie sociale qu’ils veulent mettre en place. C’est l’une des raisons pour lesquelles ils essayent d’appliquer le principe de mesure hédoniste à toutes les espèces9. »

Or Zuckerberg n’a pas mieux à promettre que ses investissements dans le domaine de la connexion télépathique universelle et la disparition de toutes les maladies de la terre, projets qui en d’autres temps seraient passés pour ceux d’un dangereux psychopathe. Lorsqu’il dévoile son projet d’interface cerveau-ordinateur, qui serait capable de transformer le flux des pensées en données partageables et en interaction directe avec les objets connectés, il n’a aucune raison de douter qu’une telle technologie trouvera des utilisateurs, conformément aux principes qui ont fait leurs preuves jusqu’à présent : « Je suppose que ce serait quelque chose que quelqu’un choisirait d’utiliser comme produit10. » Le fantasme de symbiose technologique tire son ressort de la promesse de surmonter la division du sujet par la fusion de l’environnement et de l’individu – en quoi notre civilisation s’avance dangereusement au bord de l’abîme de la responsabilité. Ceci dit indépendamment de la faisabilité de ce projet, qui reste bien sûr incertaine.

Et tandis que la seule solution, mais la plus improbable d’après certains critiques, serait de quitter massivement Facebook, on argue en face qu’il est peine perdue de quitter Facebook (les données étant récoltées partout ailleurs, autant dire qu’il est trop tard) et qu’on ne voit pas comment garder contact avec famille et amis, organiser un événement d’envergure ou lancer un mouvement contestataire sans un service équivalent à celui de Facebook11. Si une étude déplorait un quart de fermeture de comptes Facebook par les utilisateurs américains lors du deuxième trimestre 2018 (mais seulement environ 1 % de baisse d’utilisation active en Europe), Facebook n’est pas menacé et détient suffisamment d’autres services par ailleurs. Chacun sait que lorsque les utilisateurs sont lassés d’un service, il suffit – c’est de bonne guerre capitaliste – d’en proposer un nouveau. Ce point de fuite est caractéristique d’une incapacité croissante des peuples et des individus à dire non, le refus ponctuel étant de toute façon immédiatement réorienté vers une nouvelle offre. Il faut donc le dire : Mark Zuckerberg a dû répondre des opérations de son entreprise, mais les utilisateurs sont à la fin lavés de toute responsabilité. Eux n’ont que de bonnes raisons, ludiques ou sérieuses, et toujours déclarées « pratiques », de rester utilisateurs d’un réseau qui, en vérité produit une accumulation capitaliste exponentielle grâce à leurs données personnelles et met en œuvre une révolution politique. Or ce n’est pas le règlement général sur la protection des données (RGPD) qui change quoi que ce soit à cette politique ; ce dernier parachève la perversion en permettant la récolte des données… avec votre consentement obligatoire, même si celui-ci est obtenu en un clic négligeant. Même si la case cochée par défaut n’est plus légale, on peut se demander quel utilisateur lit à chaque fois l’intégralité des conditions d’utilisation et s’embête d’un long détour pour refuser son accord. De plus le RGPD ne s’applique qu’en cas d’identification personnelle des données, mais ne s’applique pas à leur recueil anonyme à des fins statistiques (certains types de cookies), ce qui égare l’utilisateur. Il s’ajoute à cela un certain nombre de détournements des conditions d’utilisation qui ont été dénoncées en France par l’association la Quadrature du Net. La tactique du plus malin caractérise le recueil du consentement qui n’est pas du tout aussi « univoque » que le prétend le RGPD. En pratique, c’est une demande fastidieuse répétée à chaque nouveau site, renouvelable régulièrement, soumise à des conditions d’utilisation et à des paramétrages qui n’intéressent pas le profane. Le consentement s’obtient en harassant l’utilisateur par une demande répétée faîte dans des conditions qui dérangent sa navigation. Or le consentement obtenu de cette manière est d’ores et déjà l’argument imparable de Facebook dans les plus récentes accusations de collecte de données qui se poursuivent en contournant le règlement européen par le biais d’applications mobiles, faisant de l’utilisateur un « complice12 » par sa négligence même à vérifier les conditions d’utilisation au moment de l’installation d’une application. Nous retrouvons au cœur de la question de la responsabilité la notion de consentement qui est tout sauf « univoque », contrairement à ce que prétend le RGDP. C’est plutôt en se fondant sur une équivoque fondamentale du consentement que Facebook peut continuer à déployer son modèle commercial. Comment Facebook cesserait-il, du reste, de collecter des données, puisque tout son modèle politique et commercial est bâti là-dessus ? Pourquoi fait-on mine tous les quatre matins de redécouvrir la même chose et de s’en offusquer ? Seule l’interdiction pure et simple de l’utilisation commerciale des données mettrait en péril le monopole, voire l’existence de Facebook. Au risque d’avoir un tiers de l’humanité en révolte pour défendre leur réseau social ?

Le mythe d’un Facebook générateur de rassemblement horizontal et de révolutions sociales (printemps arabes, gilets jaunes) oublie que ces révolutions sont retombées comme des crêpes, débouchant ici sur de nouvelles dictatures, là sur des réclamations populistes qui ne démontrent aucunement la capacité des citoyens à concevoir et organiser une nouvelle société, car une nouvelle organisation demande, comme disaient les surréalistes, de changer la vie et non pas seulement de répandre des mots d’ordre sur les réseaux. On ne pourra changer la vie qu’en reprenant la main sur les circuits de production et de décision politique. La « communauté globale » que promeut Facebook pour faire face aux défis globaux (tels le terrorisme, la crise des réfugiés ou le changement climatique13) ne démontre que l’ambition de son fondateur, pas seulement de renvoyer à la société son miroir supposé, mais aussi d’être à la source d’un changement mégalomane de société auquel chacun de nous a renoncé à toute petite échelle (à l’échelle de changer la vie). C’est ainsi qu’un enchaînement d’effets de masse conduit un fantasme ordinaire (qui ne voudrait sauver le monde ?) mais réprimé vers un effroyable degré de réalisation parfaitement combiné à l’apathie générale. Il repose sur la réorientation de toute activité de changement politique vers une émotion cliquée.

Chacun s’émut d’apprendre que « la démocratie est menacée » lorsqu’une frange d’électeurs fut subrepticement influencée pendant la campagne politique de Donald Trump : mais qui met en doute la psychologie behavioriste rudimentaire qui fonde cette affaire, selon laquelle il suffit d’envoyer un message ciblé à la bonne frange d’électeurs et au bon moment pour faire tourner le vent politique ? L’idée fondamentale est que les électeurs, comme les consommateurs, sont des sortes d’animaux manipulables à volonté, et non des sujets responsables de leur vote, quelque légère ou versatile que soit leur opinion. C’est une vision qui n’est ici pas un instant mise en doute : l’homme est un animal qui répond à des signaux. Il n’est donc pas responsable de ce qu’il fait et il convient uniquement de s’assurer de lui trouver un maître pas trop mauvais ou de vérifier les signaux qui lui sont envoyés, au cas où ils seraient malveillants, racistes, sexistes ou encore simplement faux. Il faut protéger la petite tête influençable du citoyen. Il y a beaucoup plus de souci à se faire sur cette définition animalière de l’homme réagissant au premier stimulus venu (comme si rien ne venait de lui et qu’il n’avait aucune responsabilité dans sa réponse) que sur les politiques d’un Trump ou d’un Zuckerberg qui du reste ont été portés au sommet par les peuples – l’un par le vote politique, l’autre par le vote économique. Deux formes de choix social qui ont bien en commun certains principes et certains paradoxes, notamment celui de ne jamais pouvoir refléter le désir supposé de l’individu, et donc de pouvoir donner lieu à des résultats collectifs aberrants, qui relancent, à rebours, l’insondable question de leur rapport à l’individu. Ce dernier évitera ainsi de se demander ce qu’il a à voir avec un résultat collectif dont il croyait ne pas vouloir. L’individu, citoyen ou utilisateur, préférera rejeter en bloc les élites et les représentants, accusés d’avoir menti sur la marchandise, plutôt que de remonter à la racine du compromis passé avec les forces qui le dépossèdent de son pouvoir d’agir. L’exemple de Facebook et d’autres plateformes à l’ascension fulgurante met en évidence par quel compromis imperceptible nous mettons le pied dans un engrenage qui ne tarde pas à apparaître ensuite comme une machine écrasante sur laquelle l’individu n’a plus aucune emprise. Facebook représente en ce sens le récapitulatif fulgurant de toute l’histoire du capitalisme.


Notes :

1Cet article correspond au treizième chapitre de l’ouvrage paru le 5 décembre 2019, reproduit ici avec de légères modifications avec l’accord de l’éditeur : Sandrine Aumercier, Tous écoresponsables ? Capitalisme vert et responsabilité inconsciente, Libre & Solidaire, 2019.

2Google, Amazon, Facebook, Apple, Microsoft

3Baidu, Alibaba, Tencent, Xiaomi.

4Larry Elliott, « Is it Time to Break Up the Tech Giants Such as Facebook ? », The Guardian, 25 mars 2018.

5Fabien Benoit, « Peter Thiel, l’homme qui voulait achever la démocratie », Usbek et Rica, 17 juin 2018.

6 Olivier Erztscheid, « Pourquoi je ne quitte pas (encore) Facebook », Libération, 24 avril 2018.

7 Ruchi Sanghvi, post Facebook, 06 septembre 2016, cité par Andrea Huspeni, « Mark Zuckerberg Reveals the 5 Strategies that Helped Facebook Grow at an Insane Rate », Entrepreneur, 25 mai 2017.

8Olivier Mongin, « Les préférences révélées et la formation de la théorie du consommateur », in Revue économique, vol. 51, n° 5, septembre 2000.

9Alexis C. Madrigal, « Were We Destined to Live in Facebook’s World ? », Entretien avec Siva Vaidhyanathan, The Atlantic, 24 juillet 2018.

11Brian X. Cjen, « Want to #DeleteFacebook ? You Can Try », New York Times, 21 mars 2018.

12Hatim Boumhaouad, « Exploitation des données personnelles par Facebook : l’usager est-il complice ? », The Conversation, 7 avril 2019.

13Alexis C. Madrigal, « The Education of Mark Zuckerberg », in The Atlantic, 20 novembre 2017.

Les 10 principales tendances technologiques pour 2020

Les 10 principales tendances du rapport Gartner mettent en évidence les tendances que les entreprises doivent prendre en compte dans le cadre de leur processus de planification technologique stratégique quinquennal. Ces tendances ont un impact profond sur les gens et les espaces qu’ils habitent.

Les tendances technologiques stratégiques peuvent à la fois créer des opportunités et provoquer des perturbations importantes. Les leaders de l’architecture d’entreprise et de l’innovation technologique doivent évaluer ces grandes tendances afin de déterminer comment les combinaisons de tendances peuvent renforcer leur stratégie d’innovation.

Les 10 principales tendances stratégiques en matière de technologies pour 2020 sont organisées en deux catégories : les espaces axés sur les personnes et les espaces intelligents. Il s’agit d’une organisation non structurée dont le but est de faire connaître l’impact principal et la manifestation de la tendance. Cependant, presque toutes les tendances auront un impact sur les concepts de personnes et les espaces intelligents.

Centré sur les gens :

* L’hyper-automation porte sur l’application de technologies de pointe, y compris l’intelligence artificielle et l’apprentissage machine, afin d’automatiser de plus en plus les processus et d’augmenter les ressources humaines.
* La multiexpérience traite de la façon dont les gens perçoivent, interagissent et contrôlent le monde numérique à travers une large gamme d’appareils et de points de contact sensoriels.
* La démocratisation explore comment créer un modèle simplifié permettant aux gens de consommer des systèmes numériques et de puiser dans une expertise automatisée au-delà de leur formation ou de leur expérience.
* L’augmentation humaine explore comment les humains sont physiquement et cognitivement augmentés par ces systèmes.
* La transparence et la traçabilité se concentrent sur les défis de la confidentialité des données et de l’éthique numérique et sur l’application de la conception, des principes opérationnels et des technologies pour accroître la transparence et la traçabilité afin de renforcer la confiance.

Espaces intelligents :

* Empowered Edge, l’Edge Computing ou “traitement des données à la périphérie” souligne la façon dont les espaces autour de nous sont de plus en plus peuplés par des capteurs et des dispositifs qui connectent les personnes les unes aux autres et aux services numériques.
* Le cloud distribué examine une évolution majeure du Cloud Computing où les applications, plates-formes, outils, sécurité, gestion et autres services sont en train de passer physiquement d’un modèle de centre de données centralisé à un modèle dans lequel les services sont distribués et fournis quand le besoin se fait sentir. Le point de besoin peut s’étendre aux centres de données clients ou jusqu’aux dispositifs de bord.
* Les objets autonomes explorent comment les choses physiques dans les espaces autour des personnes sont améliorées avec de plus grandes capacités pour percevoir, interagir, déplacer et manipuler ces espaces avec différents niveaux de guidage humain, d’autonomie et de collaboration.
* La Blockchain dans la pratique se concentre sur la manière dont la blockchain peut être exploitée dans des cas d’utilisation concrets d’entreprises, en expansion au cours des trois à cinq prochaines années.
* La sécurité de l’IA traite de la réalité de la sécurisation des systèmes alimentés par l’IA qui sont à l’origine des tendances centrées sur les personnes.

Tendance n° 4 : Augmentation humaine

L’augmentation humaine fait référence à l’amélioration des capacités humaines grâce à l’utilisation de la technologie et de la science. Les humains ont toujours utilisé la technologie et la science de cette manière.

Même avant l’introduction de l’ordinateur, des technologies telles que la machine à écrire, la photocopieuse et la presse à imprimer augmentaient la capacité humaine à créer, copier et publier du texte. Les lunettes, les appareils auditifs et les fausses dents sont tous des exemples historiques d’augmentation humaine.

L’ère de l’informatique a ajouté de nouvelles dimensions à l’augmentation humaine. Le traitement de texte, la publication assistée par ordinateur, les pages Web, les blogs et les médias sociaux élargissent considérablement notre capacité à créer et à publier du texte.

Avec l’émergence de nouvelles technologies telles que l’IoT, l’IA, les haut-parleurs intelligents et la réalité virtuelle issus de l’informatique, et les technologies telles que CRISPR provenant de la science biologique, de nouvelles possibilités en matière d’augmentation humaine apparaissent.

L’augmentation humaine explore comment la technologie peut être utilisée pour apporter des améliorations cognitives et physiques en tant que partie intégrante de l’expérience humaine. Au lieu que les ordinateurs et les applications soient en dehors de l’expérience humaine normale, ils deviennent un élément naturel – et parfois nécessaire – de l’expérience humaine quotidienne.

En outre, l’augmentation humaine inclut également des facteurs de la bio-ingénierie qui vont au-delà de l’exploitation des ordinateurs et des applications. Nous sommes déjà sur ce chemin dans une certaine mesure. Pour beaucoup de gens, les smartphones sont un outil essentiel et un compagnon constant. Les réseaux sociaux et les connexions électroniques tels que le courrier électronique sont devenus un lien primordial entre les personnes. Les produits pharmaceutiques ont augmenté l’homme bien avant l’avènement des ordinateurs.

L’augmentation humaine est un excellent exemple d’innovation combinatoire qui regroupe de nombreuses tendances, notamment :

* L’hyper-automation et le développement de systèmes experts pour démocratiser l’accès aux compétences au-delà de l’expérience et de la formation actuelles.
* L’Edge Computing et les objets autonomes, qui existent dans les espaces autour des humains et augmentent leurs capacités.

Augmentation cognitive et physique

L’augmentation humaine influe sur la façon dont nous nous déplaçons, percevons et interagissons dans les espaces physiques et numériques, ainsi que sur la façon dont nous traitons, analysons et stockons les informations. L’augmentation peut être globalement catégorisée en catégories physique et cognitive, bien que les limites entre elles se brouillent avec le temps.

L’augmentation physique améliore les capacités humaines en modifiant leurs capacités physiques inhérentes en implantant ou en hébergeant un élément technologique dans leur corps. Les secteurs de l’automobile, des mines, du pétrole et du gaz et d’autres industries utilisent des dispositifs portables pour améliorer la sécurité des travailleurs. Les appareils vestimentaires stimulent également la productivité sur le lieu de travail dans des secteurs tels que la vente au détail, les voyages et les soins de santé. L’augmentation physique comprend également l’utilisation de la biologie ou d’autres moyens pour modifier le corps humain.

Dans certains cas, l’augmentation physique remplace une capacité humaine perdue par un individu (par exemple une jambe prothétique); mais, dans certains cas, ces capacités de remplacement peuvent dépasser les capacités humaines naturelles.

L’augmentation physique peut être envisagée selon plusieurs dimensions :

Augmentation sensorielle – Audition, vision et autres dispositifs d’augmentation ou implants pour améliorer la perception. La réalité virtuelle, augmentée et mixte est un exemple actuel d’augmentation sensorielle. Dans le secteur des technologies émergentes, diverses entreprises expérimentent des lentilles de contact intelligentes pour détecter les niveaux de glucose dans les larmes et la pression intra-oculaire. Les chercheurs expérimentent également la mise au point d’un “nez électronique” imitant un nez humain.

Augmentation des organes et des fonctions biologiques – L’utilisation d’exosquelettes et de prothèses pour remplacer ou améliorer ces capacités est un domaine élargi de l’augmentation humaine. L’augmentation chirurgicale des yeux a été populaire auprès des golfeurs professionnels. Les implants cochléaires peuvent remplacer les nerfs auditifs non fonctionnels, et une technologie similaire a été utilisée pour reproduire les yeux. L’industrie cosmétique est leader dans l’amélioration des ongles, des cheveux, des yeux et de la forme des parties du corps en utilisant des implants passifs. On peut soutenir que l’industrie pharmaceutique augmente les fonctions biologiques humaines depuis des années. Les nootropiques font référence à l’utilisation de substances naturelles ou synthétiques qui peuvent améliorer les capacités mentales, bien que l’utilisation de ces substances en dehors d’un traitement pour une condition médicale spécifique soit très controversée.

Augmentation du cerveau – Il existe actuellement des implants tels qu’un stimulateur du nerf vague pour traiter les convulsions. Les implants cérébraux sont explorés pour diverses utilisations, notamment le stockage de la mémoire et les implants cérébraux pour décoder les schémas neuronaux et synthétiser la parole. Neuralink tente de développer un implant cérébral permettant de connecter le cerveau humain à des réseaux informatiques.

Augmentation génétique – Les thérapies géniques et cellulaires somatiques sont utilisées de nos jours et considérées comme moralement acceptables. Par exemple, la thérapie génique pour traiter les enfants présentant un déficit immunitaire combiné sévère est un traitement accepté. À l’avenir, la facilité d’accès aux technologies CRISPR et leur faible coût peuvent permettre un vaste génie génétique, bien que les questions éthiques soient importantes.

La cognition est le processus par lequel les humains acquièrent des connaissances grâce à des informations sensorielles, les expériences de vie, l’apprentissage et la réflexion sur ces informations, cette expérience et cette éducation. Les compétences cognitives sont utilisées pour comprendre, traiter, mémoriser et appliquer l’information afin de prendre des décisions et de prendre des mesures. L’augmentation cognitive améliore la capacité de l’être humain à penser et à prendre de meilleures décisions.

L’augmentation cognitive peut se produire par l’accès à l’information et l’exploitation d’applications sur des systèmes informatiques traditionnels et l’émergence d’une interface multiexpérience dans des espaces intelligents. Cela comprend des scénarios d’intelligence augmentée, où les humains et l’intelligence artificielle travaillent ensemble pour améliorer la performance cognitive, y compris la prise de décision et l’apprentissage. En outre, l’augmentation physique qui améliore les sens ou la capacité ou les capacités du cerveau humain alimente de nouveaux modèles d’augmentation cognitive. Cela comprend l’utilisation de médicaments intelligents et d’implants cérébraux pour stocker les souvenirs.

L’augmentation humaine offre la possibilité de réaliser la transformation numérique par la transformation humaine.

Les appareils portables (wearables) sont un exemple d’augmentation physique d’aujourd’hui. Au fur et à mesure que la maturité et l’adoption des technologies portables augmentent, les consommateurs et les employés commenceront à envisager d’autres augmentations physiques pour améliorer leur vie personnelle (c.-à-d. leur santé et leur condition physique) ou pour faire leur travail plus efficacement (c.-à-d. exosquelettes et implants).

Au cours des 10 prochaines années, les niveaux d’augmentation physique et cognitive humaine vont devenir prédominants à mesure que les individus recherchent des améliorations personnelles. Cela créera à son tour un nouvel effet de “consumérisation” dans lequel les employés chercheront à exploiter leurs améliorations personnelles – et même à les étendre – pour améliorer leur environnement de travail. D’ici 2023, 30% des organisations informatiques étendront leurs politiques de BYOD avec “apportez votre propre amélioration” pour prendre en compte les humains augmentés sur le marché du travail.

Aspects culturels et éthiques de l’augmentation humaine

L’augmentation humaine sera l’un des principaux moyens par lesquels les individus interagissent les uns avec les autres et avec les espaces intelligents qui les entourent. Les chefs d’entreprise et les responsables informatiques doivent planifier la manière dont leurs entreprises adopteront, exploiteront et s’adapteront aux changements à venir. Au fur et à mesure que les consommateurs et les employés intègrent une plus grande partie de leur vie dans une augmentation humaine amplifiant l’intelligence, les organisations devront faire face aux problèmes de transparence, de confidentialité et d’autonomie des données.

Lorsqu’elles choisissent des technologies et des méthodologies d’augmentation humaine, les entreprises doivent examiner cinq domaines principaux :

Sécurité. Les technologies d’augmentation humaine doivent atteindre et maintenir un état de risque lié à la sécurité acceptable. Ce risque concerne une surface d’attaque qui n’est plus liée à un dispositif ou à un emplacement physique spécifique, mais qui peut voyager avec le sujet humain.

Vie privée. L’augmentation humaine offre la possibilité d’accéder à des connaissances intimes et à des données relatives à l’humain qu’elle améliore. Ces données doivent être protégées.

Conformité. Les gouvernements et les organismes de réglementation publient fréquemment des réglementations et imposent des exigences de conformité, ce qui rend la conformité extrêmement complexe pour les entreprises mondiales, en particulier parce que les organismes tentent toujours de saisir les implications des technologies d’augmentation humaine.

Impact sur la santé. L’augmentation humaine peut entraîner des conséquences mentales et physiques à long terme qui pourraient ne pas être immédiatement comprises.

Éthique. La mise en œuvre de technologies et de processus d’augmentation humaine pose de graves problèmes d’éthique. Celles-ci incluent des considérations et des évaluations éthiques pour déterminer les vulnérabilités, les risques et les problèmes moraux spécifiques. Par exemple, la fracture numérique se creuse-t-elle au fur et à mesure que les individus nantis peuvent s’augmenter eux-mêmes et leurs enfants, alors que les moins nantis ne le peuvent pas ? Les réponses à ces questions sociétales deviendront de plus en plus importantes.

Les entreprises de tous types et de toutes tailles envisagent l’augmentation humaine pour obtenir divers résultats commerciaux grâce à de nombreux scénarios d’utilisation commerciale avec des horizons temporels différents. Par conséquent, ils doivent prendre en compte les leçons, les recommandations et les principes de l’expérimentation humaine lorsqu’ils commencent intentionnellement à exploiter les capacités d’augmentation humaine pour la transformation humaine.

Les entreprises doivent trouver un équilibre entre deux principes éthiques classiques – préventif et proactif – et adopter ce que Gartner appelle le “principe de précaution” :

Le principe de précaution stipule que “si une mesure ou une politique risque de causer un préjudice grave ou irréversible au public ou à l’environnement, en l’absence d’un consensus scientifique selon lequel il n’y aurait pas de préjudice, la charge de la preuve incombe à ceux qui prennent cette mesure”.

Le principe pro-actionnaire a été formulé par Max More et constitue un principe fondamental du mouvement transhumaniste. Lorsqu’il s’agit d’imposer des mesures restrictives, il présente plusieurs impératifs : “Évaluer les risques et les opportunités en fonction des données scientifiques disponible et non de la perception populaire. Tenir compte à la fois du coûts des restrictions elles-mêmes et des opportunités manquées. Privilégier les mesures proportionnelles à la probabilité et à l’ampleur des impacts et qui ont une valeur d’attente élevée. Protéger la liberté des gens de faire des expériences, d’innover et de progresser.”

Le principe de précaution établit un équilibre entre le principe de précaution et le principe proactif. Il recommande que les organisations aillent de l’avant avec l’innovation, mais uniquement d’une manière qui ne met pas en danger l’individu, l’entreprise ou l’environnement dans son ensemble.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Le gouvernement américain interroge Zuckerberg sur ses plans en matière cryptomonnaie

Mark Zuckerberg a tenté d’expliquer et de justifier les plans de Facebook pour sa cryptomonnaie Libra devant un Congrès américain hostile (The Verge). Maxine Waters, présidente de la Commission des services financiers de la Chambre des représentants, ainsi que de nombreux autres législateurs, ont exprimé des doutes quant à la légitimité et à la fiabilité de Facebook, déclarant à Zuckerberg que “nous sommes très préoccupés par votre projet de créer une monnaie numérique mondiale qui menacerait le dollar américain.

La crypto-monnaie de Facebook s’effondre devant nos yeux

Les critiques disent que la Libra de Facebook menace le pouvoir américain. Zuck dit qu’ils ont tout faux.

Comme l’écrit Mike Orcutt, le PDG de Facebook a une nouvelle stratégie visant à recueillir le soutien des politiciens américains pour son projet de lancement d’une monnaie numérique : faire appel à leur patriotisme. Plutôt qu’un rival du dollar, les régulateurs devraient considérer la Libra comme un instrument du pouvoir géopolitique américain, a déclaré Mark Zuckerberg à plusieurs reprises lors d’une audition de six heures devant le comité du House Financial Services, mercredi.

MIT Technology Review

La France lance un programme national d’identification faciale à l’échelle nationale

La France est sur le point de devenir le premier pays européen à utiliser la technologie de reconnaissance faciale pour donner aux citoyens une identité numérique sécurisée, qu’ils le souhaitent ou non.

Le gouvernement du président Emmanuel Macron, qui dit vouloir rendre l’État plus efficace, fait avancer le projet de déploiement d’un programme d’identification, baptisé Alicem “Authentification en ligne certifiée sur mobile”. Il sera déployée en novembre. Le régulateur des données du pays affirme que le programme viole la règle européenne du consentement et qu’un groupe de protection de la vie privée le conteste devant la plus haute juridiction administrative de France. Il a fallu un peu plus d’une heure à un pirate informatique pour pirater une application de messagerie “sécurisée” du gouvernement cette année, ce qui soulève des inquiétudes quant aux normes de sécurité de l’État.

Rien de tout cela ne décourage le ministère de l’intérieur français.

“Le gouvernement veut amener les gens à utiliser Alicem et la reconnaissance faciale”, a déclaré Martin Drago, un avocat membre du groupe de protection de la vie privée La Quadrature du Net qui a porté plainte contre l’État. “Nous nous dirigeons vers une utilisation massive de la reconnaissance faciale. Peu d’intérêt pour l’importance du consentement et du choix.” L’affaire, déposée en juillet, ne suspendra pas Alicem.

Identités numériques

La France rejoindra ainsi les Etats du monde entier qui s’empressent de créer des “identités numériques” pour donner aux citoyens un accès sécurisé à tout, de leurs impôts et de leurs banques aux factures de sécurité sociale et de services publics. Singapour utilise la reconnaissance faciale et a signé un accord pour aider le Royaume-Uni à préparer son propre système d’identification. L’Inde utilise la balayage de l’iris.

La France affirme que le système d’identification ne sera pas utilisé pour surveiller les résidents. Contrairement à la Chine et à Singapour, le pays n’intégrera pas la biométrie de reconnaissance faciale dans les bases de données d’identité des citoyens. En fait, le ministère de l’Intérieur, qui a développé l’application Alicem, affirme que les données de reconnaissance faciale recueillies seront supprimées lorsque le processus d’inscription sera terminé. Cela n’a pas empêché les gens de s’inquiéter de son utilisation abusive potentielle.

“Se lancer dans la reconnaissance faciale à ce stade est un risque majeur” en raison des incertitudes sur son utilisation finale, a déclaré Didier Baichere, un législateur du parti au pouvoir qui siège à la commission “technologies du futur” du Parlement et qui est l’auteur d’un rapport sur ce sujet en juillet. Permettre l’utilisation de masse avant de mettre en place des freins et contrepoids appropriés est “ridicule”, a-t-il déclaré.

Image publicitaire du ministère de l’Intérieur pour Alicem.

Sans consentement

L’application exclusivement Android et portant le blason de la République française, que Bloomberg a pu consulter, sera le seul moyen pour les résidents de créer une identité numérique légale et la reconnaissance faciale en sera l’unique catalyseur. Un identifiant sera créé par le biais d’une inscription unique qui consiste à comparer la photo de l’utilisateur figurant dans son passeport biométrique à une vidéo selfie prise sur l’application qui capturera les expressions, les mouvements et les angles. Le téléphone et le passeport communiqueront via leurs puces intégrées.

Les opposants affirment que l’application enfreint potentiellement le règlement général européen sur la protection des données, qui rend obligatoire le libre choix. Emilie Seruga-Cau, qui dirige le service des affaires régaliennes à la CNIL, le régulateur indépendant du pays pour la protection de la vie privée, a déclaré que ses préoccupations étaient “très claires”.

La sécurité est une autre préoccupation. Les autorités disent que la sécurité d’Alicem est au “plus haut niveau de l’Etat”. Pourtant, en avril, Robert Baptiste, un pirate informatique qui se fait appeler Elliot Alderson sur Twitter, a pu accéder en 75 minutes à l’une des applications “hautement sécurisées” du gouvernement, ce qui soulève des questions sur la résilience de la sécurité en ligne de l’État.

“Le gouvernement ne devrait pas se vanter que son système est sécurisé, mais accepter d’être contesté”, a déclaré Baptiste.” Ils pourraient débloquer des primes pour la découverte de bugs critiques avant de commencer, parce que ce serait grave si des failles étaient découvertes après que les gens commencent à l’utiliser, ou pire si l’application est piratée lors de l’inscription, lorsque les données de reconnaissance faciale sont recueillies”.

Fuite d’une base de données de reconnaissance faciale en Chine

Les législateurs de l’opposition s’inquiètent de l’intégration de la reconnaissance faciale dans les lois permettant de suivre les manifestants violents, comme lors des manifestations du gilet jaune. Drago, qui conteste les projets du gouvernement sur les questions de confidentialité et de consentement, a déclaré que l’absence de débat “permet à l’État d’aller de l’avant, sans entraves”.

Pendant ce temps, les tests de reconnaissance faciale se multiplient. La surveillance par caméra en direct dans les rues du Pays de Galles a été jugée légale ce mois-ci par un tribunal de Londres. L’Allemagne, les Pays-Bas et l’Italie l’utilisent pour accélérer les contrôles aux frontières. En août, l’autorité suédoise de protection des données a infligé une amende à la municipalité de Skelleftea pour avoir testé la reconnaissance faciale d’élèves du secondaire afin de mesurer leur fréquentation. Apple Inc. a banalisé l’utilisation de la biométrie pour déverrouiller les téléphones portables.

La nouvelle Commission de l’UE, dont le mandat débute en novembre, a notamment pour objectif la construction d’une “Europe digne de l’ère numérique”. Un document de politique interne de la Commission décrivait en détail les mesures que l’UE devrait prendre pour maîtriser les technologies de l’intelligence artificielle, y compris la reconnaissance faciale.

“L’utilisation généralisée d’un équivalent de l’ADN public est un défi pour les régulateurs”, a déclaré Patrick Van Eecke, spécialiste de la vie privée et des données chez DLA Piper à Bruxelles. “L’utilisation par la France de la reconnaissance faciale pour l’identité numérique peut être envisagée de deux façons : elle va trop loin en termes de respect de la vie privée, ou elle utilise la nouvelle technologie la plus sûre.

Bloomberg, Numerama