Le Great Reset : mythes et réalités

Le Great Reset mythes et réalitésLe Great Reset est l’idée à la mode des élites mondialisées qui gravitent autour du Forum de Davos. Mais que signifie-t-il au juste ? S’agit-il, comme on le lit parfois, du dernier projet néo-libéral destiné à balayer nos services publics ? Ou bien est-il le complot pour une domination du monde dont parlent certains ? Ce projet mérite d’être analysé et compris, car il risque d’avoir un vrai impact sur notre vie quotidienne dans les années à venir.

Le Great Reset, c’est l’appel officiel à utiliser la pandémie et les confinements pour changer les comportements sociaux et sociétaux, une occasion historique d’accélérer la quatrième révolution industrielle, celle de la digitalisation. C’est aussi un éloge de l’intervention de l’État pour imposer la transition écologique et l’économie circulaire. C’est encore une justification à la surveillance de tous les individus grâce à Internet et à la reconnaissance faciale.

Loin des fantasmes, cet opuscule propose une lecture littérale du livre de Klaus Schwab, fondateur du Forum de Davos, co-écrit avec Thierry Malleret (ancien conseiller de Michel Rocard), « COVID-19 : La grande réinitialisation » publié en juillet 2020 et en donne une interprétation conforme à sa lettre : ni complot, ni parole en l’air, le Great Reset formalise une aspiration profonde, à la fois étatiste et écologiste, qui structure la pensée dominante d’aujourd’hui.

Éric Verhaeghe, 52 ans, est ancien élève de l’ENA. Il a quitté l’administration en 2007 pour exercer diverses fonctions patronales. Il a créé plusieurs entreprises, dont Tripalio, spécialisée dans le droit des conventions collectives. Il assume ses prises de position libertariennes et anime « Le Courrier des Stratèges ».

“The new normal” ou “La nouvelle norme”

Nous sommes en janvier 2021, le monde est verrouillé et notre économie est au bord de l’effondrement. Les nouveaux vaccins permettront-ils de revenir à la normale ou marquera-t-il un tournant dans l’évolution de l’humanité ? The New Normal, un documentaire factuel de 50 minutes, enquête sur la quatrième révolution industrielle, sur ce que les 1% ont à gagner et ce que le reste d’entre nous est sur le point de perdre.

En enquêtant sur l’origine de la citation – Never far from the lips of authority figures across the globe since early 2020 – The New Normal, réalisé par Happen.network et dont le contenu provient d’Oracle Films, explore les véritables raisons qui se cachent derrière les fermetures et l’hystérie pandémique exagérée qui entoure le Sars-coV-2, et découvre les origines d’un agenda très réel et sombrement menaçant qui pourrait être au cœur de tout cela.

La grande réinitialisation.

HOLD-UP le documentaire censuré en version intégrale

https://tprod.fr/project/hold-up/

La pandémie de la Covid-19 a donné lieu à des échanges contradictoires entre médecins, spécialistes, professeurs, hommes politiques et experts, le tout orchestré et alimenté par le feu nourri des médias. Les scientifiques se sont ainsi retrouvés discrédités avec notamment l’affaire du Lancet. Le Conseil scientifique, censé piloter cette pandémie, est ouvertement accusé d’incompétence et d’arrogance, preuves à l’appui. Et nous dans tout ça ? Que penser ? Que faire avec toutes ces informations ? Qui croire ?

Ce sont les questions auxquelles le documentaire HOLD-UP tente de répondre en partant à la rencontre de soignants, chercheurs, experts, juristes offrant une autre lecture sur cette crise sans précédent et dénonçant une batterie de mesures gouvernementales jugées inefficaces pour la plupart.

La censure n’a pas sa place ici, nous assumons de publier ce documentaire qui permet de s’interroger et de se poser les bonnes questions. Ce documentaire montre également les enjeux et ce qui se joue ici et maintenant : Quel sera le monde après la COVID-19 ? Dans quel monde voulez-vous vivre demain ?

Nous nous dirigeons vers un bouleversement systémique du monde d’un ancien monde vers un monde nouveau, provenant de la combinaison d’une nouvelle révolution techno-scientifique. Un monde digital, mondialisé, aux connexions ultra rapides. Les technologies qui sont d’un intérêt particulier pour les transhumanistes comme l’intelligence artificielle, associées aux données de masse (big data), la biométrie (reconnaissance de l’iris, reconnaissance vocale, reconnaissance du réseau veineux, reconnaissance faciale), l’IoT, les nanotechnologies, la robotique, la blockchain, la cryptomonnaie…. préparent la quatrième révolution industrielle à l’aube du Grand Reset.

Cela fera bientôt 6 ans que nous publions sur ces technologies perturbatrices. La plupart des gens le prennent à la légère puisqu’ils pensent que cela ne les affecte pas, mais la vérité est toute autre. Ces technologies anéantissent totalement les marchés existants et les remplacent par de nouveaux, plus avancés technologiquement. Les gens semblent encore être totalement inconscients des dangers qui les attendent. La technologie de reconnaissance faciale est hors de contrôle et les implications sont profondes. Vous pensez sérieusement que le cybercontrôle en Chine et l’omni-surveillance de sa population pour écraser la dissidence restera en Chine ?

La pandémie COVID-19 a redéfini et reconfiguré la nature et la condition humaine.

Klaus Schwab du WEF a promu le Great Reset comme un moyen de “maîtriser la quatrième révolution industrielle”, un terme qu’il a inventé et qui, a-t-il déclaré en janvier 2016, “affectera l’essence même de notre expérience humaine”.

“The theme of the World Economic Forum Annual Meeting 2016 in Davos is Mastering the Fourth Industrial Revolution. The Fourth Industrial Revolution will bring change at a speed, scale and force unlike anything we’ve seen before. It will affect the very essence of our human experience”.

Schwab a alors décrit la quatrième révolution industrielle comme “une fusion des technologies qui brouille les lignes entre les sphères physique, numérique et biologique”.

Donc, on vous le rappelle, ces technologies comprennent le génie génétique comme l’édition du génome avec CRISPR, l’intelligence artificielle, la robotique, l’Internet des objets (IoT), l’impression 3D, l’informatique quantique…ect.

La quatrième révolution industrielle n’est rien d’autre que la mise en œuvre du transhumanisme au niveau mondial.

Il y a deux mois, nous avons publié le rapport Kaspersky qui visait à clarifier les points de vue des citoyens de plusieurs pays sur la perspective du biohacking (transhumanisme). Et l’année dernière, le rapport Gatner sur les 10 principales tendances technologiques pour 2020 comprenant l’augmentation humaine (le transhumanisme).

Nous sommes à la croisée des chemins.

Vous avez le droit de vous interroger. Vous avez le droit de vous posez des questions. Vous avez le droit d’être intelligent. Vous êtes à même de comprendre, ne remettez pas en cause votre propre capacité de compréhension. C’est ce que nous avons essayer de faire ici depuis 6 ans, en publiant une information accessible au plus grand nombre tout en fournissant plusieurs pistes de réflexion.

Le Grand Reset et la quatrième révolution industrielle

Alors que l’intérêt pour les technologies de la quatrième révolution industrielle a connu un pic à la suite de la COVID-19, moins de 9 % des entreprises utilisent actuellement des technologies avancées telles que l’apprentissage machine, la robotique ou même les écrans tactiles. De quoi les entreprises ont-elles besoin pour accélérer l’adoption des technologies et comment peuvent-elles éviter les problèmes qui découlent d’un manque de gouvernance ?

pour augmenter le volume ↑

Samsung tweete des plans mystérieux pour dévoiler un “humain artificiel”

Samsung prévoit de dévoiler ce qu’il appelle un “humain artificiel” appelé NEON lors du Consumer Electronics Show, qui débute le 7 janvier.

Depuis quelques semaines, une série de messages provenant des comptes officiels des médias sociaux de NEON posent la même question dans plusieurs langues : ” Avez-vous déjà rencontré un ‘ARTIFICIEL’ ? – avec un message partagé le 27 décembre qui disait que “NEON = HUMAIN ARTIFICIEL”.

À l’exception de ces posts et d’un site web de NEON qui se vante d’avoir un compte à rebours pour le CES 2020, Samsung n’a pas eu grand-chose à dire sur le projet – mais bizarrement, le cinéaste et acteur indien-britannique Shekhar Kapur a posté pas mal de choses à ce sujet sur les médias sociaux, suggérant qu’il pourrait être impliqué d’une certaine manière dans le projet .

“Enfin, une intelligence artificielle qui vous demandera lequel d’entre vous est réel”, lit-on dans un des récents tweets de Kapur, et un autre qui invite les visiteurs du CES à s’arrêter au coin NEON pour en savoir plus sur “une intelligence artificielle qui est votre meilleur amie”.

Une chose que Samsung dira à propos de NEON, est qu’il n’est pas lié à l’assistant numérique Bixby, alimenté par l’intelligence artificielle de l’entreprise.

“Honoré d’avoir autant de couverture avant même que nous ne dévoilions le produit”, a tweeté le compte officiel de NEON. “Mais contrairement à certaines rumeurs, NEON n’a rien a voir avec Bixby, ou quoi que ce soit que vous ayez vu auparavant.”

Il semble que nous devrons simplement attendre quelques jours pour savoir exactement ce que Samsung a créé – et si c’est à la hauteur du battage médiatique de la société.

Digital Trends

La quatrième révolution

Après la troisième révolution industrielle déclenchée par l’Internet et l’Internet mobile, les technologies de l’intelligence artificielle, associées aux données de masse (big data), préparent une quatrième révolution qui bousculera probablement les équilibres mondiaux.

Yang Qiang répond aux questions de Wang Chao

Comment s’est opérée la convergence entre l’intelligence artificielle et les données de masse ?

Cette convergence date du début des années 2000. Quand Google et Baidu – les nouveaux moteurs de recherche de l’époque – ont utilisé l’intelligence artificielle pour créer des systèmes de recommandation personnalisée pour leurs annonces publicitaires, ils se sont aperçus que les résultats étaient bien meilleurs que ce à quoi ils s’attendaient. Et plus ils collectaient de données sur chaque utilisateur, meilleurs étaient les résultats. Mais, à l’époque, personne n’avait compris que ce serait aussi le cas dans d’autres domaines.

Le vrai tournant est survenu avec ImageNet, la plus grande base de données de reconnaissance d’images du monde. Créée par des informaticiens des universités de Stanford et de Princeton, aux États-Unis, elle a donné le coup d’envoi de la révolution de l’apprentissage profond (deep learning). La vaste quantité de données visuelles réunies par ImageNet a permis de réduire de 10 % le taux d’erreurs d’identification. Cela a montré que la convergence entre l’apprentissage profond et des données de masse permettait la maîtrise de calculs extrêmement complexes.

Comment définiriez-vous le rapport entre l’apprentissage profond et les données de masse ?

C’est une relation de renforcement mutuel. Si un système d’intelligence artificielle est bien conçu, il n’en sera que plus commode à utiliser, plus précis, et donc plus utile. Il y aura de plus en plus d’utilisateurs, et donc plus de données, qui, à leur tour, amélioreront le système. Fusionnées, les données de masse et l’intelligence artificielle peuvent donner naissance à un nouveau type d’intelligence artificielle, qu’on peut appeler « données intelligentes ».

Comment les entreprises peuvent-elles s’adapter à cette nouvelle donne ?

La première chose à faire, avant de vous lancer dans une activité quelconque, c’est de réfléchir à la façon dont vous allez collecter les données. Vous devez aussi connaître vos besoins en fonction des algorithmes et collecter les données – de sources différentes – dans un but précis. Enfin, les services fournis par un système logiciel devraient pouvoir stimuler la source pour qu’elle produise plus de données, qui, à leur tour, viendront alimenter le système, formant ainsi une « boucle fermée ». Cela crée un processus continu d’auto-amélioration et d’auto-ajustement du système. La conception d’une « boucle fermée » est un processus très différent de celui qu’on utilisait jusqu’ici pour les activités économiques.

Pouvez-vous nous en dire davantage sur ce concept de « boucle fermée » ?

La première chose à prendre en considération, ce sont les fournisseurs de données – les utilisateurs, par exemple. Tous leurs comportements doivent être enregistrés sous forme de données. Ensuite, il faut tenir compte des prestataires de services, comme WeChat Pay, le porte-monnaie mobile chinois, ou Taobao, le site Web de commerce électronique chinois. La rétroaction intelligente s’appuie sur les données pour comprendre les besoins des utilisateurs. Ceux-ci fournissent des données en retour au prestataire de service, et celui-ci fournit à son tour les données de service aux utilisateurs. Tout cela forme une « boucle fermée ».

Pour aller vite, la boucle doit être entièrement automatisée et le processus d’actualisation fréquent (plusieurs fois par jour), de sorte que le système soit constamment mis à jour. Il doit être continu, aussi, pour que les utilisateurs soient incités à envoyer en permanence des informations en retour. Bref, le processus doit être court, fréquent et rapide.

« L’IA remodèlera vraiment la société humaine, lui donnera sa forme future »

À votre avis, combien de temps faudra-t-il avant que cette « boucle fermée » devienne une réalité ?

Je pense que le développement de l’intelligence artificielle se fera en deux temps. Dans une première phase, tous les secteurs d’activité essaieront d’utiliser la technologie. Par exemple, les services de sécurité et de protection utiliseront la technologie de reconnaissance faciale ; le secteur bancaire utilisera l’intelligence artificielle pour maîtriser les risques, et ainsi de suite. Ce sont là des technologies et des solutions uniques qui servent des secteurs qui existent déjà.

La seconde phase verra apparaître des secteurs industriels entièrement nouveaux, au cœur desquels on trouvera l’intelligence artificielle. Par exemple, une banque qui utiliserait l’intelligence artificielle comme technologie fondamentale pourrait lui laisser l’entière maîtrise de ses placements, de ses services et de ses crédits. Les employés de banque n’auraient plus qu’à procéder à quelques petits ajustements. Il serait aussi possible de créer des systèmes de service à la clientèle d’un genre entièrement nouveau.

Une IA a réalisé 360 000 heures de travail en quelques secondes

Je pense que c’est dans cette seconde phase que l’intelligence artificielle remodèlera vraiment la société humaine, lui donnera sa forme future. Ce sera un peu comme à l’époque de l’apparition de l’Internet : au début, une librairie traditionnelle créait une page Web et se considérait comme une librairie en ligne – ce qu’elle n’était pas. Ce n’est que plus tard que des sites Web comme Amazon sont apparus.

La combinaison des données de masse et de l’intelligence artificielle pourrait aussi menacer la vie privée et l’équité sociale.

Cette combinaison engendrera de nouveaux modèles économiques qui seront excellents. Toutefois, la condition préalable à la mise en œuvre de ces modèles économiques à grande échelle est de garantir la vie privée de ses utilisateurs. Là, nous avons trois problèmes à régler :

D’abord, il nous faut créer des règles sociales et juridiques protégeant la propriété des données, disant clairement quand les données peuvent être utilisées et quand elles ne le peuvent pas. Les données des utilisateurs devraient être classées dans différentes catégories : rouge, pour les données entièrement protégées, jaune, pour celles à accès limité et verte, pour celles qui sont libres d’accès. Il n’y a aucun consensus à l’heure actuelle sur le classement des données. De plus, il n’existe aucune loi qui définirait le profil de la personne responsable et les sanctions encourues en cas d’infraction à ces règles de droit.

Ensuite, il faut protéger techniquement la confidentialité des données. À titre d’exemple, 4Paradigm (prestataire de service et de technologie d’IA installé à Beijing) se penche actuellement sur « l’apprentissage de la migration » des données (migration learning) pour protéger la vie privée, ce qui est un domaine relativement nouveau. Par exemple, l’entreprise A élabore un modèle, qui peut ensuite être transféré vers l’entreprise B. Plutôt que d’échanger les données entre A et B, les données sont intégrées dans le modèle et, de ce fait, mieux protégées.

Enfin, il faut intensifier la recherche sur les rapports entre vie privée des utilisateurs et tarification des données. Quand un utilisateur clique sur une publicité en ligne proposée par un système de recommandation piloté par une IA, une part des bénéfices devrait-elle revenir au système ? Si un moteur de recherche engrange des revenus, une part de ces revenus devrait-elle être redistribuée aux utilisateurs ? Voilà des questions qu’il est intéressant de se poser.

Au cours des prochaines années, tout le monde se rendra compte de l’importance de l’intelligence artificielle. Nous devrons être plus attentifs à la forme qu’elle prendra et à quels domaines on l’appliquera. Aujourd’hui, la finance, l’Internet et les véhicules automatisés sont des domaines qui s’y prêtent particulièrement.

Quel sera l’impact de la combinaison des données de masse et de l’intelligence artificielle sur les pays en développement ?

Je pense qu’elle permettra à certains pays émergents de rattraper et même de dépasser des pays développés, car la concurrence économique dépendra avant tout de la quantité et de la rapidité du passage à l’économie des données (data economy). Par exemple, le développement rapide de l’Internet et de l’Internet mobile chinois a permis de collecter une vaste quantité de données. Cela va accélérer le développement du secteur chinois de l’intelligence artificielle, qui pourrait bien changer la face du monde.

La Chine, prochaine superpuissance de l’intelligence artificielle?

D’un autre côté, si un pays dispose déjà d’une bonne infrastructure et d’un système éducatif de bonne qualité, il peut tirer avantage de l’intelligence artificielle pour améliorer l’efficacité de sa production. Tout comme l’utilisation de la machine à vapeur a permis à certains pays de se développer plus rapidement que d’autres lors de la révolution industrielle.

Expert international de premier plan en IA et en exploitation de données, Yang Qiang (Chine) est le premier président chinois de l’International Joint Conferences on Artificial Intelligence (IJCAI). Membre de l’Association for the Advancement of Artificial Intelligence (AAAI), il dirige le Département d’informatique et d’ingénierie de la Hong Kong University of Science and Technology et est co-fondateur et responsable scientifique de 4Paradigm.

Journaliste, Wang Chao (Chine) est chef d’équipe au studio d’intelligence artificielle de NetEase News, qui couvre les principaux événements dans le secteur de l’intelligence artificielle.

Le Courrier de l’UNESCO • juillet-septembre 2018

Human-made-decision versus machine-made-decision

Souvent, dans des situations complexes mettant en jeu des conflits de valeur, des conflits d’intérêts ou des incertitudes sur son véritable désir, on ressent une angoisse de ne pas savoir prendre « la meilleure décision » et on fait tout pour s’en remettre à l’avis d’un tiers. Parfois, on est tenté de consulter une série de personnes ou de pages web et de tirer de cette consultation une position qui refléterait soit l’opinion majoritaire, soit l’opinion moyenne, soit une opinion experte. Cette démarche peut égarer davantage, si la consultation amène de nouveaux paramètres qui s’ajoutent aux éléments déjà existants. Mais elle peut être un soulagement si l’on décide de s’en remettre à une autorité avisée, qu’elle soit représentée par une personne ou par la fiction d’une décision « bien pesée », laquelle peut être figurée par une liste comparée des arguments positifs et des arguments négatifs, avec, pourquoi pas, des coefficients d’importance. La décision finit donc par s’apparenter à un problème mathématique qu’il faut résoudre correctement. L’observation psychologique élémentaire montre pourtant que les sujets ne sont jamais satisfaits avec la perte d’une option. Le choix manifeste se présente comme un choix équivalent entre A et B, mais le choix fondamental inclut aussi la souffrance durable de « non-A » ou « non-B ». Il n’existe donc pas dans l’absolu « la meilleure décision » et l’éthique consiste à laisser cette question ouverte malgré le malaise apparemment insupportable qu’elle provoque.

Le fantôme de la perte hante les mortels que nous sommes. Le cas de conscience ou encore le dilemme cornélien suppose que toute décision entraînera une perte pour le sujet ou une entorse morale. Kant a d’avance évité tout dilemme de ce genre en disant que le devoir inconditionné de dire la vérité impliquait nécessairement de pouvoir le cas échéant dénoncer son ami, même s’il devait en résulter des conséquences fâcheuses1. C’est que Kant mettait le devoir de dire la vérité au rang de devoir suprême, au principe même de l’établissement d’un pouvoir politique. Ce devoir ne souffrait donc pas d’exception. L’architecture du système kantien en dépendait. On voit tout de suite ce qui pourrait s’ensuivre si on prenait Kant à la lettre au moyen d’une intelligence artificielle capable de détecter le mensonge, telle le système DARE2. Notre seule chance d’échapper à la potentialité terrifiante d’un pouvoir politique capable de détecter le mensonge dans toutes les situations cruciales est de retourner Kant contre Kant en lui opposant l’autonomie de la raison humaine, qui reste au principe de la philosophie kantienne.

Freud, lui, ramenait les rationalisations à un fond de « préférences pulsionnelles3 » issues de la vie sexuelle infantile refoulée, ce qui achève de jeter le trouble dans la discussion morale. Car que pouvons-nous dire d’une préférence inconsciente ? Et que pouvons-nous en faire ? Précisons au passage – afin de prévenir un cliché répandu – que Freud ne fait pas par là l’apologie de l’irrationnel, d’une part parce que la préférence inconsciente répond tout à fait à un type de rationalité, et d’autre part parce que la vie pulsionnelle ne dédouane pas la raison de s’exercer, fût-ce à titre secondaire. Le désir inconscient ne consiste pas en motifs psychologiques, mais en une autre rationalité, laquelle adresse au sujet un défi logique qui s’exprime dans toutes les productions de la pensée (même les mathématiques). Il y a quelque chose en nous qui nous envoie une question que nous prenons au sérieux lorsque nous exerçons notre faculté de raison pour tenter de résoudre les problèmes logiques qui se posent à nous du fait de notre vie pulsionnelle.

Le dilemme du tramway est l’une de ces célèbres apories remises au goût du jour par le problème de la programmation des voitures autonomes. L’auteure de l’article fondateur confronte le lecteur avec diverses situations de dilemme (et non pas une seule) qui déclinent différentes modalités de l’intention et de l’exposition aux effets collatéraux ou encore aux « doubles effets », à partir du dilemme de l’avortement au sein de l’Eglise catholique4. Philippa Foot discute des exemples casuistiques destinés à fournir un critère moral distinctif dans des situations vitales où une vie humaine doit être sacrifiée au bénéfice d’une ou plusieurs autres. La discussion est, on le sent, menacée de relativisme. L’auteure parvient seulement à la conclusion que le critère pertinent ne saurait être uniquement la taille du mal infligé pour un moindre mal (critère quantitatif), mais aussi la nature de l’action entreprise pour l’éviter. Par exemple, le cas du véhicule choisissant de tuer une personne plutôt que cinq n’est pas équivalent à la décision de livrer une personne à un preneur d’otage pour en délivrer cinq. Pour résumer son argumentation, l’article ne semble avoir aucun doute sur la nécessité de sauver le maximum de vies quand nous sommes confrontés à deux devoirs négatifs (soit tuer une personne, soit en tuer cinq) ; le doute moral porte en revanche sur l’action positive de sacrifier une vie pour en sauver une ou plusieurs autres à partir de la distinction opérée entre devoir négatif (ne pas infliger de tort) et devoir positif (apporter de l’aide). L’argumentation de l’auteure la conduit à justifier sans hésiter l’histoire des marins qui survivaient à la faim en consommant l’un d’entre eux. Disons-le, l’argumentation est quelque peu abstruse, tout comme celle d’autres articles qui ont suivi cette tradition5. L’embarras des auteurs est patent. Il semble qu’ils soient occupés à fonder à grand peine une morale déontologique à partir de prémisses conséquentialistes posées par le setting initial. Ce qui ne réussit pas complètement, parce que l’opération risque à tout moment de fournir des résultats contre-intuitifs. Le devoir brut de sauver cinq vies plutôt qu’une ne semble poser de problème à personne, tant que la question reste posée au niveau abstrait ; les scrupules s’élèvent quand on commence à envisager les différents déterminants impliqués dans une situation concrète, où il s’agit d’autre chose que de maximiser le sauvetage de viande humaine. Sinon, nous pourrions en effet attraper le premier passant en bonne santé pour fournir ses organes à plusieurs malades nécessitant une transplantation d’urgence, et argumenter du fait que nous avons de la sorte sauvé plusieurs vies au prix d’une seule : un moindre mal.

Ces discussions sont exacerbées par le développement des voitures autonomes au point que le Massachussetts Institute of Technologie a engagé une vaste consultation publique sur ce sujet à l’aide d’expériences mentales proposées sur un site dévolu à cette question. Moral Machine suggère de déterminer la morale des machines grâce à l’évaluation de la morale humaine à partir d’un constat tourné en fait accompli : « L’intelligence machinique soutient ou supplante entièrement toujours plus d’activités humaines complexes à un rythme croissant6. » Le fait que les machines soient intelligentes et prennent des décisions morales n’est pas soumis à la discussion : il s’agit de discuter sur quels principes moraux nous nous accorderons pour programmer ces machines. Et ceci, paraît-il, en puisant dans la morale ordinaire.

Avec la voiture autonome, il s’agit, dit-on, de doter la machine d’une capacité de décision morale qui ne sera pas une capacité aléatoire et faillible comme la moralité humaine. Ce sera la morale ordinaire, mais en mieux. Le public et le constructeur ne souffriront en effet aucun écart dès lors qu’aura été trouvé un consensus sur les principes qui gouvernent l’action de la machine. Personne ne voudrait, n’est-ce-pas, d’un véhicule « qui n’en fait qu’à sa tête ». Le machine learning est toutefois supposé doter la machine de facultés d’apprentissage qui pourraient conduire à ce que dans deux situations identiques, la machine agisse autrement la deuxième fois que la première, ayant appris de la première fois ou d’une autre source de données. Elle n’aura pas pour autant dérogé à l’axiome initial de son paramétrage. Alors que l’humain, lui, pourrait être les deux fois sous l’emprise de deux états différents, imprédictibles et sans corrélation l’un avec l’autre, c’est-à-dire faire valoir un axiome moral différent.

Les problèmes éthiques posés par le véhicule autonome, tout comme d’autres domaines de décisions algorithmiques, supposent implicitement : 1) que la « meilleure décision rationnelle » existe ; 2) qu’elle peut être connue ; 3) que si elle est connue, elle doit être garantie par le programme ; 4) qu’elle doit être implémentée à grande échelle, voire rendue obligatoire, puisqu’elle est la meilleure. Cette prémisse théologique (qui suppose l’existence d’un souverain bien) ressurgit donc au beau milieu de problèmes qui paraissaient de prime abord d’une grande platitude matérialiste : confort, sécurité, mobilité accrue, etc.

La comparaison avec les risques inhérents à toute technologie, dont certaines déjà anciennes (comme le train ou l’acenseur7) élude la généralisation d’un autre paradigme : le véhicule autonome érige la survie physique en valeur suprême. Tout ce qui optimise la quantité de corps survivants est bien, le contraire est mal. Mais on est aussi forcé par là de dire lesquels. Le rapport rendu en Allemagne par la Commission d’éthique sur la conduite automatisée exclut que les véhicules choisissent certaines victimes plutôt que d’autres selon des critères discriminatoires, mais il affirme que « la conduite automatisée et connectée est un impératif éthique si les systèmes causent moins d’accidents que les conducteurs humains. » Ce n’est rien d’autre que l’argument de Tesla. Cela pourrait justifier de les rendre un jour obligatoires. Le rapport affirme sans ambages : « Sur notre échelle de valeurs, la protection de la vie humaine est un summum bonum8.» Il s’agit d’un setting utilitariste fort : il faut maximiser le nombre de vies humaines sauvées, ce que font déjà les politiques de santé publique. Une assertion paradoxale dans un monde menacé de toutes part par des crises notoires, multiples et destructrices, précisément d’origines anthropiques…

Mettre l’accent sur le processus de décision (machinique ou humain) ferait presque oublier que c’est en général une situation soit monstrueuse soit improbable qui accule un sujet à une telle décision. La consultation publique du MIT repose sur des situations fictives. La quintessence de cette spéculation morale est atteinte par le roman le Choix de Sophie, ce qui en explique peut-être le succès. Mais dans les situations ordinaires, les sujets n’ont pas à effectuer des choix aussi radicaux et si, par accident, cette situation se présente, on pardonne n’importe quelle décision. Une situation assez folle peut justifier toutes les réponses inacceptables en temps normal. Il fallait toute la perversion du système nazi pour que des gens se retrouvent dans la situation d’avoir à choisir de sauver un parent plutôt qu’un autre. Lors d’une rafle où les détenteurs d’un coupon jaune (chefs de famille) et les détenteurs d’un coupon bleu (membres de leur famille) devaient se présenter en rang ordonné à la porte du ghetto de Vilnius9, des chefs de famille étaient placés devant des « alternatives atroces », dit le récit, où ils devaient choisir quels membres de leurs familles inscrire à leurs côtés, par exemple leur mère ou leur femme. L’un racontait : « Je l’avoue : j’aime plus ma mère que ma femme, mais ma femme est la mère de mes enfants et maman est vieille déjà, elle a vécu. » Un autre disait : « J’ai fait enregistrer ma mère comme étant ma femme et ma femme, je l’ai laissée dans un abri. L’homme n’a qu’une seule mère, mais il peut avoir une seconde femme. Si maman disparaît, je n’en aurai plus d’autre, mais si je deviens veuf, je pourrai me remarier. J’ai peut-être mal agi, mais j’ai fait selon mon cœur. J’aime plus ma mère que ma femme. » Un troisième enfin : « Avant de me séparer de ma mère, je suis allé vers elle et je lui ai dit : “Maman, je ne peux pas te prendre avec moi, il faut que je prenne ma femme”10. » Ce qui frappe à la lecture de ces témoignages est que d’une part, les gens acculés se montraient étonnamment capables de telles décisions, mais que, d’autre part, ils les prenaient parce qu’un système de terreur les y forçait. La décision prise ne les laisserait plus jamais en paix. La voiture autonome, elle, continuera à rouler tranquillement.

Du statut exceptionnel d’un tel choix dans la vie ordinaire, on passe à un paradigme de programmation, dans un contexte d’implémentation exponentielle de « l’intelligence machinique ». Or, qu’il soit déontologique ou conséquentialiste, un axiome qui prétend incarner un summum bonum à l’échelle universelle permise par les technologies de la communication contient en tant que tel un potentiel effroyable. L’erreur anthropomorphique (répandue) consiste à croire qu’une intelligence artificielle pourrait devenir hostile, c’est-à-dire animée de mauvais sentiments, alors qu’il s’agit, comme le dit Nick Bostrom, du problème des valeurs à implémenter. C’est l’un des problèmes les plus redoutables de l’intelligence artificielle. Une intelligence artificielle encodée selon une ou plusieurs valeurs ne prendra en effet que des décisions conséquentes.Où est le problème direz-vous ? Si l’interdit de l’inceste est aussi universel que l’a dit Lévi-Strauss, alors il n’y a aucun problème à en faire, par exemple, un principe universel éventuellement encodé dans une intelligence artificielle. Sauf que les êtres humains ont de tout temps continué d’avoir affaire à leurs ambivalences et leurs passions, ce qui a finalement créé une immense différenciation des cultures : tout sauf l’application mécanique d’une valeur cardinale. Nous lui devons l’histoire de la culture.

En vérité, cette discussion éthique nous amène aux confins de l’éthique, là où l’éthique est incompatible avec l’universalisation d’un seul axiome (n’en déplaise à une lecture étroite de Kant, qui confondrait universalisation et généralisation), et là où elle implique nécessairement des valeurs plurielles et un jugement singulier souffrant des exceptions. Ceci est radicalement incompatible avec le fait qu’une machine ait la moindre décision à prendre. Le principe cherchant à vendre la voiture autonome par l’argument du moindre risque d’accidents statistiques est un compromis passé avec la mort de l’éthique.

On a beaucoup glosé sur les cas où la voiture autonome devrait tuer une personne pour en épargner cinq, et discuté entre autres de savoir si la vie du passager avait la priorité sur la vie d’un passant. Que se passerait-il si d’aventure la voiture autonome devait froidement choisir entre ma mère et ma femme ou bien entre mon fils et ma fille, ou bien entre une personne jeune et une personne âgée, ou bien entre un homme et une femme, et ainsi de suite ? Le rapport de la Commission éthique allemand exclut formellement un tel choix. Mais les éthiciens en appellent pourtant à des machines « empathiques ». Le vieil adage « les femmes et les enfants d’abord ! » est-il obsolète dans une société égalitariste ou bien est-il exigible d’une machine dotée « d’empathie » ? Nous exigeons de la machine qu’elle soit d’une équité irréprochable mais aussi qu’elle soit en « empathie » avec les émotions humaines, un peu comme la quadrature du cercle… C’est bien sûr encore une fois oublier que la soi-disant empathie de la machine sera encodée, simple reflet anthropomorphique de nos propres contradictions.

En l’absence de réponse consensuelle à de telles questions, il ne faut pas exclure la possibilité qu’un programme soit doté d’une capacité de décision aléatoire dans les cas éthiquement indécidables (la voiture pourrait devoir tirer au sort entre ma mère et ma femme, ou entre un adulte et un enfant). Il est probable qu’en situation analogue un humain effectuerait un choix subjectif inhérent à la singularité de la situation, même s’il est vécu comme un choix tragique, comme dans les témoignages évoqués ci-dessus. Les sondages montrent par exemple que la majorité des gens privilégient la vie d’un enfant sur celle d’un adulte ou celle du conducteur sur celle du passant. Mais de ce que ce choix puisse être effectué dans des situations exceptionnelles ou spéculé en réponse à un sondage, s’ensuit-il qu’il doive devenir une norme ? Les constructeurs, quant à eux, craignent surtout qu’un véhicule autonome qui ne ferait aucune préférence entre le conducteur et les passants ne serait acheté par personne, or il y a une volonté économique et politique de généraliser ce système, sans interroger l’amoralisme intrinsèque qui consiste à remplacer la responsabilité humaine par un algorithme. Tout se passe comme si la décision de généraliser les voitures autonomes était déjà prise (même si cette décision revenait à vendre notre âme), et qu’il ne s’agissait désormais que de vendre le meilleur argument éthique au public un peu inquiet. On va donc vous expliquer pourquoi la machine est plus morale que vous-mêmes.

Mais si le véhicule autonome semble actualiser le dilemme du tramway, ce n’est qu’une apparence. Il ne s’agit plus de délibérer sur un improbable conflit subjectif (à savoir si vous préférez sauver votre mère ou votre femme, une personne ou cinq, un enfant ou un adulte, aussi sordide soit la question), mais d’octroyer au type d’axiome moral retenu une extension telle (due à son échelle d’application) qu’elle façonnera de manière rétroactive la normativité, elle-même enfermée dans une boucle d’auto-confirmation. L’apparition et la systématisation du véhicule autonome introduit la légitimation d’une hiérarchie du pire au nom de la survie. Ce qui n’est pas l’esprit de l’article de Philippa Foot, qui essayait, certes péniblement, d’y échapper. Là où l’humain fait par la force des événements un choix tragique, circonstancié et toujours unique, la machine fera un choix technique dont le caractère axiomatique aura été en fait déterminé par avance et appliqué aveuglément à l’ensemble des situations identiques. Ce nouveau paradigme sera littéralement lancé sur les routes. Même le machine learning n’apprend qu’à raffiner sa réponse au fil des nouvelles données, réponse qui peut nous surprendre ou nous échapper, mais qui reste subordonnée à l’axiome moral encodé au moment de la conception. (Il ne fait pas de doute que certains rêvent de créer la machine qui saura créer son propre code moral supérieur à celui de notre humaine condition : elle saurait récolter dans les big data toutes les figures de la morale, puis les hiérarchiser et les purifier de toute l’amoralité du monde, selon un critère lui-même soumis à l’arbitraire ultime des visions du monde qui finalement ne fait que repousser le problème ad infinitum. Mais nous n’en sommes pas là.)

C’est pourquoi la machine ne sera jamais éthique et parler de dilemme moral est en l’occurrence fallacieux. Il s’agit exclusivement d’un dilemme fictif qui se passe dans la tête des constructeurs et qui n’a aucun rapport à l’événement ultérieur. Contrairement aux situations décrites par Philippa Foot, le véhicule autonome n’a aucune intention ni consciente ni inconsciente, même pas celle de minimiser le nombre de morts. Il n’est pas sous l’emprise d’un dilemme et il n’est pas mis à l’épreuve. Même si son programme disposait d’un nombre colossal de paramètres contextuels qui lui donneraient l’avantage sur le manichéisme moyen d’un être humain, son action ne représente pas une décision, mais l’exécution d’un ensemble de règles prises en amont. Et même s’il agissait en sorte que l’humain ne soit pas capable de comprendre le résultat (comme c’est déjà le cas dans de nombreux processus algorithmiques, bien qu’on travaille à les rendre lisibles), cela ne serait pas dû à l’esprit subtil de la machine, mais à la complexité du calcul. Par contre, la machine transporte et répand un axiome moral. Faire passer l’action de la machine pour une décision éthique consécutive à un supposé dilemme est en soi un coup de force politique qui occulte la position normative à l’œuvre dans le paramétrage et l’élimination subséquente de toute éthique. C’est là un véritable clivage, qui est soutenu par la résolution du Parlement européen du 16 février 201711 lorsqu’il suggère à la Commission européenne de créer une nouvelle catégorie de personnalité juridique pour résoudre les problèmes de responsabilité ouverts par cette situation et d’autres analogues.

Quant au rapport de la Commission éthique allemand, il prend précisément argument du décalage entre l’intention et l’acte (la personne sacrifiée n’est pas connue au moment de la programmation, aucune personne identifiable n’est donc instrumentalisée) conjugué à une minimisation statistique des accidents de la route, pour le retourner en argument éthique : s’il est inacceptable, conformément à loi allemande, de sacrifier une personne pour le sauvetage d’une autre, en revanche « pour autant que la programmation initiale minimise le risque de tous de la même manière, elle était également dans l’intérêt de ceux qui ont été sacrifiés avant d’avoir été identifiés comme tels dans une situation spécifique12. » (Ce raisonnement est ici comparé au cas de la vaccination.) Le rapport est formel quant à l’immoralité de devoir mettre en jeu la vie d’une personne pour le sauvetage d’une autre, mais il se contorsionne autour de l’inachèvement d’un consensus quant à savoir si le véhicule pourrait être programmée à sacrifier une personne pour en sauver plusieurs.

Si l’une des critiques adressée à l’époque au dilemme du tramway est de n’être qu’une expérience de pensée, c’est bien parce qu’il n’a jamais été question d’en tirer une ligne de conduite ou un protocole d’action valable en tous les cas. En effet, un simple humain peut être éduqué, entraîné ou commandé à réagir ainsi ou ainsi, personne ne sait cependant comment il agira en situation, car personne ne sait quelle idée, quel réflexe, quel affect surgiront d’un contexte forcément unique. C’est en ceci qu’il est un sujet moral, même quand il agit de manière ignoble. La voiture autonome ne répond de rien, elle exécute ce que son programmeur aura codé par avance, une instance qui se donne à peu près les attributs du Dieu-des-accidents-de-voitures. Si le véhicule autonome se mettait à provoquer certains accidents, rares, qu’un humain n’aurait pas provoqué (tel l’accident provoqué par un véhicule Uber du 18 mars 2018 où les capteurs du véhicule, réglés d’une manière trop lâche, avaient été trompés par un « faux positif » et n’avaient pas su distinguer entre un être humain et une chose quelconque), faudrait-il continuer de faire valoir l’argument selon lequel le nombre d’accident total est inférieur à ceux provoqués par des humains ?

Le paradigme introduit par là est qu’il est possible de décider non par hasard, par réflexe, par passion ou par délibération ad hoc mais par principe que la survie d’une personne vaut mieux que la survie d’une autre, par exemple le conducteur plutôt que le passant, ou que la survie de cinq personnes valent mieux qu’une, là où des humains pourraient assurément privilégier la survie d’un roi, d’un prêtre ou même d’un animal sacré, aussi discutables que paraissent ces options morales. La pluralité des visions du monde – qui constitue le domaine propre de l’éthique – est rendue impossible. L’imprévisibilité qui met à l’épreuve la morale humaine également, de même que la réflexion, la culpabilité, la justification, l’honneur, le doute et enfin l’amour ou la préférence. Une situation humaine ne fait même pas du principe d’autoconservation un principe universel, puisque les cas d’altruisme existent. Au passage, notons aussi que le candidat à l’attentat-suicide prend l’exact contrepied de la morale machinique, en visant le maximum de morts sans considération même de sa propre survie : le parallèle entre le développement historique de ces deux modèles de pensée est saisissant, comme si l’un constituait l’impensé de l’autre. Quoi qu’il en soit, l’humain est obligé d’en passer tôt ou tard par un nouveau jugement qui est un acte singulier. Il comporte une série de considération affectives et symboliques inconnues de la machine. A cela, le rapport répond que, bien entendu, il est prévu que le conducteur pourra à tout moment reprendre le contrôle de la conduite. Mais que signifiera cette possibilité dérisoire s’il s’est déshabitué à conduire (tout comme d’ores et déjà des personnes constatent qu’elles ont perdu l’aisance d’écrire à la main) ?

La prétendue meilleure décision machinique conduit enfin à un dilemme encore plus redoutable qu’on pourrait appeler le dilemme des marins (également évoqué dans l’article de Philippa Foot) : quels humains devraient survivre si les ressources mondiales devaient continuer à diminuer pendant que la démographie et la consommation mondiales ne cesseraient de croître ? Il n’est pas impossible de se représenter la civilisation industrielle comme un bolide qui fonce droit dans le mur. Le véhicule autonome pourrait ainsi s’avérer la métaphore d’un plus gros problème que celui d’un assez banal accident de la route.

Des histoires disent que les marins tiraient au sort celui qui serait mangé pour la survie des autres. Comment exclure qu’une machine soit programmée à choisir « rationnellement » (le choix aléatoire pouvant être une forme de choix rationnel) à trier froidement entre les bouches inutiles et les bouches qui doivent survivre (ou les bouches immortelles, qui ne se nourriraient peut-être pas de pain mais d’énergie, à en croire un scénario posthumaniste) ? Comment exclure, une fois introduit et banalisé, que ce type de choix présenté fallacieusement comme moral, mais dont l’axiome biopolitique fondamental (effectué à l’ombre des paramétrages coupés des situations singulières) est la survie statistique, deviennent l’avenir d’une gouvernance algorithmique, une loi de survie déterminée par une sorte de Dieu-des-catastrophes-globales ? S’il est valable de sacrifier une personne pour cinq, n’est-il pas moralement préférable de sacrifier un ou deux milliards d’êtres humains pour que, par exemple, cinq milliards survivent, si nous sommes tous dans le même bateau ? N’est-ce-pas ce que nous faisons déjà à grande échelle lorsque des populations sont maintenues dans des conditions de vies indignes, végétant sur des décharges, ou lorsque des réfugiés sont reflués au péril de leur vie pour que la « forteresse Europe » ne perde rien de ses privilèges ? Seulement nous ne nous en vantons pas encore publiquement comme de nos plus hautes réussites morales. Nous n’avons pas encore trouvé le moyen de faire passer ces horreurs pour un résultat indiscutablement « éthique ». Contrairement à une telle duplicité humaine, trop humaine, la machine n’aurait pas de scrupules à trancher si l’input « moral » lui dictait que la survie d’un maximum de terriens dépend du sacrifice de certains autres, urgence globale oblige. Enfin, par survie statistique, nous pouvons aussi bien entendre le plus grand nombre de survivants possibles au détriment de certains autres, que la probabilité même d’une survie d’un specimen humain (qui pourrait recycler la vieille histoire de Noé, avec la question de savoir qui montera dans l’arche). Bref, n’ignorons pas qu’implémenter le setting moral du dilemme du tramway, jusqu’ici restreint à des situations ou fictives ou monstrueuses, façonne une vision du monde qui peut avoir des suites d’une autre envergure.

Notes

1 Emmanuel Kant, « D’un prétendu droit de mentir par humanité », in Théorie et pratique, trad. Françoise Proust, Paris, Flammarion, 1994, pp. 95-103.

2 Une intelligence artificielle détecte le mensonge : https://iatranshumanisme.com/2018/01/14/intelligence-artificielle-detecte-mensonge/

3 Sigmund Freud, « Über infantile Sexualtheorien », 1908, GW VII, p. 176 ; « Les théories sexuelles infantiles », in La vie sexuelle, PUF, 1969, p. 18.

4 Philippa Foot, « The Problem of Abortion and the Doctrine of the Double Effect », Oxford Review, Number 5, 1967. En ligne : http://www2.econ.iastate.edu/classes/econ362/hallam/Readings/FootDoubleEffect.pdf

5 Cf. notamment Judith Jarvis Thomson, «Killing, letting die, and the trolley Problem » in Monist, an International Quaterly Journal of General Philosophical Inquiry, Vol. 59, 1976, pp. 204-217 ; Judith Jarvis Thomson, «The Trolley Problem », The Yale Law Journal, Vol. 94, No. 6, 1985, pp. 1395-1415.

6 Moral Machine – MIT http://moralmachine.mit.edu/

7 Ethics commission, Federal Ministry of Transport, June 2017, Germany, « Automated and connected driving », p 15. En ligne : https://www.bmvi.de/SharedDocs/EN/publications/report-ethics-commission.pdf?__blob=publicationFile

8 Ibid., p 17.

9 Anciennement nommée Vilna.

10 Marc Dvorjetski, La victoire du ghetto, cité dans Joshua Sobol, Ghetto, Lyon, La Manufacture, 1986, p. 226-227.

11 Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL))

12 « Automated and connected driving », op. cit., p 15.

Apple rejoint Amazon, Facebook, Google, IBM et Microsoft dans l’initiative IA

La technologie de l’intelligence artificielle gagne en popularité chaque jour. Toutes les grandes entreprises semblent prendre le train en route, en essayant de trouver de nouvelles et intéressantes façons d’utiliser l’IA. Dans le cadre de ce mouvement, le partenariat sur l’intelligence artificielle au profit des populations et de la société (Partnership on AI) a été créé en septembre 2016. Lors de sa création, Amazon, Facebook, Google, IBM et Microsoft étaient les seuls membres fondateurs. Apple, Twitter, Intel et Baidu n’avaient pas participé à l’initiative. Ce collectif vient d’annoncer officiellement qu’Apple rejoint l’équipe.

Le cofondateur de Siri et CTO (Chief Technology Officer – directeur de la technologie) Tom Gruber représente Apple dans cette excitante collaboration. Compte tenu de la popularité et de la réputation d’Apple, cette union pourrait conduire à de futures avancées en IA.

Vous pouvez trouver l’ensemble du conseil d’administration sur le site Web Partnership on AI.

Ces entreprises reconnaissent la nécessité de travailler ensemble pour améliorer la qualité de la vie des gens et pour répondre aux défis mondiaux importants, tels que le changement climatique, la nourriture, l’inégalité, la santé et l’éducation.

Ce partenariat s’engage à : Ouvrir la recherche et le dialogue sur les implications éthiques, sociales, économiques et juridiques de l’IA. S’assurer que la recherche et la technologie de l’IA sont solides, fiables, dignes de confiance et fonctionnent dans des limites sûres. S’opposer au développement et à l’utilisation des technologies de l’IA qui violeraient les conventions internationales ou les droits de l’homme et promouvoir les garanties et les technologies qui ne nuisent pas.

traduction Thomas Jousse

Partnership on AI, TechCrunch, Bloomberg

L’intelligence artificielle soulève déjà de nombreuses questions juridiques et éthiques

Faut-il apprendre aux véhicules autonomes à éviter un chien qui traverse ? Peut-on laisser mettre en vente des robots sexuels destinés aux pédophiles ? Qui est juridiquement responsable en cas d’accident provoqué par un robot dans un atelier ?

Le « Rapport d’étape sur l’intelligence artificielle et la vie ». De quoi s’agit-il et que peut-on y apprendre ?

Une étude sur l’intelligence artificielle sur 100 ans à Stanford
Partenariat sur l’IA : les géants de la Tech s’unissent pour développer l’intelligence synthétique
Barack Obama sur l’intelligence artificielle, les voitures autonomes et l’avenir de l’humanité | WIRED
→ « Ces questions sur la technologie que vous n’êtes pas autorisé à poser »
Les Echos : Faut-il une loi spéciale pour les robots ?

https://media.radiofrance-podcast.net/podcast09/11701-25.10.2016-ITEMA_21114633-1.mp3?_=1