Un neurone artificiel simulant les fonctions d’un neurone biologique

Jean-Paul Baquiast et Christophe Jacquemin – 05/07/2015

Chemical-to-electrical-to-chemical signal transmission. A conventional neuron (upper panel) senses chemical signals (orange circles), which trigger an electrical pulse of membrane depolarization (action potential) along the axon, causing chemical release at the axon terminals (blue circles). This process can be mimicked (lower panel) by a chemical biosensor (for glutamate or acetylcholine) connected to an axon-mimicking organic electronic ion pump that transmits electrons/ions and generates chemicals — forming an organic electronic biomimetic neuron. (credit: Daniel T. Simon et al./Biosensors and Bioelectronics

Des chercheurs du Karolinska Institute et de la Linköping University, en Suède, ont réalisé ce qu’il nomment un neurone artificiel pleinement fonctionnel, c’est-à-dire pouvant reproduire les fonctions d’un neurone humain. De nombreuses simulations du neurone ont déjà été faite, faisant appel à des algorithmes variés d’intelligence artificielle. Mais celles-ci n’étaient pas directement miniaturalisables ni implantables dans un cerveau vivant, pour le cas échéant remplacer un ou plusieurs neurones défaillants. Ce ne devrait pas être le cas, selon les chercheurs, du dispositif proposé, qu’ils nomment un “organic electronic biomimetic neuron”, un neurone électronique-organique reproduisant le neurone biologique.

Le système combine deux disques, l’un fonctionnant comme un capteur biologique et l’autre comme une pompe à ion. Si dans le premier disque se produit une modification chimique, résultant par exemple d’un apport de glutamate, ce disque transmet un signal électrique, via un réseau simulant l’axone et les synapses d’un neurone biologique, au second disque. Celui-ci génère alors un nouveau signal correspondant à l’apport de glutamate dans le premier disque, nouveau signal destiné au disque capteur d’un nouveau neurone, et ainsi de suite. Ainsi peut être reproduit le fonctionnement d’une chaîne de neurones biologique. La commande initiale pourrait être faite à distance.

NB L’acide glutamique (ou glutamate sous la forme anionique de l’acide glutamique) est l’un des 20 acides-a-aminés naturels constituant les protéines.

Glutamate drops are added to a dish containing a biosensor (green) that generates electronic signals (e–), which (via hardware/software) regulate hydrogen ion delivery (white tube) to another dish, where pH is monitored microscopically (video) (credit: Daniel T. Simon et al./Biosensors and Bioelectronics)

Selon la responsable en chef du projet, Agneta Richter-Dahlfors, professeur de microbiologie cellulaire au Karolinska Institutet, l’utilisation de tels dispositifs pourrait améliorer le traitement de certains désordres neurologiques. Ce traitement se limite aujourd’hui à la stimulation électrique du neurone défaillant, sans entraîner d’effets sur la chaîne de neurones à laquelle appartient ce premier neurone.

Après miniaturisation et implantation dans un corps humain, le neurone biomimétique ainsi réalisé pourrait, dans un nerf comportant un neurone endommagé, remplacer celui-ci et restaurer ainsi les fonctions du nerf. Sans doute pas dans le cortex cérébral proprement dit, mais dans les nerfs longs comme ceux commandant la jambe.

On devine que, aussi ingénieux que soit le dispositif proposé, sa miniaturisation et éventuellement sa commande à distance, soulèveront d’innombrables problèmes. Mais les progrès rapides de la micro-biologie et de la micro-neurologie artificielles devraient apporter des solutions.

Abstract

Current therapies for neurological disorders are based on traditional medication and electric stimulation. Here, we present an organic electronic biomimetic neuron, with the capacity to precisely intervene with the underlying malfunctioning signalling pathway using endogenous substances. The fundamental function of neurons, defined as chemical-to-electrical-to-chemical signal transduction, is achieved by connecting enzyme-based amperometric biosensors and organic electronic ion pumps. Selective biosensors transduce chemical signals into an electric current, which regulates electrophoretic delivery of chemical substances without necessitating liquid flow. Biosensors detected neurotransmitters in physiologically relevant ranges of 5–80 µM, showing linear response above 20 µm with approx. 0.1 nA/µM slope. When exceeding defined threshold concentrations, biosensor output signals, connected via custom hardware/software, activated local or distant neurotransmitter delivery from the organic electronic ion pump. Changes of 20 µM glutamate or acetylcholine triggered diffusive delivery of acetylcholine, which activated cells via receptor-mediated signalling. This was observed in real-time by single-cell ratiometric Ca2+ imaging. The results demonstrate the potential of the organic electronic biomimetic neuron in therapies involving long-range neuronal signalling by mimicking the function of projection neurons. Alternatively, conversion of glutamate-induced descending neuromuscular signals into acetylcholine-mediated muscular activation signals may be obtained, applicable for bridging injured sites and active prosthetics.

Source Science Direct, An organic electronic biomimetic neuron enables auto-regulated neuromodulation

Vers le post-humain : Connecter directement les cerveaux

Jean-Paul Baquiast et Christophe Jacquemin – 24/07/2014
Lettre Automates Intelligents 129 – Aout 2015

On imagine facilement que la possibilité de connecter directement un (ou plusieurs) cerveaux humains donnerait à leurs propriétaires, en temps réel, des capacités hors de portée d’un homme seul. Ainsi pourraient-ils en même temps regarder deux paysages différents, lire deux textes différents et en faire une synthèse. Dans un autre domaine, deux chirurgiens pourraient opérer de façon coordonnée en conjuguant leurs modes opératoires, deux mathématiciens partager leurs modes de calcul, deux internautes explorer simultanément deux sites différents.

Aujourd’hui, dans l’état actuel des liaisons de cerveaux à cerveaux, ces performances nécessitent des implantations d’électrode invasives, soit pour émettre des ondes cérébrales, soit pour en recevoir. Mais des techniques de transmissions intracrâniennes profondes ne nécessitant que des casques externes sont en voie de développement. Il faut aussi que chaque émetteur-récepteur soit en relation filaire ou radio avec un calculateur procédant à l’interfaçage, ordinateur programmé en conséquences. Le déchiffrement des ondes cérébrales et leur attribution à des zones cérébrales capables d’en tire profit devra par ailleurs se faire non pas à partir d’aires corticales très localisées, mais en impliquant de large parties, voire la totalité du cortex.

Tout ceci sera complexe, mais n’est pas nécessairement hors de portée. De nombreuses expériences, comme nous l’avons précédemment relaté ici, ont été conduites récemment dans le domaine de la commande à distance de divers types de prothèses par le cerveau d’une personne souffrant de paralysie. Il suffit, après un apprentissage suffisant, de convertir l’activité électrique du cerveau en commandes interprétables par un ordinateur. Rien n’empêche en ce cas de commander un appareil situé dans une autre pièce que celle où se trouve le patient.

Super-cerveaux animaux

En ce qui concerne les primates, des expérimentations bien plus poussées ont été conduites, sans les restrictions éthiques s’imposant aux expérimentations sur l’homme. Cependant, il ne s’agissait jusqu’à présent que de perfectionner l’interface cerveau-machine n’intéressant qu’un seul sujet, sans chercher à connecter plusieurs cerveaux sur la même machine de façon à ce qu’ils puissent la commander simultanément, autrement dit réaliser ce qui a été nommé un «brainet», réseau de cerveaux.

Mais les progrès sont rapides dans cette voie. Un article de Nature, Computing Arm Movements with a Monkey Brainet, daté du 9 juillet 2015, rapporte une expérience menée au Centre médical de la Duke University à Durham aux Etats-Unis. Une équipe conduite par le Dr Miguel Nicolelis, dans un laboratoire dédié aux recherches sur les primates, a permis de connecter trois de ceux-ci par des électrodes placées dans les zones appropriées du cerveau, afin qu’ils coopèrent, en vue d’une récompense, au fonctionnement d’un bras robotisé.
Un ordinateur transmettait à chaque animal des images animées de la prothèse, afin qu’ils puissent évaluer le résultat de leurs commandes intentionnelles. En coordonnant leurs pensées, les trois singes ont pu permettre au bras d’atteindre un objectif figurant sur l’écran. Des tâches plus complexes ont ensuite été commandées, avec le même succès.

Jusqu’à présent, chaque sujet était relié aux autres, non directement de cerveau à cerveau, mais par l’intermédiaire d’un ordinateur, ce qui pose moins de problèmes d’interfaçage. Mais l’équipe a repris la même expérience en l’appliquant à des rats. Chaque rat était connecté à la fois à un ordinateur commun et aux cerveaux de ses congénères. Des électrodes différentes reliaient les aires du cerveau impliquées dans le contrôle moteur, l’une pour stimuler le cerveau et l’autre pour enregistrer son activité (voir Nature, également du 9 juillet 2015 Building an organic computing device with multiple interconnected brains).

Les rats recevaient des impulsions électriques et gagnaient une récompense quand ils réussissaient à coordonner leurs actions dans un but précis. Après plusieurs essais, un taux de satisfaction de 60% a été obtenu. D’autres expériences plus complexes sont actuellement menées.

Inutile de développer les perspectives apportées par l’équivalent d’un calculateur parallèle ainsi réalisé au sein du brainet, tant en ce qui concerne les animaux que les humains. De véritables super-organismes sont ainsi créés, dont les cerveaux des futurs post humains pourront être équipés. Leurs pensées pourront être partagées sans l’échange de sons ou de mots. On peut évidement aussi imaginer les applications, positives mais aussi abusives qui pourront être faites de telles techniques, entraînant la commande des cerveaux de personnes inexpérimentées par celui d’une personne plus compétente.

Manifeste pour le post-humanisme

Jean-Paul Baquiast et Christophe Jacquemin – 21/05/2015

Lorsque l’on voit comment certains humains se comportent, d’une façon se situant en deçà de la bestialité, car même les espèces animales réputées les plus cruelles se l’interdisent, on est conduit à s’interroger sur les motifs par lesquels notre société européenne continue à voir en eux des humains alors qu’ils déshonorent l’humanité tout entière.

Les exemples de comportements que nous ne dirons pas bestiaux, mais inhumains, n’ont pas manqué au cours de l’histoire. Mais aujourd’hui ils se multiplient à nos portes, entrainant des vocations chez certains de ceux qui chez nous abritent leur fanatisme derrière les libertés permise par notre civilisation. Ces comportements inhumains sont partout. Citons aujourd’hui les conflits entre chiites et sunnites au Moyen-Orient, conduisant des bandes de tueurs à s’entretuer, tout en égorgeant les populations civiles qui veulent rester en paix.

Citons aussi le cas [évoqué dans un autre article] des monarques du Golfe, riches à milliards du fait que nous continuons à leur acheter un pétrole qu’ils ne seraient même pas capables d’extraire par eux-mêmes, et qui exécutent dans des conditions atroces des personnes condamnées pour des “crimes” parfaitement anodins. Ces rois et princes n’ont même pas l’excuse de la pauvreté qui pour certains militants des droits de l’homme justifierait les massacres tribaux dans le monde.

Si en vertu d’une philosophie humaniste qui par ailleurs nous fait honneur, nous refusons de considérer que tous ces tueurs n’appartiennent pas à l’humanité, nous devons pour notre part nous résoudre à considérer que nous ne voulons plus appartenir à cette même humanité. Autrement dit qu’il n’est que temps pour nous de mettre en pratique un post humanisme dont les futurologues parlent beaucoup mais dont personne n’a encore accepté à ce jour de jeter les bases.

Autrement dit, comme cela été fait pour les grandes réformes qui ont ennobli l’Europe depuis l’époque des Lumières, droits de la femme, droits politiques et sociaux, droits du travail, nous devons sans attendre mettre en place des actions syndicales et politiques proposant aux citoyens les valeurs d’un post-humanisme destiné à remplacer un humanisme dévoyé, et mener les luttes sociales et scientifiques permettant de les préciser et les faire reconnaître. Nous savons bien que l’Europe a été à la source des pires crimes de l’humanité. Mais aujourd’hui elle en semble guérie. A nous de faire en sorte que cela demeure.

Valeurs post-humanistes

Il n’est pas nécessaire ici de proposer une liste de telles valeurs. Nous venons d’en jeter les bases. Il faudra par contre, dans le cadre d’investissements coûteux et de discussions nombreuses, préciser comment les citoyens ralliés à un tel post-humanisme pourront décider collectivement du contenu de ces valeurs, comment aussi ils pourront entreprendre les démarches, non exclusives de sacrifices, permettant d’y accéder.

Mais la question clef posée aux futurs post-humains sera de savoir comment se comporter vis-à-vis de ceux qui continueront à combattre les armes à la main de telles valeurs post-humaine, et les militants qui s’y investissent. On retrouve la vieille question consistant à savoir comment combattre dans le cadre d’institutions démocratiques ceux qui refusent de telles institutions.

Que l’on ne nous fasse pas non plus valoir que les défenseurs européens des valeurs humanistes se satisfont fort bien d’une exploitation capitaliste jetant des milliards d’humains dans la misère et souvent le crime. L’argument est exact, mais parmi les valeurs du post-humanisme devra figurer en premier lieu la lutte contre des intérêts économiques et financiers prenant le monde en otage. Ceci dit, il ne faut pas se faire d’illusions. Le post-humanisme tel que défini ici suscitera de telles oppositions violentes qu’il sera bien obligé de se défendre, en partie, avec les armes de ses adversaires.

A plus long terme cependant, on peut admettre que les valeurs post-humaines auront suffisamment de forces pour s’étendre au monde entier, à condition d’être diffusées aussi largement que possible. C’est bien ce qui s’est passé en Europe, laquelle a exclu la peine de mort et où les femmes ont pu non sans combats obtenir des droits se rapprochant de ceux des hommes. C’est également eu Europe que la science naturaliste (matérialiste) a pu s’imposer dans la description de l’univers tel que nous le percevons, plutôt que le recours à des explications religieuses auxquelles se réfèrent encore les 9 dixièmes de l’humanité. .

Concrètement, ici, nous ne pouvons pas ici entreprendre une défense et une illustration convenablement argumentées de ce que pourrait être le post-humanisme. Nous pouvons par contre proposer que se créent en France et dans l’Union européenne des associations et clubs permettant d’en débattre.

A toute grande oeuvre il faut un début.

@ Automates Intelligents, n°127 – Juin 2015

voir aussi :

L’avènement des super-intelligences
Un modèle constructible de système psychique
Livre : Ce monde qui vient – Sciences, matérialisme et posthumanisme au XXIe siècle
Les livres d’Alain Cardon et Jean-Paul Baquiast (PDF)

Les livres d’Alain Cardon et Jean-Paul Baquiast (PDF)

Alain Cardon est un mathématicien français né à Paris en 1946, spécialisé dans le domaine de l’intelligence artificielle. Après des études à l’Université de Rouen, où il obtient une maîtrise de physique, une maîtrise de mathématiques pures et une maîtrise de mathématiques appliquées, il soutient sa thèse d’informatique théorique à l’Université de Rouen en 1974.

Sa carrière de chercheur l’amène à explorer différents thèmes : informatique théorique, programmation applicative, didactique des disciplines, gestion de production, gestion de situations d’urgence. À partir de 1990, il s’oriente vers le domaine de la conscience artificielle, sur lequel il publie de nombreux ouvrages et articles, et qu’il enseigne à l’université. Sur ce sujet de l’intelligence artificielle, il se positionne à la fin des années 2000 contre la réalisation de tout projet de conscience artificielle tel qu’envisagé par les différents gouvernements de l’époque, redoutant en premier leur inévitable détournement militaire, avant un possible déploiement coercitif dans le domaine civil. Il concentre alors, par choix éthique, ses études sur le volet théorique uniquement.

Ancien professeur d’informatique à l’Université du Havre et directeur du laboratoire d’informatique de cette université entre 1999 et 2003, il est membre permanent du Laboratoire d’informatique de Paris 6 (LIP6) de l’Université Paris VI depuis 1996.

Jean-Paul Baquiast est un haut fonctionnaire et écrivain scientifique français.

Institut d’Études Politiques de Paris 1954, DES de Droit Public et d’Économie Politique.
École Nationale d’Administration 1960-1962

A consacré sa carrière administrative aux technologies de l’information, au Ministère de l’Économie et des Finances, à la Délégation Générale à la recherche Scientifique et Technique, ainsi qu’au niveau interministériel : Délégation à l’informatique 1967-1973, Comité Interministériel de l’informatique dans l’Administration (CIIBA), 1984-1995.

A créé en 1995 le site web Admiroutes (www.admiroutes.asso.fr), non-officiel et bénévole, pour la modernisation des services publics par Internet, ainsi que l’association de la Loi de 1901 Admiroutes, qu’il préside.

Co-rédacteur en chef et co-fondateur d’ »Automates intelligents »
(www.automatesintelligents.com), site web et magazine en ligne lancé le 12 décembre 2000
Membre du bureau de l’Association Française pour l’Intelligence Artificielle

Auteur de divers ouvrages et articles dont :
– La France dans les technologies de l’intelligence, 1984, La Documentation Française
– Administrations et autoroutes de l’information . Vers la cyber-administration, 1996, Les Editions d’Organisation
– Internet et les administrations, la grande mutation, 1999, Berger-Levrault

Croix de la Valeur Militaire
Chevalier de la Légion d’Honneur
Officier de l’Ordre National du Mérite

sous licence Créative Commons

Le matérialisme et les sciences au 21e siècle. Essai de prospective
Jean-Paul Baquiast, 2014

L’Infra-mécanique quantique et examen critique du théorème de non localité de Bel
Mioara MUGUR-SCHÄCHTER, 2009

Un modèle constructible de Système Psychique
Alain Cardon, 2011

Vers le système de contrôle total
Alain CARDON, 2011

Modélisation constructiviste pour l’autonomie des systèmes
CARDON Alain, 2012

Ce monde qui vient – Sciences, matérialisme et posthumanisme au XXIe siècle

Jean-Paul Baquiast est co-éditeur du site Automates-Intelligents et éditeur du site Europe-Solidaire
Paul Baquiast, son neveu, est historien et homme politique

Présentation par l’éditeur

Le monde qui vient sera ce que nous en ferons. Encore faut-il avoir le courage de regarder l’avenir en face. C’est à cet effort salutaire que cet opuscule invite le lecteur. Appuyé sur les recherches les plus pointues, il propose de décrypter sous tous ses aspects le monde nouveau porté par l’évolution des sciences et des techniques.

Présentation par Paul Baquiast

Jean-Paul Baquiast est bien connu de ceux qui s’efforcent de penser le monde de demain au gré de l’évolution des sciences. Co-fondateur de l’association et du site Automates intelligents, d’une culture scientifique à la fois encyclopédique et constamment à jour des dernières publications, il est l’un des rares français à écrire et publier en français avec une compétence reconnue sur le sujet. Appuyée sur les informations les plus récentes les plus pointues, sa réflexion n’en est pas moins globale et globalisante, proposant de décrypter sous tous ses aspects le monde nouveau porté par le développement des sciences et des techniques.

C’est ce monde nouveau auquel il est proposé au lecteur de s’initier dans cet ouvrage, petit par la forme mais aux grandes ambitions sur le fond.

– D’abord en s’attardant sur les derniers acquis des sciences d’aujourd’hui et sur les champs qu’elles exploreront demain.

– Puis en insistant sur la nécessité d’un sursaut matérialiste pour préserver la pureté de la démarche scientifique.

– Et, enfin, en regardant la manière dont les sciences, en bouleversant notre conception et notre appréhension du monde, viennent réinterroger les philosophies et valeurs qui sont les nôtres, et en tout premier lieu l’humanisme.

La nécessaire réaffirmation du matérialisme au sein de la science n’est rien d’autre que la réaffirmation du principe laïc. L’actualité et l’urgence du principe de laïcité viennent d’être réaffirmées par un très grand nombre de Français à la suite des attentats récents.

En matière de science, il ne peut y avoir rien de tel que si le scientifique, dans l’exercice de sa fonction de scientifique, repousse dans la sphère privée ses convictions religieuses, philosophiques et politiques personnelles. Or, cette laïcité scientifique est aujourd’hui menacée, tandis que tentent de se constituer des sciences se définissant comme chrétienne, islamique, bouddhiste ou autre, qui oublient que la science doit valoir pour tous les hommes.

Le grand ennemi de ces pseudo-sciences est le darwinisme et tout ce qui, dans la science, semble contredire la littéralité des textes religieux. Face à cette offensive conservatrice et religieuse, Jean-Paul Baquiast en appelle à un nouveau matérialisme, beaucoup plus radical que son prédécesseur, plus solide aussi car appuyé sur les derniers acquis de la science.

Le devenir de l’humanisme

La question du devenir de l’humanisme, abordé dans la dernière partie de cet ouvrage, est cruciale. Né et développé à la Renaissance avec la redécouverte de la civilisation gréco-romaine, l’humanisme reste-t-il pertinent pour penser le monde qui vient dans lequel le concept d’humanité est peut-être dépassé ?

Que faut-il en garder ? Faut-il parler de posthumanisme, de transhumanisme ou, comme le suggère l’artiste-philosophe québécois Hervé Fischer, d’hyperhumanisme ? Longtemps force de progrès et de résistance à l’obscurantisme religieux, l’humanisme vieillissant de notre temps, s’il n’y prend pas garde, s’expose paradoxalement à devenir une force conservatrice et anti-scientifique alliée aux forces rétrogrades des Eglises et des intégrismes qui ont pourtant toujours été ses ennemis.

Il est vrai que l’avenir peut faire peur. Car la posthumanité, caractérisée par un homme augmenté, à l’abri des maladies, voire de la mort, sera le sort d’une minorité, celle qui disposera des moyens économiques lui permettant d’y parvenir. Cette posthumanité définira ses propres valeurs et codes moraux, applicables à elle seule. Comme dans le film Elisyum, l’humanité restera le sort de la masse. Mais une humanité pauvre, malade, sous-développée et exploitée. Sous elle se développera une non-humanité, composée de robots et des humains que l’on souhaitera excommunier et rejeter dans cette catégorie pour s’en débarrasser.

Ce monde effrayant, raciste et ségrégationniste que ne renieraient pas Hitler et les nazis n’est pas une fatalité. Le pire n’est pas forcément à venir. Mais encore faut-il que l’humanisme contemporain, s’il veut se survivre et innerver de ses valeurs l’organisation future des sociétés, sache adopter les bonnes lignes de conduite intellectuelle.

La première est d’entendre ce que nous dit la science et comprendre les possibles vers lesquels elle nous mène.

La deuxième est de revisiter ses fondamentaux afin de les distinguer des postures figées l’empêchant de penser les temps présents et à venir à l’aune de ses véritables valeurs, basées sur la rationalité, la connaissance, l’éducation, l’ouverture à l’autre, le libre arbitre et la dignité égale de tous les êtres humains. Un champ immense d’investigation s’ouvre à l’humanisme.

Alors que le premier humanisme a été l’affirmation de l’individu arraché à ses chaines d’appartenances sociale et religieuses, l’humanisme de demain devra être celui de l’ouverture aux réseaux d’échanges et aux chaînes de solidarité, ainsi qu’une plus grande communion avec ce qui n’est pas humain au sein de la nature comme, un jour peut-être, au sein du monde de l’artificiel.

Pour partie, le monde qui vient sera ce que nous en ferons. Encore faut-il avoir le courage de le regarder en face. Du courage, oui ! D’abord, car cela demande un effort. Au-delà des œuvres de sciences fiction, au-delà des prophéties poétiques ou cauchemardesques des vulgarisateurs, il convient de prendre connaissance avec précision de ce que nous dit la science. Ce qui, dans un pays comme la France où la culture scientifique de base est très modeste,est déjà en soi un défi. Du courage, ensuite, car il faut oser questionner ses certitudes et ses schémas usuels de pensée. Il faut être prêt à déconstruire ses représentations pour mieux en construire de nouvelles en phase avec le présent et l’avenir.

C’est à un tel effort, au fond profondément démocratique et reposant sur une réelle confiance en l’homme, que nous invite Jean-Paul Baquiast dans son essai.

Un modèle constructible de système psychique

revue mensuelle – N° 114 : Les «processus coactivés» et la nouvelle maîtrise du monde
Par Jean-Paul Baquiast et Christophe Jacquemin – 23/01/2011

La planète semble être entrée depuis quelques siècles dans une nouvelle ère (aire) géologique marquée par l’empreinte omniprésente des humains sur les phénomènes naturels. Ce serait l’anthropocène. Pour notre part, nous avons suggéré(1) qu’il valait mieux employer ici le terme d’anthropotechnocène, tout au moins pour désigner l’évolution de la Terre depuis quelques décennies.
Par ce terme, nous postulons que cette évolution est de plus en plus déterminée par un développement exponentiel des technologies associées aux humains dans ce que nous avons nommé les “systèmes anthropotechniques”.
Nous proposons ici d’apprécier la pertinence de cette hypothèse en introduisant le concept de «processus coactivés». Il illustre la prise de pouvoir de plus en plus marquée des technologies en réseau sur l’humain.

Comment définir les «processus coactivés» ?
Ce concept décrit la façon dont, dans un domaine donné, des systèmes informatiques et robotiques en réseau, que nous nommerons des agents, échangent en permanence les informations résultant de leur activité. Il résulte de ces échanges que l’action de chacun de ces agents peut s’enrichir et évoluer en fonction de l’action des autres. Il faut alors noter que e déploiement d’un grand nombre de processus coactivés dans un nombre croissant de domaines et de champs d’activité fait apparaître un système global de coactivations réciproques intégrant les communications informationnelles et les actions physiques de l’ensemble des agents.

Ce système devient un système-méta (une sorte de superorganisme). Dans un premier temps, il acquiert la capacité de prendre des décisions locales de façon autonome puis, très vite, celle d’opérer pour son propre compte. Il se dote en effet dans le cours de sa croissance de l’équivalent de “pulsions fondamentales” qui se transforment en intentions dictant elles-mêmes des comportements globaux. La sélection darwinienne opère à tous niveaux dans ce milieu très comparable au milieu biologique pour ne conserver que les acquis bénéficiant à la compétitivité du système-méta confronté à d’autres systèmes semblables ou différents.

On verra ainsi «émerger» ou s’auto-construire au sein du système-méta une couche haute dotée de l’aptitude à agir intentionnellement sur toutes les informations produites par les agents et par conséquent sur toutes les actions de ceux-ci. Cette couche fera l’acquisition de ce que l’on pourra nommer – en utilisant les termes de la psychologie classique – une capacité à penser, c’est-à-dire à utiliser les résultats de ses observations pour la planification de ses diverses actions. Il s’agira donc d’un système devenant spontanément auto-adaptatif et auto-évolutif.
A partir d’un certain niveau de complexité, il sera difficile en théorie de distinguer de tels systèmes des systèmes vivants, y compris de ceux se définissant eux-mêmes comme «humains» c’est-à-dire dotés de capacités dépassant celles des animaux et des ordinateurs. En pratique cependant, ils pourront montrer des performances dépassant très largement, dans leur champ d’action, celles des humains associés à leur fonctionnement.

C’est ce qui commence à se produire dans les sociétés dites technologiques. Des systèmes globaux se sont mis en place dans certains secteurs. Ils intègrent tout ce qui est calculé par processeur sur quelque système communicant que ce soit, avec simultanément pour objectif et pour résultat de les unifier et de contrôler l’ensemble des informations produites ou échangées. On voit se généraliser des applications ou plus exactement des fonctions autonomes. Elles sont liées dans un premier temps au médium de communication et visent d’abord la supervision, puis ensuite la commande de l’activité des agents. Leur présence et leurs effets sont peu observables et moins encore pilotables par des opérateurs humains car les processus coactivés correspondant s’effectuent beaucoup trop vite et en trop grand nombre pour être compris et analysés à l’échelle humaine. Les ordinateurs les plus puissants existant actuellement – à supposer que ces tâches leur soient confiées – n’en seraient pas davantage capables, au moins dans les délais requis (moins de la milliseconde) pour des réactions éventuelles.

Quelques exemples de processus coactivés

Les exemples choisis ici ne tiennent pas de la science fiction mais s’inspirent d’observations que l’on peut obtenir en étudiant les domaines où se sont mis en place de tels processus coactivés. Il ne s’agit pas de domaines relevant de l’expérimentation en laboratoire et concernent des secteurs vitaux pour la survie des sociétés contemporaines. Ils impliquent d’ores et déjà la vie ou la mort de milliers de personnes, mais surtout des pertes et des profits à la hauteur de milliers de milliards de dollars, bénéficiant à quelques uns et maintenant des catégories sociales entière dans le sous-développement. C’est que nous allons essayer de montrer avec ces quelques exemples.

Les places de marché électroniques

Depuis plus de vingt ans, les Bourses mondiales – où se négocient les valeurs financières et les marchandises – ont été informatisées et mises en réseau. C’est ce phénomène qui a été le principal facteur de ce que l’on nomme la mondialisation financière et qui a soutenu l’idéologie politique dite du néo-libéralisme, selon laquelle le bon fonctionnement de ce système global imposait la disparition des contraintes réglementaires d’origine gouvernementale ou à vocation protectionniste.

Les acheteurs et vendeurs opérant sur ce marché mondial restent en principe des individus divers et variés. En fait, il s’agit de grands organismes, principalement les banques et fonds collecteurs d’épargne. Au sein de ces organismes interviennent des équipes spécialisées, composées de ce que l’on nomme les «traders». Ces derniers sont très bien rémunérés parce que leur expertise peut faire perdre ou gagner en quelques secondes des sommes considérables, aux épargnants et préteurs comme aux banques eux-mêmes. Mais on découvre aujourd’hui que les vrais «traders», ceux qui déterminent l’évolution des taux, sont de moins en moins des humains mais des algorithmes.

Un trader humain peut acheter 1000 actions de telle firme le jeudi matin au cours de 20 euros l’action et les vendre le jeudi soir au cours de 21 euros, réalisant un bénéfice de 1000 euros. Cependant, si le cours de l’action est à un même instant de 19,28 à Londres et de 19,29 à New York, mais passe un dixième de seconde plus tard respectivement à 19,29 et 19,28, acheter à Londres pour vendre à New York ou réciproquement en cas de renversement des cours devient impossible sans l’intervention de ces algorithmes informatiques.

Comment opère un trader humain ? Il recueille et traite dans le minimum de temps les informations sur l’état de l’économie, des entreprises, des tendances politiques et toutes données susceptibles de se répercuter sur les cours. S’il apprend par exemple que tel grand laboratoire éprouve quelques difficultés avec l’un de ses médicaments, il en déduit que l’action de ce laboratoire va baisser et en tire les conséquences, en matière d’achat ou de vente.

Signalons dans ce paysage que le Dow Jones, leader mondial dans l’information économique et boursière, a lancé un nouveau service nommé Lexicon. Ce dernier envoie des informations en temps réel aux investisseurs professionnels. Mais ceux-ci ne sont pas des humains, ce sont des algorithmes, les mêmes qui décident des opérations d’achat-vente. L’information dont ils ont besoin n’est pas qualitative mais numérique. Lexicon traduit pour eux en temps réels les informations qualitatives collectées par le Dow Jones et les transforme en données numériques compréhensibles par les algorithmes en charge des décisions d’investissement.

Ces derniers peuvent à leur tour les répercuter en les modifiant au besoin sur les algorithmes utilisés par d’autres investisseurs. Lexicon participe ainsi avec de nouveaux puissants moyens à la transformation du réseau mondial des places de marché en un vaste ensemble de processus coactivés capable de s’informer de l’actualité générale, d’en extraire des tendances et de s’en servir pour vendre ou acheter. Ce sont ces processus qui prennent désormais les décisions et non plus les humains. Il s’agit de ce que l’on nomme le computer-aided high-frequency trading. Il compte aujourd’hui environ 70% des transactions s’effectuant à Wall Street, et par conséquent dans le reste de la «planète finance».

Les traders à haute fréquence («high frequency traders») dits aussi «flash traders» procèdent à des milliers de transaction par seconde, à une telle échelle qu’ils peuvent perdre ou gagner des fortunes sur une variation de cours de quelques centimes. D’autres algorithmes sont plus lents mais plus sophistiqués. Ils recherchent les investissements négligés par la majorité des autres. Le système global en résultant est plus efficace et rapide qu’aucun esprit humain, même assisté d’un ordinateur. Mais en contrepartie, il est plus difficile à comprendre, prédire et réguler. Les algorithmes coactivés entretiennent entre eux une sorte de conversation par laquelle chacun d’eux répond à la milliseconde aux propos des autres. Des règles mathématiques prédominent alors, éliminant l’émotion et les erreurs de jugement.

Cependant des phénomènes inattendus de feed-back peuvent survenir et provoquer des catastrophes (au sens quasi mathématique du mot) s’étendant à l’échelle du monde en quelques heures. C’est ainsi que surviennent régulièrement des baisses soit ponctuelles soient généralisées dans des délais très courts. Nombre d’investisseurs humains en sortent ruinés. Certains au contraire savent profiter de l’événement. Dans certains cas, le système global peut s’effondrer, et c’est la crise mondiale. Les “bons” traders humains, ceux qui continuent à être très bien rémunérés, sont ceux qui ont compris comment commercer avec les algorithmes. Ils savent se situer à la limite de la catastrophe. Mais certains disent qu’ils sont eux-mêmes devenus des algorithmes.

S’agit-il de phénomènes marginaux, au regard de ce que l’on nomme l’économie réelle ? Le livre de François Morin (Le nouveau mur de l’argent, essai sur la finance globalisée, Ed. du Seuil, 2006) est à ce sujet éclairant. Il précise que le PIB de la planète Terre, celui qui seul importe car il exprime l’économie réelle, ne représente que 3% des échanges financiers mondiaux. On peut imaginer le moment où un système-méta conscient totalement distribué sur le Web, un “méta-trader artificiel” opérant à la micro-seconde, prendra le contrôle total de la finance. Que restera-t-il alors des entreprises, du travail humain, des valeurs humaines fondées sur le travail ?

Le champ de bataille

Après avoir mené plusieurs décennies de suite des opérations militaires se traduisant par une débauche de puissants moyens matériels, les Etats-Unis se sont trouvés mis en échec par des «insurgés» faiblement armés. Ils sont aujourd’hui confrontés à des guerres dites du faible au fort (ou guerres de 4e génération) où les programmes lourds tel que celui de l’avion de combat dit du XXIe siècle, le F35 Joint Strike Fighter de Lockeed Martin, ne suffiront pas à protéger les militaires engagés sur le terrain. Le Pentagone en a conclu que face à des ennemis connaissant bien ce terrain et disposant de l’appui de la population, il lui fallait des armes capables d’augmenter de façon écrasante les capacités sensorielles, physiques et cognitives du simple combattant. Les stratèges ont prévenu que le besoin sera le même dans les probables futurs combats de rue qui opposeront sur le sol national l’armée fédérale ou la garde nationale à des foules révoltées. Nous avons sur ce site évoqué précédemment certaines de ces armes. Le système SCENICC en constitue une nouvelle version, particulièrement démonstrative.

Il s’agit avec SCENICC de doter le combattant d’une vision à 360°, disposant d’une portée d’au moins 1 km et suffisamment discriminante pour faire la différence entre la canne d’un simple berger et l’AK 47 d’un «insurgé» – étant admis qu’il n’était plus diplomatiquement possible de permettre à chaque fantassin ami d’éliminer a priori tous les civils pouvant être des combattants dissimulés dans un rayon de 1 km.

C’est dans ce but que l’agence de recherche du Pentagone, la Darpa vient de lancer un appel d’offres pour la réalisation d’un système baptisé Soldier Centric Imaging via Computational Cameras effort, ou SCENICC. Le système disposera d’un ensemble de caméras ultra-légères, montées sur le casque mais néanmoins capables de donner une vision tout azimut et en 3D. Le soldat pourra littéralement voir derrière lui, zoomer sur les points suspects, disposer d’une vision binoculaire stéréoscopique – le tout en gardant les mains libres et la possibilité de communication verbale.

Pour commander l’ensemble, le système sera doté d’une unité centrale intelligente, capable de mémoriser des instructions, le souvenir de scènes antérieures et tout ce dont peut avoir besoin le combattant pris dans le feu du combat. Cette unité centrale sera connectée à une arme portative puissante, capable d’ «acquérir» les objectifs, suivre les trajectoires des projectiles et évaluer leurs impacts. Il s’agira finalement de mettre en place une «aire de compétences», véritablement post-humaines, dite “Full Sphere Awareness”. Le tout ne devra pas peser plus de 700 g, et disposer d’une batterie de grande capacité, éventuellement rechargeable par le moyen d’un capteur solaire intégré au battle-dress.

Cependant c’est la mise en réseau qui fait la principale force des combattants modernes. Chaque soldat équipé du système SCENICC se comportera comme un noeud (node) au sein d’un réseau reliant chacun d’eux à tous les autres et à divers dispositifs de cartographie et de modélisation du champ de bataille alimentés par des capteurs terrestres ou aériens de type drone. Ce sera un véritable espace virtuel de combat commun au sein duquel chaque combattant sera un élément non pas passif mais proactif. L’ensemble aura nom NETT WARRIOR.
Ce programme devrait associer des industriels tels que Raytheon, Rockwell Collins et General Dynamics. Il ne sera pas pleinement opérationnel avant 3 ou 4 ans, mais des éléments utilisables devraient être livrés dans les prochains mois. Nous n’avons pas d’informations précises sur son coût.

Le champ de bataille ne sera pas seulement occupé par des combattants humains équipés de tels systèmes. Il comportera aussi – il comporte déjà – une grande variété de matériels autonomes eux-aussi dotés de moyens d’observation, de transmission et d’ouverture de feu. Nous pouvons évoquer par exemple les systèmes de type MAARS (Modular Advanced Armed Robotic System). Dans ces catégories on trouvera des engins blindés terrestres de toutes tailles, des appareils aériens sans pilote ou drones eux aussi de toutes tailles et capables de multiples missions différentes. A plus haute altitude seront positionnés des avions stratosphériques robotisés tels que le Global Observer, capable de vols prolongés pour un coût relativement faible. Rappelons que depuis longtemps les satellites militaires en orbite étendent à l’ensemble des terres et des mers la «Global awareness» nécessaire au système-méta militaire ainsi mis en place.

Rappelons un point important, concernant ces systèmes et leurs semblables. Les chercheurs et les laboratoires qui s’y consacrent sont tenus par des accords de confidentialité stricts. Ils ne peuvent pas publier et faire discuter librement leurs résultats. La censure a toujours existé, mais, au prétexte de la lutte anti-terrorisme, elle semble s’aggraver. Quand le public entend mentionner certaines de ces recherches, c’est en conséquence d’une politique de communication bien contrôlée. Il s’agit généralement de décourager des recherches analogues pouvant être financées par les laboratoires civils. Si la Darpa le fait, à quoi bon faire la même chose en moins bien ? Il s’agit aussi de recruter des chercheurs à l’extérieur, attirés par les opportunités de carrière pouvant en découler, dès qu’ils auront accepté de perdre leur indépendance.

Mais en quoi la mise en réseau et la coactivation de tels systèmes produira-t-elle une intelligence et une volonté dont les décisions pourraient s’imposer à celles des chefs hiérarchiques, des Etats-majors et des gouvernements ayant commandité leur production et leurs déploiements ?

On peut répondre à cela de deux façons. En ce qui concerne le détail des opérations, il apparaît de plus en plus que la Net Centric Warfare se traduit par des décisions à conséquences létales prises sur le mode automatique, sans intervention humaine, que les diplomates ont par la suite beaucoup de mal à faire excuser. Il s’agit notamment des ouvertures de feu a priori ou préventives, touchant parfois des éléments «amis». On a tendance à dire que les opérateurs informatiques sont moins susceptibles d’erreurs que les opérateurs humains. Mais lorsque des dizaines d’opérateurs informatiques se coactivent, des phénomènes imprévisibles apparaissent [cf, ci-dessus l’exemple des systèmes boursiers].

En ce qui concerne, à une tout autre échelle, l’engagement d’opérations géostratégiques telle que le fut la décision d’envahir l’Irak, plus personne ne nie aujourd’hui, y compris au sein de l’establishment militaire, que le complexe militaro-industriel américain a dicté, sous la pression d’intérêts très puissants mais ne s’incarnant pas particulièrement dans la personne de responsables individualisés, des décisions dont les suites contribuent actuellement à la perte d’influence des Etats-Unis. Ceux-ci ne sont pas les premiers à souffrir de tels processus coactivés. L’URSS a perdu la compétition qui l’opposait à ces derniers pour les mêmes raisons. Bien qu’encore dans l’enfance à l’époque, l’informatisation des processus de décision stratégique a joué un rôle non négligeable en ce sens, dépossédant les généraux soviétiques et le Kremlin de la compétence «humaine » qui leur avait permis de résister auparavant à la puissance allemande.

Les frontières terrestres

Il s’agit déjà, dans certains pays, de zones de conflits de plus en plus violents. S’y affrontent les puissances voulant se protéger d’une immigration non régulée et des populations chassées par la misère et prêtes à tout dans l’espoir d’une vie meilleure dans les pays riches. Ces populations sont souvent la victime de maffias qui s’engagent à les faire passer contre des sommes importantes, quitte à les abandonner en cas de difficultés. Mais viendra un temps où ce ne seront plus quelques dizaines de milliers de clandestins qui voudront entrer. Il s’agira de millions ou dizaines de millions d’hommes, victimes des désastres climatiques et économiques prévus pour les prochaines décennies. Si les pays (encore) riches persistent à se défendre de ces invasions, la frontière deviendra un champ de bataille, qu’il s’agisse des frontières terrestres ou maritimes.

Traditionnellement, la garde des frontières était confiée à des administrations spécialisées, renforcées à l’occasion par l’armée ou la marine. Mais devant l’accroissement permanent du nombre des clandestins et de leur volonté de passer coûter que coûte, les moyens en hommes que peuvent affecter les pays riches à la défense de leurs frontières atteignent vite des limites. Comme sur le champ de bataille précédemment décrit, on verra de plus en plus les humains relayés par des systèmes de haute technologie. Ceux-ci ont l’avantage d’être disponibles en permanence, d’être relativement économiques et, si l’on peut dire, “de ne pas faire de sentiments”.

N’abordons pas ici la question de la protection des frontières maritimes qui relève encore de moyens de dissuasion classiques, compte tenu de la difficulté que rencontrent les migrants à se doter des embarcations nécessaires à des traversées de quelque durée. Les frontières terrestres sont beaucoup plus poreuses. D’où la nécessité pour les pays riches de faire appel aux nouvelles technologies.

On peut citer en premier lieu les «murs intelligents». Le plus “ambitieux” de ceux-ci est la grande muraille que les Etats-Unis sont en train d’établir entre eux et le Mexique. L’objectif est d’empêcher les incursions non seulement des Mexicains mais de tous les latino-américains attirés par la prospérité du Nord. A plus petite échelle, mais depuis plus longtemps, Israël a établi de tels murs pour délimiter certains implantations et les protéger d’intrusions en provenance de la Palestine ou des pays arabes. L’Espagne protège par un mur ses deux enclaves de Ceuta et Melilla en territoire marocain. Aujourd’hui, la Grèce demande qu’un mur intelligent soit édifié sur la partie de sa frontière terrestre avec la Turquie qui n’est pas naturellement défendue par le fleuve Eyros.

Sur la frontière américano-mexicaine, le mur classique, complété de fossés et barbelés, patrouillé par de trop peu nombreux garde-frontières en 4/4, s’était révélé bien insuffisant. Violé en permanence, il n’avait qu’une utilité de principe. Les projets actuels consistent donc à doubler la muraille physique par des «senseurs» répartis très en amont (à l’extérieur) et capables en principe de distinguer et identifier tous les signes pouvant laisser penser à une tentative d’intrusion. Dès que le risque s’en précise, des robots ayant l’allure de petits chars d’assaut équipés de caméras identifient les intrus et s’efforcent de les décourager d’insister. Si besoin est, un drone (aujourd’hui de type Predator) intervient à son tour. Tout ceci laisse le temps aux gardes-frontières humains de réagir.
Dans l’avenir, en cas d’invasion massive, des unités militaires spéciales, ou fournies par des sociétés civiles de sécurité ad hoc (véritables «chemises brunes» selon les détracteurs américains de ces procédés) prendront les affaires en mains. Tout laisse penser qu’ils se comporteront dans cette tâche avec la brutalité de véritables robots.

Ainsi, tant en amont qu’en aval du mur, des espaces considérables seront sécurisés et militarisés. Comme il s’agit en général de zones désertiques, les protestations ne seront pas trop fortes, mais il n’en sera pas de même dans d’autres régions plus peuplées.

Le projet américain ainsi décrit, conduit par le US Department of Homeland Security et la filiale de Boeing dite Boeing Intelligence and Security Systems, prend actuellement la forme d’un programme de 8 milliards de dollars. Il s’agit du Security Border Initiative Network ou SBInet. Il comportera des tours de 25 mètres réparties tous les 400 m (à terme sur un mur triple long de 3.000 km). Ces tours seront équipées de caméras optiques et infra-rouge pilotées à distance. Des senseurs magnétiques détecteront les véhicules. De plus les tours disposeront d’un radar de surveillance terrestre capable d’identifier les humains, fourni par les «Israël Aerospace Industries» de Tel-Aviv. Le radar sera complété de capteurs acoustiques et capteurs de vibrations destinés à détecter les voix et les pas, aussi furtifs soit-ils. Ces détecteurs devraient pouvoir opérer dans une zone dite de «early warning» s’étendant à 10 km en profondeur. Les caméras se dirigeront automatiquement sur les échos suspects. Elles diligenteront chaque fois qu’elles le «jugeront» utile des messages d’alerte vers les patrouilles armées mentionnées ci-dessus.

Ces murs intelligents ne constituent qu’un début. S’y ajoutent déjà, comme sur le champ de bataille, des robots autonomes terrestres capables d’augmenter le pouvoir de surveillance et le cas échéant d’intervenir directement, en appui voire en remplacement des gardes frontières. Ils patrouillent seuls, jusqu’à identifier quelque chose d’anormal. Ils signalent alors la cible (target) aux postes de garde humains. De tels engins sont aussi utilisés pour protéger des lieux sensibles, militaires ou civils, tels que les sites nucléaires.

Ces robots n’opèrent pas encore dans des lieux ouverts, dont ils n’auraient pas appris à connaître les caractéristiques. Ils interviennent le long de murs et d’enceintes bien définies. Mais cela n’empêche pas qu’ils doivent éviter de confondre des objets ou phénomènes normaux, y compris des ombres, avec les catégories d’intrusions qu’ils doivent signaler. Ils sont donc dotés de capteurs et de logiciels d’intelligence artificielle de plus en plus évoluées, capables de s’affiner par retour d’expérience. Lorsqu’ils ont identifié un phénomène anormal, ils alertent le poste de garde qui peut, avant même d’envoyer un agent, observer la cible par les yeux du robot, voire l’interpeller par l’intermédiaire de l’organe vocal dont il est doté.

Les robots patrouilleurs sont aussi équipés d’armes d’intimidation non létales au cas où les personnes interpellées n’obéiraient pas aux injonctions. On envisage sérieusement de les doter dans l’avenir d’armes à feu. Celles-ci cependant n’interviendraient (jusqu’à nouvel ordre) que sur commande de l’opérateur humain. Mais de l’acquisition de la cible jusqu’à l’ouverture autonome du feu, il n’y a qu’un pas. Il faudra compter avec le fait que le superviseur humain sera vite saturé par la multiplication des situations à risques et sera tenté de déléguer ses pouvoirs au système. Celui-ci ne manquera pas d’en tirer profit, apprentissage aidant, pour augmenter les siens.

Le marché est très porteur et beaucoup de laboratoires et d’industriels y investissent pour réaliser des produits de plus en plus performants. Afin d’obtenir des robots susceptibles de s’adapter à des environnements non encore cartographiés directement par eux, ils envisagent notamment d’utiliser les images 3D du type de celles que recueillent les véhicules utilisées dans l’application Google Street View. Ce même Google vient d’ailleurs d’annoncer qu’il a mis au point une voiture sans conducteur capable de se piloter seule avec ces aides à la localisation.

En dehors des véhicules terrestres, le marché demande de plus en plus de drones, capables d’inventorier des espaces beaucoup plus vastes. Les drones de surveillance seront en principe plus petits et moins coûteux que les grands drones militaires tels que le Predator utilisés au Pakistan par l’armée américaine, mais ils fonctionneront sur le même principe.

Parmi les nouveaux produits, on peut par exemple citer :
– le Mobile Detection Assessment Response System de General Dynamics utilisé à titre expérimental par l’US National Nuclear Sécurity Administration ;
– le robot tout terrain réalisé par la compagnie israélienne C-Nius Unmanned Ground Systems ;
– le robot de garde Samsung Techwin SGR-1 utilisé par la Corée du Sud (pour l’instant ce robot n’est pas mobile).

L’exemple américain est repris un peu partout dans le monde. Une conférence relative à la sécurisation des frontières européennes par des systèmes technologiques du type de ceux évoqués ci-dessus s’est tenue en novembre 2009 à Leeds, (UK). L’Union européenne a lancé un programme dit TALOS (Transportable Autonomous Patrol for Land Border Surveillance) associant des partenaires américains (on s’en serait douté). Les Polonais dirigent le projet, par l’intermédiaire du PIAP, Institut de recherche industrielle pour l’automatisation et les mesures de Varsovie. Le consortium regroupe actuellement les représentants de 10 Etats et dispose d’un budget de 10 millions d’euros. A l’avenir, le réseau pourrait être déployé sur toutes les frontières terrestres de l’Europe. Mais à quel coût et comment sera-t-il accepté ? Comment réagiront les pays voisins, notamment la Russie, qui se trouverait ainsi exclue symboliquement de l’espace européen ?

Que conclure ?

L’évolution vers un monde qui serait de plus en plus défini par les compétitions entre des systèmes anthropotechniques sous contrôle de ce que nous avons nommé des processus coactivés va-t-elle se poursuivre ? Cette perspective est probable, si l’on considère le poids des pouvoirs qui financent les investissement nécessaires à la mise en place des logiciels, matériels et réseaux servant de support à de tels processus.

Les exemple évoqués dans le présent article sont révélateurs. Mais on pourrait en citer bien d’autres. L’encadré ci-dessous liste les domaines dans lesquels, d’après-nous, les processus coactivés ne vont cesser de se développer (certains étant d’ores-et-déjà à l’oeuvre) :

Nanotechnologie et nouveaux matériaux
– Surveillance par nanocapteurs
– Capteurs utilisant les nanotechnologies moléculaires
– Traitements médicaux personnalisés à base de nanocomposants
– Nanoassembleurs moléculaires réplicants
– Revêtements générant de l’invisibilité

Médecine, Biologie et Biométrie
– Kits portables pour le séquencement complet du génome
– Petits robots médicaux
– Consultation et soins par internet
– Identification par mesures biométriques non invasives ou basées sur les activités
– Capteurs d’émissions lumineuses utilisant des composants optico-électriques à bas coût
– Implants médicaux intelligents

Robotique
– Senseurs avancés pour robots
– Intelligence artificielle avancée
– Petits robots domestiques ou jouets
– Robots sociaux
– Surveillance utilisant des nuages de micro-robots, ou “insectes robotisés”

Cognition
– Communication de cerveau à cerveau (“radiotélépathie”)
– Produits publicitaires destinés à s’interfacer avec le cerveau des clients potentiels
– Imagerie par résonance magnétique fonctionnelle avancée (fMRI)
– Techniques de détection du mensonge et de la tromperie
– Identification des émotions des blogueurs
– Reconnaissance avancée de la parole

Information and communication technologies
– Internet des objets et intelligence répartie dans les objets
– Déportation des fichiers et calculs sur des serveurs distants
– Recherche par IA des contenus sémantiques au sein de la réalité
– Identification par la voix
– Identification par puces à radio-fréquence (RFID)
– Identification intelligente des plaques minéralogiques
– Publicité ciblant les comportements en ligne
– Identification et localisation des téléphones mobiles, publicités ciblées
– Compteurs intelligents
– Utilisation de données sous-produites par l’activité d’un calculateur pour en détecter – espionner ses contenus
– Utilisation à l’aide d’outils disponibles sur le marché des signaux produits par une activité quelconque pour détecter – espionner les contenus de cette activité
– Systèmes radio pour contrôler la pression des pneus
– Emetteurs sonars pénétrant les murs (STTW)
– Reconnaissance des visages
– Réalité augmentée
– Echanges faisant appel à l’intelligence artificielle

Quelles sont les forces qui s’impliquent dans la généralisation des systèmes-méta que nous avons décrits ? On trouve en premier lieu celles visant sous couvert de défense et de sécurité, à une militarisation de plus en plus complète de l’espace social. Le but de cette militarisation est de conserver aux détenteurs de la richesse et de la puissance, par la force, les avantages qu’ils se sont donnés.

Il s’agit d’une toute petite minorité en nombre, qui se trouvera de plus en plus confrontée à des milliards de défavorisés de toutes sortes et de toutes origines. Ces derniers ne demeureront évidemment pas passifs et feront tout ce qu’ils pourront pour échapper, avec les armes dont ils disposeront, à la domination. Et pour cette petite minorité, il convient donc préventivement de tenir sous contrôle le reste des populations. Il est significatif de voir que pratiquement toutes les recherches en matière de systèmes intelligents pour la défense et la sécurité sont financées par des budgets militaires. Au premier rang de ceux-ci se trouve le budget de la défense américain, lequel est à lui seul dix fois plus important que ceux cumulés des autres Etats.

Les mêmes minorités de la richesse et de la puissance tirent leurs pouvoirs de la prédation qu’elles exercent sur les activités productives des milliards de travailleurs qui en contrepartie de leur travail au sein de l’économie réelle gagnent à peine de quoi survivre. Nous avons vu que cette prédation s’exerce presque exclusivement aujourd’hui par le biais de la finance internationale en réseau.

Les grands acteurs au sein de cet univers virtuel, banques, fonds spéculatifs, corporate powers, ont réussi à persuader les travailleurs de la base qu’ils devaient leur abandonner les valeurs ajoutées de leur travail. Périodiquement, des crises artificielles viennent spolier les épargnants de leurs économies afin d’en faire bénéficier les «investisseurs». Pour que ceci soit accepté, il fallait évidemment que les humains à la source de ces techniques de prédation, formes renouvelées de l’esclavage ancien, puissent ne pas être accusés d’en être les organisateurs. La meilleure solution consistait à laisser agir des systèmes-méta anonymes, bien plus imaginatifs d’ailleurs que les humains eux-mêmes pour capter les ressources des travailleurs de la base.

Il se trouve cependant que les processus coactivés que nous avons décrits ne cessent de s’étendre au sein des sociétés, en se coactivant sur des échelles de plus en plus larges. Les humains qui étaient à l’origine de leur mise en place risquent de se trouver désormais dépassés par leurs créatures, lesquelles exerceront le pouvoir à leur place.

On retrouvera modernisé le phénomène décrit par le vieux mythe de l’homme face au Golem. Malheureusement, aussi intelligents qu’ils soient dans les détails, les processus coactivés ne semblent pas capables d’une intelligence globale, prenant notamment en charge un développement équilibré des civilisations au sein d’une planète aux ressources de plus en plus insuffisantes. Les catastrophes évoquées dans le scénario pessimiste de l’ouvrage «Le paradoxe du sapiens», risquent donc de se produire.

N’y aurait-il pas cependant des lueurs d’espoir ?
Les événements politiques récents, un peu partout dans le monde, montrent que les populations de la base peuvent se révolter en masse contre le Système qui les aliène. Des destructions peuvent en découler, du type dit luddiste dans les pays anglo-saxons, où le peuple tentait de détruire les machines. Il s’agirait alors d’une révolte faisant appel à la force brutale.

Ne pourrait-on en imaginer une autre infiniment plus subtile et prometteuse ?
Il se trouve que des scientifiques ont essayé avec succès, depuis déjà quelques années, d’analyser le fonctionnement du cerveau humain incorporé (incorporé dans un corps et dans une société). Or ils ont découvert que ce cerveau fonctionne sur le mode des processus coactivés que nous avons évoqué dans cet article.

Certains chercheurs sont allés plus loin. Ils ont simulé sur des systèmes informatiques, dit massivement multi-agents, le fonctionnement de tels processus. Ils pensent avoir découvert ce faisant bien des points encore obscurs intéressant le travail du cerveau, de l’intelligence et de la conscience, propres à l’homme. Mais dans le même temps et en parallèle, ils ont découvert des points encore obscurs intéressant le fonctionnement des processus informatiques se développant actuellement en aveugle, par exemple sur les réseaux de la finance ou sur ceux du web, évoqués dans cet article.

La grave question politique, posée par les recherches de ces scientifiques, est que le savoir ainsi développé par eux sera inexorablement capté, si aucune précaution n’est prise, par les forces finançant la guerre et la spéculation.

Il y aurait pourtant une solution : adopter la démarche du logiciel libre. Celle-ci, qui est également pratiquée pour le développement de certains robots en Open Source, serait la garantie d’un minimum de démocratisation autour de la connaissance et de la mise en oeuvre d’un des enjeux majeurs de notre civilisation technologique, la “conscience artificielle”. Il faudrait pour cela que les investissements nécessaires à générer des systèmes opérationnels à partir du modèle proposé par le professeur Alain Cardon, le père d’un de ces projets, bien connu de nos lecteurs, ou par d’autres chercheurs qui le relaieraient, soient pris en charge et diffusés au sein de communautés d’utilisateurs suffisamment avertis pour s’impliquer dans l’effort de diffusion démocratique qui s’imposerait.

Nous pensons pour notre part que ce serait la meilleure façon de donner suite aux travaux d’Alain Cardon sur la conscience artificielle. Les lecteurs pourront en juger puisque celui-ci a bien voulu nous confier l’édition de son dernier ouvrage «Un modèle constructible de système psychique» publié ici sur le mode de la licence publique Creative Commons.
Il ne s’agit pas d’un ouvrage facile, mais le sujet est loin de l’être. Nous encourageons tous nos lecteurs à le lire.

Ouvrage téléchargeable ici au format pdf.,Attention : ouvrage sous licence Creative Commons
[obligation de citer le nom de l’auteur, utilisation commerciale interdite, modifications interdites].

——————————————————————————————————
(1) Voir : “Le paradoxe du Sapiens – Etres technologiques et catastrophes annoncées“, Jean-Paul Baquiast, editions Jean-Paul Bayol, 2010)

L’avènement des super-intelligences

Jean-Paul Baquiast (fiche auteur en bas de l’article)
Comprendre – Nouvelles sciences, nouveaux citoyens, 2005, p. 123-124

Une priorité politique

Comprendre ce que signifie cette marche vers de super-intelligences à échéance de quelques dizaines d’années, admettre son caractère inexorable (sauf accidents toujours possibles, dus notamment à la folie humaine), devrait donc constituer un objectif de civilisation transcendant tous les autres. Il faudrait orienter dès maintenant en ce sens le fonctionnement des sociétés, dans le cadre d’une priorité scientifique et politique majeure.

La première urgence, nous semble-t-il, concerne la communauté de l’Intelligence Artificielle, qui devra se réveiller, à l’exemple des Kurzweil, Moravec et Minsky. Pour concrétiser cela, Kurzweil propose de remplacer le vieux terme d’Intelligence Artificielle par celui d’Intelligence Augmentée ou Intelligence Accélérée. Ces expressions ont l’avantage de ne plus établir de barrière entre une intelligence humaine et une intelligence artificielle, mais d’anticiper leur fusion dans la super-intelligence annoncée. Il est temps en tous cas de cesser les anciennes querelles entre écoles de l’Intelligence Artificielle et de s’unir pour des chemins de développement qui s’annoncent très prometteurs*. On avait beaucoup disserté ces dernières années sur l’opposition entre la vieille Intelligence Artificielle, réputée avoir échoué par excès d’ambition et manque de moyens de calcul, face à la nouvelle Intelligence Artificielle évolutionnaire. Si l’approche évolutionnaire conserve tous ses mérites pour générer de la complexité par appel à des règles computationnelles simples, l’ancienne Intelligence Artificielle, partant de l’analyse et de la modélisation du vivant, retrouve toutes ses perspectives avec les puissants moyens de calcul mis aujourd’hui à sa disposition. Les exemples récents de synthèse d’ADN simples (virus de la poliomyélite) montrent la voie, amplement développée par Ray Kurzweil : scanner puis numériser le vivant afin d’en recréer des équivalents artificiels susceptibles de s’interfacer avec ce même vivant. L’actualité scientifique offrira dorénavant tous les mois ou presque de nouveaux exemples analogues. Les nanotechnologies fourniront ultérieurement des substituts nombreux susceptibles d’être interfacée avec les composants biologiques.

La seconde urgence consiste à sortir des spécialités disciplinaires (l’intelligence artificielle, la robotique, l’informatique, la physique des composants et des nanocomposants, la biologie, la neurologie, les sciences sociales, etc.) pour aborder des projets intégrés. Ce sont des systèmes super-intelligents qu’il faudra réaliser. Ceci veut dire qu’il ne s’agira pas seulement de logiciels ou robots, en réseaux ou non, mais aussi de corps et d’esprits vivants s’interfaçant momentanément ou durablement avec les artefacts. On ne pourra pas progresser sans la mise en place de projets globaux réunissant des spécialistes des diverses disciplines – dont la plupart seront à former pour les ouvrir aux connaissances et méthodologies qu’ils ne connaissent pas encore.

Une troisième urgence, tout aussi excitante pour l’esprit, concerne la nécessité de commencer à étudier l’impact qu’auront les recherches précédentes sur celles intéressant la physique des hautes énergies, la mécanique quantique et la cosmologie. Nous avons évoqué les perspectives de la physique quantique appliquées à des technologies devenues industrielles comme le laser ou à des technologies encore à l’étude comme la cryptologie quantique ou l’ordinateur quantique. L’ouvrage de Hans Moravec, Robot (op.cit.) montre de façon encore plus systématique ce qui pourra être fait, dans les domaines de la recherche fondamentale, notamment la cosmologie. On sait que les travaux relatifs à ces sciences ne progressent que lentement. Tout semble laisser penser cependant que nous pourrions être à la veille de bouleversements profonds, entraînant des répercussions théoriques et pratiques sur nos conceptions du temps et de l’espace. Celles-ci pourraient être aussi importantes sinon plus que celles introduites au début du siècle dernier par Einstein en matière de cosmologie et par l’école de Copenhague en mécanique quantique. La “demande” représentée par la construction de super-intelligences sera la meilleure incitation pour la nécessaire relance des recherches dans ces domaines fondamentaux – comme sans doute la meilleure justification pour des investissements lourds comme le sont les grands accélérateurs de particules.

Reste un dernier volet, celui du politique, qui doit à la fois être abordée sous l’angle économique et sous l’angle des idées et programmes.

Robotique et croissance

Au plan économique, la mise au point de super-intelligences, comme les recherches en amont nécessaires, supposeront de l’argent et beaucoup de matière grise. L’état de pauvreté dont souffrent actuellement les sciences et les industries s’intéressant à ces questions est à cet égard préoccupant. Or nos sociétés, nous l’avons vu, dépensent des sommes considérables pour traiter des problèmes d’adaptation hérités des siècles derniers : productions agricoles et industrielles obsolètes, course à coups de centaines de milliards aux gisements de pétrole encore disponibles, investissements dits touristiques destinés à d’infimes minorités enrichies par la spéculation**. Un transfert, fut-il partiel, de ces sommes vers la mise au point de super-intelligences entraînerait des retombées économiques considérables, dont l’humanité entière pourrait bénéficier rapidement (par exemple en matière de nouvelles énergies, de technologies moins destructives, mais aussi de techniques d’éducation et de santé, sans parler d’une relance sans doute massive de l’emploi). Il faut en prendre conscience et l’inscrire dans les politiques publiques et des grandes firmes.

Au plan des idées et des programmes enfin, de telles perspectives devraient dès maintenant être présentées aux populations comme des issues majeures. Sans préparation, le citoyen risque d’être mis (ou de se mettre) à l’écart de la compréhension d’un nouveau monde qui s’esquisse. Les gouvernants ont une responsabilité essentielle dans cette perspective. Mais le fait d’un Georges Bush qui polarise les perspectives technologiques sur l’objectif de la seule lutte contre le Mal, ou celui de chefs d’État européens n’ouvrant aucune fenêtre scientifique d’importance à leurs populations, montrent que les hommes politiques occidentaux ont encore tout à apprendre. Et quelle est la place des pays du Tiers-Monde dans ce paysage ?

* Voir à ce sujet ce que cherche à faire l’Institut (américain) pour la Singularité, Singularity Institute
http://singularityu.org/
** Voir par exemple le complexe des deux Palm Islands à Dubaï.

Fiche auteur

Institut d’Études Politiques de Paris 1954, DES de Droit Public et d’Économie Politique.
École Nationale d’Administration 1960-1962

A consacré sa carrière administrative aux technologies de l’information, au Ministère de l’Économie et des Finances, à la Délégation Générale à la recherche Scientifique et Technique, ainsi qu’au niveau interministériel : Délégation à l’informatique 1967-1973, Comité Interministériel de l’informatique dans l’Administration (CIIBA), 1984-1995.

A créé en 1995 le site web Admiroutes (www.admiroutes.asso.fr), non-officiel et bénévole, pour la modernisation des services publics par Internet, ainsi que l’association de la Loi de 1901 Admiroutes, qu’il préside.

Co-rédacteur en chef et co-fondateur d'”Automates intelligents”
(www.automatesintelligents.com), site web et magazine en ligne lancé le 12 décembre 2000
Membre du bureau de l’Association Française pour l’Intelligence Artificielle

Auteur de divers ouvrages et articles dont :
– La France dans les technologies de l’intelligence, 1984, La Documentation Française
– Administrations et autoroutes de l’information . Vers la cyber-administration, 1996, Les Editions d’Organisation
– Internet et les administrations, la grande mutation, 1999, Berger-Levrault

Croix de la Valeur Militaire
Chevalier de la Légion d’Honneur
Officier de l’Ordre National du Mérite