Transhumanisme : business d’un mythe

S’il est un terme qui revient systématiquement à l’évocation des promesses technologiques actuelles, c’est celui de transhumanisme – à savoir, cette idéologie du dépassement de la nature humaine par la technologie. Celui-ci fait désormais florès, que ce soit en fin d’éditorial sur l’intelligence artificielle, lors d’un reportage sur la médecine réparatrice ou dans un rapport sur l’ingénierie génétique. Toujours, la perspective de la fin de l’humanité sinon celle du travail, le mirage de l’immortalité ou encore l’espoir d’une fusion salutaire entre l’Homme et la machine alimentent tous types d’appels à la régulation et d’admonestations éthiques, repris en cœur dans le paysage médiatique français comme autant de litanies post-modernes. Or, pour dénoncer les vraies erreurs scientifiques de ceux qui profitent de ce business du mythe, il s’agit de ne pas se tromper de procès.

Une humanité à deux vitesses ?

Le transhumanisme subit le tir croisé de bons et de mauvais procès. Dans cette dernière catégorie, le plus courant consiste à dire que seuls les plus riches auront accès aux technologies augmentatives (implants neuronaux, prothèses bioniques voire modifications génétiques), leur conférant un avantage concurrentiel indéniable sur le reste de la population. Faux procès puisque les technologies sur lesquelles les transhumanistes portent leurs espoirs, regroupées sous l’acronyme NBIC, (nanotechnologies, biotechnologies, informatique et sciences cognitives) progressent à un rythme exponentiel proportionnel à l’effondrement de leur coût. L’exemple le plus marquant est celui du coût du séquençage de l’ADN – le premier de ce genre ayant été finalisé en 2003 après quinze ans de recherches pour une dépense de deux milliards d’euros. Ce même exercice se réalise aujourd’hui en quelques heures pour moins de 750€.

Le coût des technologies de pointe s’effondre en effet grâce à plusieurs phénomènes. En raison, d’abord, d’économies d’échelles dues à une augmentation de la production technologique procédant de celle de la demande. De même, les innovations croisées dans les méthodes de productions – terme qui désigne le fait que les progrès dans un domaine permettent des innovations dans un autre – donnent lieu à des observations remarquables : citons par exemple la réalisation, par Joel Gibbard, d’une prothèse de main grâce à une imprimante 3D. Imprimable en une quarantaine d’heures seulement, cette prothèse coûte un peu moins de 1 370€ contre des tarifs habituellement compris entre 41 000 à 82 000€.

Dans le même ordre d’idée, on associe souvent l’eugénisme – cette volonté de modifier le patrimoine génétique humain – transhumaniste à celui d’autres idéologies totalitaires. La sélection des embryons ou la modification de son propre génome ne serait pourtant pas l’apanage des régimes inégalitaires : Luc Ferry considère au contraire, dans La Révolution transhumaniste, qu’elle permettrait la réalisation de l’utopie égalitaire. Après avoir gommé autant que possible les sources d’inégalités socialement construites, l’ultime bastion de l’inégalité entre les individus demeure, puisque l’on ne choisit pas son génome. « From Chance to Choice » serait alors le slogan tout désigné d’une société où la liberté des individus à s’autodéterminer ferait office de valeur universelle.

L’intelligence humaine bientôt dépassée ?

Le Professeur Laurent Alexandre, très entendu sur le thème de l’intelligence artificielle (IA), invoque régulièrement le risque d’une humanité dépassée dans tous les domaines par la puissance technologique.

Kevin Kelly, essayiste et co-fondateur du magasine Wired, s’attaque à cette idée dans un article publié en avril 2017. Il y démontre que l’idée de l’avènement d’une intelligence technologique supérieure en tout point à la nôtre n’est que le produit d’une série d’erreurs scientifiques pourtant largement répandues dans la Silicon Valley. En réalité, les erreurs attachées à l’intelligence artificielle trahissent une incompréhension de ce qu’est l’intelligence d’une manière générale. Par exemple, la vision unidimensionnelle de l’intelligence, pourtant reprise par Nick Bostrom, transhumaniste et auteur de Superintelligence, s’avère poser problème. Il n’existe pas d’échelle d’évolution sur laquelle puisse se situer de successives formes d’intelligences. L’intelligence, au contraire, est pluridimensionnelle et non linéaire, c’est-à-dire que chaque type de cognition répond à un besoin spécifique (lié à l’adaptation d’un système biologique à son environnement).

Certes, des programmes d’IA sont d’ores et déjà imbattables en calcul, aux échecs ou au jeu de Go. Il est à admettre qu’aucun être humain n’a la mémoire nécessaire pour retenir tout Wikipédia, comme l’a fait le superordinateur Watson d’IBM pour vaincre le champion du monde de Jeopardy dans une séquence largement relayée par les médias. Mais l’intelligence humaine est-elle réellement mesurable à cette aune ? Un écureuil peut retenir la localisation exacte d’un millier de cachettes à noisettes pendant toute sa vie : cet animal est-il pour autant plus intelligent que notre voisin qui n’a de cesse d’égarer ses clés ? Kevin Kelly revendique l’idée qu’il ne saurait exister d’intelligence absolue, dite de general purpose. La question du sens, ou de la fonction de l’intelligence, est primordiale.

En effet, chaque type de cognition a une fonction au sens physiologique comme cela a été démontré par les neuroscientifiques modernes (Antonio Damasio par exemple). La question du support (corps carboné versus puces en silicium) conditionne et « donne un sens » à la nature profonde d’une intelligence. Sans corps biologique, l’intelligence artificielle ne peut se comparer à la nôtre. Il en découle que le type de cognition attaché au corps biologique humain ne permet pas de retenir des terra octets de données par cœur. En revanche, lui seul sait donner un sens à chacune des phrases d’un livre, sens qui résulte des liaisons neuronales complexes ramenant chaque concept à une sensation de plaisir ou de déplaisir inhérente à la neurophysiologie humaine.

L’intelligence humaine restera ainsi toujours la seule adaptée à un contexte proprement humain. Si elle peut avoir utilité des applications dérivées du machine-learning, celles-ci ne sauraient rester que des outils mis à notre disposition. Bien que leur complexité donne à ces outils les formes de certains types de cognitions avancées (calcul, déduction, analyse, synthèse, etc.), l’intelligence humaine sera toujours nécessaire pour redonner un sens proprement humain à leurs produits.

Le nouveau business du mythe : entre marketing de la peur et logique d’escalade

Il conviendrait dès lors de relayer les prophéties d’une super-intelligence artificielle au rang de mythes fondés sur nombre de biais et d’erreurs scientifiques. Il se trouve pourtant que derrière les discours apocalyptiques qui s’en nourrissent peuvent se cacher d’importants intérêts économiques.

Entretenus par Hollywood et renforcés par l’entremise de tribunes, ces mythes permettent de faire monter l’anxiété dans l’opinion, à grand renfort de tweets annonciateurs de l’extinction prochaine de l’humanité. Encore récemment (4 septembre 2017), le très populaire dirigeant de Tesla, Elon Musk, annonçait que la compétition pour créer une IA supérieure déclenchera une troisième guerre mondiale.

Des propos qui font écho à ceux de nos techno-prophètes hexagonaux qui déplorent le retard et les valeurs conservatrices d’une Europe, en retard sur le terrain des technologies NBIC. Ici, on agite le spectre de la supériorité chinoise et américaine pour justifier la course à l’armement technologique. « Nous ne les convaincrons pas de devenir conservateurs, alors que fait-on ? Acceptons-nous d’être déclassés, de devenir les Amish du XXème siècle, en défendant nos valeurs ? […] Il est urgent de prendre la mesure de l’ampleur de cette révolution. » écrit ainsi Laurent Alexandre, dont le dernier livre s’intitule La Guerre des Intelligences.

L’horizon indépassable de ce conflit annoncé a pour effet paradoxal de nous précipiter dans une logique d’escalade pour la dominance technologique. Pour pallier l’absence de concertation internationale à un niveau étatique sur ces enjeux, certains intérêts privés s’allient. En septembre 2016, Amazon, Facebook, Google, Deepmind, Microsoft, IBM, s’unissaient dans un consortium technologique nommé Partnership on AI. Bientôt rejoints par Apple, ces géants du digital affichent vouloir s’entendre sur une utilisation éthique de l’IA.

Insuffisant pour Elon Musk, qui a fait savoir par tweets interposés aux patrons de Google et de Facebook qu’ils ne prenaient pas la perspective de l’avènement d’une super-intelligence à sa juste mesure. Un an auparavant, il créait lui-même une association à but non lucratif destinée à promouvoir la recherche favorisant « une IA à visage humain » nommée Open AI. Après deux ans de recherche, la conclusion de l’industriel est sans appel : « Il est urgent d’hybrider nos cerveaux avec des micro-processeurs, avant que l’intelligence artificielle nous transforme en animaux domestiques ».

Il est fort à parier qu’avec de tels discours, les sommes investies dans Open AI trouveront la voie de la rentabilité : Neuralink, nouvelle start-up dévoilée par Elon Musk le 28 Mars 2017, propose à ses clients de rester dans la course à l’intelligence grâce à ses implants intracérébraux connectés (disponibles d’ici cinq ans selon les dernières annonces).

Une nécessaire prise de recul

Il est nécessaire de prendre un certain recul épistémologique ainsi que d’être conscients de nos biais culturels si nous voulons faire le tri entre les effets d’annonce, les promesses démiurgiques et la réalité des avancées scientifiques, entre les questionnements légitimes et le marketing de l’anxiété.

Les avancées technologiques des NBIC portent en effet des promesses importantes dont il ne sera possible de profiter qu’une fois nos imaginaires débarrassés de nombre de fantasmes qui y sont rattachés. Il ne s’agit pas de refuser d’emblée les implants intracérébraux, la thérapie génique, les prothèses bioniques ou la sélection des cellules souches, mais de rester vigilants quant au rôle systémique des usages qui en sera fait. Dans un récent rapport, les Vendredis de la Colline énoncent un principe thérapeutique selon lequel doit se refuser le dopage et la mutilation d’un corps sain qui souhaiterait s’augmenter : prenons le cas d’un athlète qui demanderait à se sectionner les jambes pour pouvoir porter des prothèses en carbone, plus performantes. Le principe thérapeutique est une boussole importante pour éviter de nombreuses dérives, mais il doit être intégré à une vision systémique plus large. En effet il importe également que ne soit pas banalisé le recours à la thérapeutique quand cette dernière ne fait que pallier les carences d’une démarche préventive efficiente. Par exemple, le recours aux implants pancréatiques ne doit pas se substituer à une prévention globale contre le diabète de type II, dont on connaît les liens avec le mode de vie et l’environnement social.

Prendre du recul, discuter de la fonction et des usages, tel pourrait être le rôle d’une Convention of Parties (COP) digitale autour des sujets du numérique et de l’humain, idée pour laquelle milite notamment le Professeur Guy Vallancien. Sans doute est-ce un moyen d’éviter la logique d’escalade dans laquelle nous précipitent les businessmen du techno-frisson.

Par Ken LeCoutre, responsable du département “Santé & Innovation” des Vendredis de la Colline.

Un nouveau développement permet d’implanter des implants cérébraux de niveau supérieur

Les chercheurs révolutionnent les interfaces cerveau-ordinateur à l’aide de l’électronique au silicium

Dans le nouveau projet DARPA, les chercheurs exploitent les dernières technologies dans l’électronique au silicium pour inventer un dispositif d’interface neuronale implantable qui pourrait transformer la façon dont les systèmes artificiels améliorent les fonctions du cerveau.

Aujourd’hui, les dispositifs d’électrodes implantées pour stimuler le cerveau sont des dispositifs extrêmement grossiers avec une poignée d’électrodes qui sont utilisées pour atténuer les effets de la maladie de Parkinson, de l’épilepsie et d’autres affections neurodégénératives. Le nombre de patients avec ces dispositifs représente seulement des dizaines de milliers en raison de l’extrême invasivité du processus d’implantation et de la grande taille du dispositif implanté. L’invention d’un dispositif d’implant moins invasif avec de nombreux autres canaux qui peuvent interagir avec le cerveau entraînerait des améliorations révolutionnaires dans les interfaces cerveau-machine, y compris les interfaces directes avec le cortex auditif et le cortex visuel, en augmentant de manière spectaculaire la façon dont les systèmes artificiels peuvent prendre en charge la fonction cérébrale.

A flexible multielectrode array designed by Shepard and his team. If successful, this noninvasive device could alter the lives of people with hearing and visual impairments and neurodegenerative diseases. Credit: Ken Shepard

Grâce à une nouvelle subvention de 15,8 millions de dollars sur quatre ans de l’Agence pour les projets de recherche avancée de défense (DARPA) du département de la Défense des États-Unis (United States Department of Defense, abrégé par DoD), le professeur de Columbia Engineering, Ken Shepard, pionnier dans le développement de l’électronique qui interfère avec les systèmes biologiques, dirige une équipe pour faire exactement cela : inventez un dispositif d’interface neuronale implantable qui pourrait transformer la vie de personnes atteintes de maladies neurodégénératives ou de personnes qui ont une déficience visuelle et auditive.

“Ce sujet a attiré beaucoup d’intérêt venant du secteur privé, y compris les start-up Neuralink et Kernel”, explique Shepard, professeur de génie électrique et d’ingénierie biomédical à Columbia Engineering. “Si nous réussissons, la petite taille et l’échelle massive de cet appareil pourraient donner la possibilité pour des interfaces transformationnelles au cerveau y compris des interfaces directes avec le cortex visuel qui permettraient aux patients qui ont perdu leur vue de discriminer des modèles complexes à des résolutions sans précédent. Il s’agit d’un projet très ambitieux pour Columbia, en effet pour nous tous, et nous sommes très heureux d’aborder une question aussi difficile.”

Un implant cérébral se connectera avec 1 million de neurones

Le projet de Shepard se trouve dans le programme de R&D, Neural Engineering System Design (NESDconception de système d’ingénierie de neurones), une partie du plus grand programme de recherche du gouvernement fédéral : l’initiative BRAIN (BRAIN Initiative : Brain Research through Advancing Innovative Neurotechnologies – aussi appelé Brain Activity Map Project). NESD vise à développer une interface neuronale implantable qui peut fournir une résolution de signal sans précédent et une bande passante de transfert de données entre le cerveau et le monde numérique. L’équipe de Shepard comprend des chercheurs d’institutions de premier plan comme Baylor College of Medicine, California Institute of Technology, Duke University, New York University, Northwestern et Medtronic. À Columbia, le projet comprend Rafael Yuste (professeur de sciences biologiques et neurosciences, arts et sciences), Liam Paninski (professeur de statistique et de neurosciences, arts et sciences) et Luca Carloni (professeur d’informatique, ingénierie). L’équipe est axée sur la réalisation des objectifs NESD pour concevoir un dispositif d’interface neuronale implantable à l’échelle d’un million de canaux pour permettre l’enregistrement et la stimulation du cortex sensoriel. En outre, ils prévoient de demander l’approbation réglementaire pour commencer les expériences chez l’homme à la fin du programme de quatre ans.

Les scientifiques commencent à travailler sur l’ingénierie inverse du cerveau

“C’est un calendrier très agressif”, note Shepard. “Nous pensons que le seul moyen d’y parvenir est d’utiliser une approche tout électrique qui implique un réseau d’enregistrement de surface massif avec plus d’un million d’électrodes fabriquées comme un dispositif monolithique sur un seul circuit intégré complémentaire en oxyde de métal-semiconducteur (CMOS). Nous travaillons avec Taiwan Semiconductor Manufacturing Company comme notre partenaire de fonderie”.

Compte tenu de la complexité et de l’ampleur des interfaces requises, Shepard et son équipe croient que le degré de non-invasion requis pour l’utilisation humaine dans ce délai agressif ne peut être réalisé qu’avec des architectures d’électrodes basées sur la stimulation et l’enregistrement sur la surface du cerveau. Bien que son approche soit fondée sur la pratique clinique humaine actuelle avec des matrices d’enregistrement en surface, la grande échelle et les exigences du programme NESD nécessitent un écart dramatique par rapport aux approches électriques antérieures des interfaces cerveau. Shepard croit que l’obtention de l’échelle requise pour NESD n’est possible que si son équipe exploite toutes les fonctionnalités de la technologie de pointe CMOS, ainsi que les capacités de fabrication associées de l’industrie, et utilise l’intégration monolithique des électrodes de stimulation/enregistrement avec une plate-forme électronique CMOS sous-jacente.

Les puces implantées sont ultra-conformes à la surface du cerveau, très légères et suffisamment souples pour se déplacer avec le tissu. La puce ne pénètre pas dans le tissu cérébral et utilise l’alimentation sans fil et la télémétrie de données.En utilisant l’état de l’art dans la nanoélectronique au silicium et l’appliquant de manière inhabituelle, nous espérons avoir un impact important sur les interfaces cerveau-ordinateur”, déclare Shepard.Nous avons réuni une équipe de classe mondiale pour traduire nos efforts à des fins humaines à la fin de ce programme”.

Columbia University School of Engineering and Applied Science

* interface neuronale directe – aussi appelée IND ou BCI ou encore ICM (brain-computer interface : interface cerveau-machine, ou encore interface cerveau-ordinateur)

Neurosciences et Cabbale : Un dialogue possible ?

Table ronde organisée le 18 mai 2016 par Flavia Buzzetta, résidente de l’IEA (Institut d’études avancées) de Paris.

À l’occasion de la parution de l’ouvrage de Shahar Arzy et Moshe Idel “Kabbalah. A Neurocognitive Approach to Mystical Experiences” « Kabbale.  Approche Neurocognitive des Expériences Mystiques » (Yale University Press, 2015), Flavia Buzzetta organise une rencontre entre les auteurs et des spécialistes de neurosciences. Moshe Idel, éminent expert des études sur la mystique juive, et Shahar Arzy, neuroscientifique cognitif et neurologue, proposent dans leur étude une intéressante clef de lecture de la Cabbale à travers les nouvelles recherches des neurosciences.

Dans ce livre, les auteurs analysent l’expérience mystique vécue par les adeptes de la Kabbale (dits « kabbalistes »), en révélant les mécanismes et les techniques auxquels leur système cognitif est soumis. À titre d’exemple, les auteurs ont étudié l’état d’extase religieux, qui se caractérise par une altération des fonctions neurocognitives constituant le « Soi ». Cet état peut engendrer des éléments de « dépersonnalisation » (perte de la personnalité), pouvant se manifester par un phénomène appelé « autoscopie » (comme si quelqu’un s’observait lui-même, de l’extérieur de son propre corps).

Les chercheurs donnent une explication de ce phénomène et de l’état mental des kabbalistes en général en mettant en lumière les résultats de la recherche médicale en Neurologie, en Neuropsychologie et en Psychologie. Ces résultats s’appuient sur les processus neurocognitifs qui surviennent au cours de ces expériences d’extase religieux. (source Hadassah France).

La table ronde a précisément pour objectif d’ouvrir un dialogue sur ces nouvelles perspectives en confrontant les domaines apparemment très différents des sciences du cerveau et de la mystique religieuse.

La science informatique va-t-elle construire sa propre épistémologie ?

Il est des pièces d’archives qui peuvent retrouver une certaine actualité, surtout lorsque les questions qu’elles formulaient et discutaient n’ont pas fait l’objet de beaucoup de développement depuis une vingtaine d’années : c’est peut-être le cas de l’étude que l’on reprend ici sous son titre initial : “La science informatique va-t-elle construire sa propre épistémologie”, étude publiée en juillet 1990 par la belle revue “Culture Technique n° 21” (CRCT) consacré alors à “l’Emprise de l’Informatique”.

Cette pièce d’archive invite à un “enrichissement du regard” qui me semble toujours pertinent, et surtout fort légitime. Les enjeux de civilisation sont désormais si manifestes que l’on ne peut plus rester inattentifs aux enjeux planétaires, épistémologiques et éthiques, des “emprises de l’informatique” (et a fortiori d’une science informatique qu’il faudrait, je crois appeler science de la computation) sur nos pratiques et a fortiori sur nos enseignements et nos programmes de recherches.

Je souhaite enfin exprimer mes remerciements à la Revue “Culture Technique”’ et à son courageux Directeur, Jocelyn de Noblet, qui surent à l’époque tenter de réactiver une attention vivifiante sur des enjeux de civilisation dont nous percevons peut-être mieux l’importance vingt ans après.

Jean-Louis LE MOIGNE

Télécharger le PDF

Les scientifiques commencent à travailler sur l’ingénierie inverse du cerveau

Des chercheurs de l’Université Carnegie Mellon ont un nouveau projet : L’ingénierie inverse du cerveau. Leurs objectifs est de « rendre des ordinateurs qui pensent comme des humains. » Leur recherche de cinq ans a été financée par l’US Intelligence Advanced Research Projects Activity (IARPA) pour $ 12 millions.

L’effort de recherche, par le biais d’un programme de recherche de l’IARPA’s Machine Intelligence from Cortical Networks (MICrONS), fait partie de l’U.S. BRAIN Initiative pour révolutionner la compréhension du cerveau humain. Il est dirigé par Tai Sing Lee, professeur au Computer Science Department et le Center for the Neural Basis of Cognition (CNBC).

« MICrONS est semblable dans la conception et la portée pour le projet du génome humain, qui a d’abord séquencé et cartographié tous les gènes humains, » a déclaré Lee. « Son impact sera probablement sur le long terme et promet d’être un changeur de jeu en neuroscience et en intelligence artificielle. »

Sur une vaste échelle, les chercheurs espèrent découvrir les règles que le système visuel du cerveau utilise pour traiter l’information. Ils croient que, grâce à cette compréhension, ils peuvent révolutionner des algorithmes d’apprentissage automatique et la vision par ordinateur.

Plus précisément, les chercheurs veulent améliorer les performances de réseaux de neurones artificiels — des modèles de calcul pour l’intelligence artificielle inspiré par le système nerveux central des animaux. Ce type de technologie est plus fréquent que vous ne le pensez. Il est utilisé sur les voitures autonomes, la technologie de reconnaissance faciale et permet de comprendre la parole et l’écriture.

Cependant, la technologie est un peu dépassée.

« Les réseaux neuronaux d’aujourd’hui utilisent des algorithmes qui ont été essentiellement développés dans les années 1980, » a déclaré Lee. “Aussi puissant soient-ils, ils ne sont pas encore aussi efficace ou puissant que celles utilisées par le cerveau humain. Par exemple, pour apprendre à reconnaître un objet, un ordinateur a besoin qu’on lui montre des milliers d’exemples étiquetés et enseigné de façon supervisée, alors qu’une personne en exigerait qu’une poignée et sans avoir besoin de supervision. »

Afin de faire des mises à jour et des améliorations, l’équipe cherchait à mieux comprendre les connexions du cerveau. Sandra Kuhlman, professeur adjoint de sciences biologiques de Carnegie Mellon et le CNBC, prévoit d’utiliser une technique appelée «L’imagerie calcique à deux photons microscopie » pour enregistrer la signalisation des dizaines de milliers de neurones individuels chez les souris puisqu’ils traitent les informations visuelles.

Ceci est considéré comme un exploit sans précédent, dans le passé, seulement un seul neurone, ou des dizaines de neurones, en général ont été échantillonnés dans une expérience, observe-t-elle.

“En intégrant des capteurs moléculaires pour surveiller l’activité neuronale en combinaison avec des méthodes optiques sophistiqués, il est maintenant possible de suivre en même temps la dynamique neuronale de la plupart, sinon de la totalité des neurones dans une région du cerveau,” a dit Kuhlman. « En conséquence, nous produirons un ensemble de données massifs qui va nous donner une image détaillée du comportement des neurones dans une région du cortex visuel. »

Toutes les informations découvertes par l’équipe seront compilées dans des bases de données qui seront accessibles au public pour les groupes de recherche partout dans le monde.

Les collaborateurs et les chercheurs du CMU espèrent utiliser ces bases de données massives pour évaluer les modèles d’apprentissage et améliorer ainsi leur compréhension des principes de calcul du cerveau. Lee estime que le projet se traduira par des machines qui ont plus de qualités humaines. En outre, il établira les meilleurs algorithmes informatiques pour la reconnaissance de modèle et d’apprentissage.

« L’espoir est que ces connaissances mèneront à l’élaboration d’une nouvelle génération d’algorithmes de machine learning qui permettront aux machines IA d’apprendre sans surveillance et de quelques exemples, qui sont les maîtres mots de l’intelligence humaine, » a déclaré Lee.

Cependant, tout le monde n’est pas d’accord avec le projet. Yann LeCun, directeur de recherche de l’IA à Facebook et professeur à l’Université de New York, ne croit pas que nous devrions copier le cerveau pour construire des machines intelligentes. “Nous avons besoin de comprendre les principes sous-jacents de l’intelligence avant de savoir ce qu’il faut copier. « Mais il faut s’inspirer de la biologie », dit-il.

Source : Kurzweil, via Futurism


Extrait de : La singularité, la conscience et l’ingénierie inverse du cerveau
Interview de Ray Kurzweil et commentaires
par Jean-Paul Baquiast et Christophe Jacquemin -14/01/2010

Question 3 : Que diriez vous des perspectives offertes à l’Intelligence Artificielle par l’ingénierie inverse appliquée au cerveau (reverse engineering the brain) dont vous vous faites le promoteur ?

RK : Je travaille actuellement, après mes films, à deux livres, How the Mind Works et How to build one (a Mind). J’y traite principalement du cerveau mais j’y évoque l’esprit (mind) pour aborder la question de la conscience que nous venons de mentionner. Un cerveau devient un esprit quand il se conjugue avec un corps et, au delà de ce corps, avec les multiples entités sociales impliquant celui-ci.

Pour moi, l’ingénierie inverse du cerveau ne sera pas une simple opération mécanique, dont David Chalmers a dit à juste titre qu’elle ne mènerait pas à grand chose. Il s’agira au contraire ce faisant de comprendre les bases mêmes de l’intelligence. Pour cela, il faudra expérimenter à partir de simulations opérationnelles. On découvrira alors que certaines choses sont importantes et d’autres pas: la gestion des hiérarchies et des changements, la propriétés des patterns, les déterminants de haut niveau, etc. Or il se trouve que le néo-cortex dispose d’une structure très uniforme. La façon dont il traite ces questions basiques semble se retrouver partout. Si on réussit à les simuler à petite échelle, on pourra les reproduire et les amplifier à grande échelle. Ce sera là faire de l’ingénierie.

Le cerveau de l’homo sapiens est certes très lourd et complexe, mais il traite l’information sur un mode très lent, et les connexions interneuronales sont toutes semblables. Beaucoup sont d’ailleurs redondantes. On peut donc espérer, à partir d’un automate élémentaire bien conçu mais simple, les reproduire sans limitations de taille dans un cerveau artificiel, en introduisant d’ailleurs si nécessaires des niveaux hiérarchiques nouveaux. En fait tout sera affaire d’expérimentation, en se plaçant dans les problématiques qui sont celles du cerveau humain, ou dans d’autres que nous imaginerons.

On pourra dans cette perspective étudier aussi les dérèglements mentaux, psychose maniaco-dépressive ou schizophrénie, en simulant des comportements équivalents. Mais bien sûr il faudra rester très prudent, car on ne sait pas grand chose de la façon dont ces psychoses se produisent dans les vrais cerveaux.

On m’a objecté, notamment John Horgan, que pour simuler le cerveau humain, il faudrait des trillions de lignes de code, alors que les logiciels les plus sophistiqués ne dépassent pas quelques dizaines de millions de lignes. Mais il s’agit d’une absurdité. Il n’y a rien dans le cerveau qui soit à ce point compliqué. Le cerveau est le résultat de l’expression du génome. Or celui-ci ne dépasse pas environ 800 millions de bits d’information. De plus, il est plein de redondance. Les séquences les plus longues peuvent être répétées des centaines de milliers de fois. Si l’on utilise la compression d’information, le génome peut être représenté par 50 millions de bits, dont la moitié seulement intéressent la genèse du cerveau. Cela peut être simulé par 1 million de lignes de code seulement. D’autres modes de calcul donnent le même ordre de grandeur.

AI : On peut penser, même s’il ne le dit pas clairement, que Ray Kurzweil se place dans une perspective évolutionniste. Il est exact que les cerveaux humains, ou l’appareil nerveux d’organismes plus simples, ne se sont pas construits d’un coup. Ils ont été le résultat de l’agrégation de processus certainement très simples, associant des composants biologiques eux-mêmes très simples apparus aux origines de la vie, chez les bacilles voire les virus primitifs. Ce sont les aléas de la compétition darwinienne, entraînant la nécessité de résoudre des problèmes eux-mêmes simples mais de plus en plus nombreux, qui ont entraîné le rassemblement au niveau des génomes de gènes codant pour des organisations cérébrales qui nous paraissent aujourd’hui effroyablement complexes, mais qui ne le sont sans doute pas.

Aujourd’hui d’ailleurs, il semble que l’imagerie cérébrale appliquée à des cerveaux humains engagés dans des opérations cognitives jugées particulièrement complexes, comme la reconnaissance des visages, ne fasse pas apparaître de bases neurales très diversifiées et complexes. C’est l’assemblage de ces bases dans des aires cérébrales distinctes en relation par des neurones réentrants, sous commande d’une programmation génétique peu différenciée, qui explique la variété des fonctions permises par le cerveau. De la même façon en est-il de l’émergence de fonctions plus complexes telles que la conscience. Nulle part il n’a été possible d’identifier de neurones responsables de fonctions complexes et moins encore d’hypothétiques neurones de la conscience.

Il est donc plausible de penser que, une fois réalisé un module artificiel unique permettant de réaliser des fonctions cognitives (vraiment) élémentaires, une fois par ailleurs mis en place le moteur (très simple) permettant de fabriquer et d’assembler des millions de tels modules, le tout dans des organismes artificiels (robots ou même entités virtuelles) associant ces bases neurales artificielles et des corps artificiels dotés d’entrées-sorties elles-mêmes simples, tous les éléments seraient réunis pour générer par compétition darwinienne un certain nombre de fonctions complexes permettant de commander des fonctions intellectuelles capables de résoudre des problèmes du type de ceux qu’affrontent les corps et cerveaux humains.

Dans cette perspective, les sophistications de l’IA actuelle, comme le souligne Ray Kurzweil, ne pourront à elles seules permettre de créer un cerveau artificiel (modèles de Markov, algorithmes génétiques, réseaux neuronaux, algorithmes de recherche et d’apprentissage). Il ne s’agit que de techniques. Elles seront très utiles le moment venu pour doter les modèles de fonctionnalités utiles, mais rien ne remplacera un travail pas à pas analogue à celui accompli par l’évolution pendant des centaines de millions d’années. Comme les technologies émergentes résultant de la Singularité devraient permettre de faire ce travail en quelques dizaines d’années sinon moins, c’est cette voie là qui mériterait, pensons nous, d’être explorée. Remarquons que c’est cette voie là que de son côté, à quelques différences près, propose Alain Cardon.

Nous conclurons en constatant que les propositions faites par Ray Kurzweil en matière d’ingénierie inverse du cerveau n’ont plus actuellement grand chose à voir avec une des idées qu’il avait envisagée par ailleurs: télécharger un esprit humain sur une telle plateforme, ceci afin d’obtenir des doubles de soi.
Mais chaque chose en son temps….

EDMR : Désensibilisation et Retraitement (de l’information) par le mouvement des yeux

EMDR est l’acronyme de “Eye Movement desensitization and reprocessing”. Cette thérapie est notamment utilisée dans le traitement du syndrome de stress post-traumatique. Parfois controversée, ses résultats semblent actuellement suffisamment probants puisque son efficacité est reconnue notamment par l’OMS (juillet 2012) et en France par l’INSERM (2004), la Haute Autorité de la Santé (HAS – juin 2007 – page 18 – prise en charge du TSPT – chapitre psychothérapies structurées), l’American Psychiatric Association (2004), et le National Institute for Clinical Excellence du Royaume-Uni (2005). Elle apparaît donc actuellement comme une thérapie de choix pour tout ce qui relève de la psychotraumatologie. Par bien des aspects, l’EMDR apparaît comme une thérapie intégrative. En effet, elle semble mettre en action d’une manière originale et simultanément à la fois des aspects psychodynamiques, cognitifs, comportementaux, émotionnels, corporels et sensoriels. Son originalité tient pourtant principalement dans ce dernier point. Il semblerait que la stimulation sensorielle oculaire, tactile ou sonore, de l’information dysfonctionnelle d’origine traumatique permette de remettre en route son traitement et son classement dans une mémoire explicite/narrative plutôt que dans une mémoire implicite/motrice (Francine Shapiro). (Wikipédia)

L’EMDR est une approche psychothérapeutique, découverte aux Etats-Unis en 1987 par Francine Shapiro, psychologue américaine et membre du Mental Research Institute de Palo Alto, et pratiquée depuis dans le monde entier auprès de milliers de personnes de tout âges et de toutes conditions souffrant de troubles psychologiques.

La thérapie EMDR s’adresse à toute personne (de l’enfant – même en bas âge – à l’adulte) souffrant de perturbations émotionnelles généralement liées à des traumatismes psychologiques.

Il peut s’agir de traumatismes « évidents », avec un grand « T », tels les violences physiques et psychologiques, les abus sexuels, les accidents graves, les décès, les maladies graves, les incendies, les catastrophes naturelles, les situations de guerre et attentats, …

Mais il peut s’agir aussi d’événements de vie difficiles ou de traumatismes avec un petit « t », qui passent inaperçus et peuvent être la source d’émotions ou de comportements inadaptés ou excessifs dans la vie quotidienne (enfance perturbée, séparations, fausses couches et IVG, deuils, difficultés professionnelles, etc…)

Ces perturbations émotionnelles s’expriment sous diverses formes : irritabilité, angoisse, cauchemars, tendance à l’isolement, état dépressif, comportement agité voire violent, douleurs physiques, somatisations, régression chez l’enfant, …

D’autres troubles psychologiques relèvent aussi, dans certains cas, de traumatismes récents ou anciens, parfois inconscients : dépression, addictions, troubles du comportement alimentaire, attaques de panique, phobies, … Ces perturbations apparaissent quand notre cerveau est dépassé par un choc traumatique et n’arrive pas à traiter (ou digérer) les informations comme il le fait ordinairement. Il reste bloqué sur l’évènement, sans que nous en ayons conscience, et ce sont les vécus traumatiques non digérés qui sont sources de ces perturbations.

La thérapie EMDR permet de débloquer les mécanismes naturels de traitement de l’information, et ainsi le traumatisme peut enfin être retraité (ou digéré), même de nombreuses années après.

La thérapie EMDR est aujourd’hui une approche thérapeutique mondialement reconnue par la communauté scientifique pour son efficacité dans le traitement des troubles post-traumatiques. Elle est la seule avec les thérapies comportementales et cognitives dont l’usage est officiellement recommandé pour le traitement des états de stress post traumatique par la Haute Autorité de la Santé (HAS) qui intervient dans la validation des soins médicaux, depuis juin 2007.

Comment se passe un traitement EMDR ?

Une préparation est indispensable : des entretiens préliminaires permettent au patient d’établir une relation de confiance avec son praticien et d’identifier, avec son aide, le ou les souvenirs traumatiques à l’origine de ses difficultés.

Ces souvenirs seront ensuite retraités, un à un, lors des séances. Il faut parfois plusieurs séances pour traiter un seul souvenir. Pour les enfants, le traitement EMDR peut se faire en présence des parents en fonction de l’âge de l’enfant.

Le processus de traitement activé par la méthode est un processus conscient. Il correspond à ce que fait naturellement notre cerveau quand il ne se bloque pas.

Au début d’une séance EMDR, le praticien demande au patient de se concentrer sur l’évènement perturbant, en gardant à l’esprit les souvenirs sensoriels de l’évènement (image, son, odeur, sensation physique), ainsi que les pensées et ressentis actuels qui y sont associés. Le praticien commence alors des séries de stimulations bilatérales alternées, c’est-à-dire qu’il stimule le cerveau alternativement du côté gauche puis droit, soit par des mouvements oculaires, soit par des stimulations tactiles, soit par des bips sonores. Entre chaque série, il suffit alors que le patient remarque ce qui lui vient à l’esprit. Il n’y a aucun effort à faire pendant la stimulation pour obtenir tel ou tel type de résultat ; l’évènement se retraite spontanément, et différemment pour chaque personne selon son vécu, sa personnalité, ses ressources, sa culture.

Les séries de stimulations bilatérales continuent jusqu’à ce que le souvenir de l’évènement ne soit plus source de perturbations mais soit associé à des ressentis calmes ainsi qu’à des pensées positives et constructives. Une séance d’EMDR dure de 60 à 90 mn (plus courte chez l’enfant). Pendant cette période, le patient peut traverser des émotions intenses, et à la fin de la séance, il peut généralement ressentir une nette amélioration.

EMDR, la thérapie qui chasse les démons

L’EMDR est en train de révolutionner la psychothérapie. Cette thérapie de désensibilisation et de retraitement par le mouvement rapide des yeux permet de traiter de très nombreux traumatismes psychiques. Cette méthode thérapeutique a depuis quelques années révolutionnées la conception et la pratique de la psychothérapie grâce à sa rapidité et son efficacité. L’EMDR a tout d’abord été utilisée pour effacer des chocs post traumatiques.

Mais aujourd’hui, on l’utilise pour traiter toutes sortes de traumatismes psychiques, comme les abus sexuels, les phobies, les dépressions. Si la technique a été découverte fortuitement aux Etats-Unis (en 1987), elle a dans un premier temps généré méfiance et scepticisme, certains pensant qu’il s’agissait d’un effet placebo.

Des études scientifiques ont mis en évidence les effets de l’EMDR sur le cerveau. Le neurophysiologiste Marco Pagani. Ce dernier a conduit une étude sur 47 conducteurs de métro victimes d’un choc post traumatique après avoir vu des gens se jeter sous leur rame. Avant la thérapie, il a observé que leur cerveau semblait incapable de gérer les émotions provoquées par le souvenir traumatisant. Après l’EMDR, il a constaté que la zone cognitive du cerveau avait pris le contrôle sur la zone émotionnelle.

Un reportage de Françoise Ducret et Ventura Samarra

Associations EMDR :

EMDR France : http://www.emdr-france.org
EMDR Belgique :  http://www.emdr-belgium.be
EMDR Suisse : http://www.emdr-ch.org/
EMDR Canada : http://www.emdrcanada.org
Amérique du Nord : http://www.emdria.org
Amérique du Sud : http://www.emdriberoamerica.org
Australie :  http://www.emdraa.org

 

Surtout ne mens pas : un thriller d’Elena Sender autour des body hackers et du transhumanisme

Elena Sender est journaliste spécialisée dans les neurosciences au magazine Sciences et Avenir, et suis depuis plusieurs années le milieu des « body hackers » la branche active du « transhumanisme.

A paraître ce jeudi 24 septembre 2015, chez XO éditions

Erik, un chercheur islandais de renom, spécialisé dans l’étude du cerveau, qui est retrouvé pendu, a isolé l’AT37, une molécule capable d’attirer les neurones nouvellement issus de la neurogenèse dans une région du cerveau choisie. Le flic qui enquête sur son suicide, rencontre des « amis » d’Erik qui s’avèrent être des body hackers. Ceux-ci sont notamment intéressés par cette molécule qui permettrait, certes, aux malades de retrouver leurs capacités neuronales mais aussi aux humains « non-malades » de développer des capacités extraordinaires, une super-intelligence, de passer à l’ère du Post-Humain, de l’homme « augmenté ».

L’AT37 est inspirée par une molécule qui a réellement été découverte chez la souris (l’auteur Elena Sender en a changé le nom) et qui s’avère être très prometteuse pour toutes les maladies neurodégénératives. La question de son utilisation chez l’Homme lui a inspiré la base de ce thriller.

Avec l’aimable collaboration des éditions XO, nous vous proposons aujourd’hui de découvrir un extrait inédit en exclu, d’une body-hacker, Pandora, qui explique sa philosophie (p. 198-200)

— Il voulait faire partie du mouvement, expliqua Pandora. Quand je l’ai vu ce soir‑ là – on a bu un verre au Mundo –, il était en pleine quête de sens. Il cherchait le moyen de prendre le train de l’évolution en marche. Il n’avait pas encore entamé sa démarche de transformation.
— Transformation ?
— Il voulait explorer ses possibles.
— Du genre ?
— Le mieux est de commencer par l’implant d’aimants dans les doigts, ou la jambe. Et puis de puces électroniques aussi. De capteurs…
— Pour quoi faire ?
— Je lui ai expliqué que nous atteindrons un jour le point de singularité. Cette super‑intelligence qui émergera lorsque l’humain et la machine fusionneront…
On a montré que ce point de singularité pourrait être atteint aux alentours de 2045.
Pandora consulta son smartphone, tandis que Raphaël l’observait, circonspect. Comment imaginer qu’Hilgarson ait pu se laisser séduire par cette femme surréaliste ainsi que par le désir de ne pas se contenter d’être tel que ses gènes l’avaient programmé ?
La danseuse envoya un tweet et poursuivit sur sa lancée :
— Je lui ai expliqué qu’il pouvait dépasser les limites que son corps lui impose. Voyez, par exemple, c’est idiot d’avoir faim. J’aimerais ne plus avoir besoin de m’arrêter trois fois par jour pour manger. Alors j’ai commencé une alimentation à base de gélules ou de gel hyperprotéiné.
Elle ne s’arrêtait plus.
— Nous, posthumains, serons pourvus de capacités physiques et intellectuelles dépassant celles de l’homme moderne. Nous deviendrons notre propre créateur.
— Mais, concrètement, comment ?
— Par la convergence.
Raphaël fronça légèrement les sourcils. Il avait l’impression que la créature bleue était en train de le prendre pour un idiot.
— La convergence des quatre technologies NBIC qui seront à la base du posthumain, poursuivit Pandora, les yeux brillants. D’abord les nanotechnologies, qui permettront de créer des matériaux avec une précision quasi atomique, et donc de faire émerger de nouvelles propriétés. Par exemple, en cas de maladie, comme le cancer, des nanorobots seront lâchés dans ma circulation sanguine pour aller délivrer les médicaments sur la tumeur. B, c’est pour biologie. Mais pas de la biologie à l’ancienne. Il est question de créer des êtres vivants totalement nouveaux en synthétisant de l’ADN. I, c’est pour informatique, l’intelligence artificielle, la robotique. Et enfin C, pour cognition.
Qui englobe toutes les avancées en neurosciences : lire les pensées, lire les rêves et les manipuler. Tout cela converge pour fabriquer l’homme et la femme de demain.
Raphaël se taisait. Faisait‑il face à une secte de fous furieux, ou bien à l’évolution humaine en marche ? À la fois fasciné et abasourdi, il se sentit pris de court. Il se raccrocha aux branches comme il le pouvait.
— Vous aviez donc une relation intime avec Erick Hilgarson.
La danseuse le jaugea.
— Oui.
Elle avait dit cela comme une évidence.
— Et ensuite, que s’est-il passé ?
— Il a développé des sentiments amoureux.
Là aussi, c’était une évidence.
— Pas vous ?
Pandora le toisa, l’air de dire : « Tu m’as bien regardée ? » Raphaël s’éclaircit la gorge.
— Vous voulez dire que dans votre nouveau système de pensée, posthumain, le fait de tomber amoureux est totalement dépassé ?
— L’évolution extrême sera de pouvoir contrôler aussi ses sentiments et ses émotions, oui. Par des médicaments, des stimulations cérébrales ou des implants.
On pourra aimer ou ne plus aimer, à volonté et sans souffrance.
D’un doigt, elle désigna sa tête.
— Toutes les sensations remontent vers le cerveau. Lorsque nos consciences seront numérisées sur ordinateur, nous leur ferons éprouver des sensations sexuelles. Elles seront modulables et donc plus longues, plus intenses que nos pauvres orgasmes. Deux esprits chargés sur ordinateur pourront décider de partager leurs consciences ainsi, ce sera une fusion totale, du sexe par télépathie.

Pour faciliter la lecture, vous pouvez télécharger le PDF

Un modèle constructible de système psychique

revue mensuelle – N° 114 : Les «processus coactivés» et la nouvelle maîtrise du monde
Par Jean-Paul Baquiast et Christophe Jacquemin – 23/01/2011

La planète semble être entrée depuis quelques siècles dans une nouvelle ère (aire) géologique marquée par l’empreinte omniprésente des humains sur les phénomènes naturels. Ce serait l’anthropocène. Pour notre part, nous avons suggéré(1) qu’il valait mieux employer ici le terme d’anthropotechnocène, tout au moins pour désigner l’évolution de la Terre depuis quelques décennies.
Par ce terme, nous postulons que cette évolution est de plus en plus déterminée par un développement exponentiel des technologies associées aux humains dans ce que nous avons nommé les “systèmes anthropotechniques”.
Nous proposons ici d’apprécier la pertinence de cette hypothèse en introduisant le concept de «processus coactivés». Il illustre la prise de pouvoir de plus en plus marquée des technologies en réseau sur l’humain.

Comment définir les «processus coactivés» ?
Ce concept décrit la façon dont, dans un domaine donné, des systèmes informatiques et robotiques en réseau, que nous nommerons des agents, échangent en permanence les informations résultant de leur activité. Il résulte de ces échanges que l’action de chacun de ces agents peut s’enrichir et évoluer en fonction de l’action des autres. Il faut alors noter que e déploiement d’un grand nombre de processus coactivés dans un nombre croissant de domaines et de champs d’activité fait apparaître un système global de coactivations réciproques intégrant les communications informationnelles et les actions physiques de l’ensemble des agents.

Ce système devient un système-méta (une sorte de superorganisme). Dans un premier temps, il acquiert la capacité de prendre des décisions locales de façon autonome puis, très vite, celle d’opérer pour son propre compte. Il se dote en effet dans le cours de sa croissance de l’équivalent de “pulsions fondamentales” qui se transforment en intentions dictant elles-mêmes des comportements globaux. La sélection darwinienne opère à tous niveaux dans ce milieu très comparable au milieu biologique pour ne conserver que les acquis bénéficiant à la compétitivité du système-méta confronté à d’autres systèmes semblables ou différents.

On verra ainsi «émerger» ou s’auto-construire au sein du système-méta une couche haute dotée de l’aptitude à agir intentionnellement sur toutes les informations produites par les agents et par conséquent sur toutes les actions de ceux-ci. Cette couche fera l’acquisition de ce que l’on pourra nommer – en utilisant les termes de la psychologie classique – une capacité à penser, c’est-à-dire à utiliser les résultats de ses observations pour la planification de ses diverses actions. Il s’agira donc d’un système devenant spontanément auto-adaptatif et auto-évolutif.
A partir d’un certain niveau de complexité, il sera difficile en théorie de distinguer de tels systèmes des systèmes vivants, y compris de ceux se définissant eux-mêmes comme «humains» c’est-à-dire dotés de capacités dépassant celles des animaux et des ordinateurs. En pratique cependant, ils pourront montrer des performances dépassant très largement, dans leur champ d’action, celles des humains associés à leur fonctionnement.

C’est ce qui commence à se produire dans les sociétés dites technologiques. Des systèmes globaux se sont mis en place dans certains secteurs. Ils intègrent tout ce qui est calculé par processeur sur quelque système communicant que ce soit, avec simultanément pour objectif et pour résultat de les unifier et de contrôler l’ensemble des informations produites ou échangées. On voit se généraliser des applications ou plus exactement des fonctions autonomes. Elles sont liées dans un premier temps au médium de communication et visent d’abord la supervision, puis ensuite la commande de l’activité des agents. Leur présence et leurs effets sont peu observables et moins encore pilotables par des opérateurs humains car les processus coactivés correspondant s’effectuent beaucoup trop vite et en trop grand nombre pour être compris et analysés à l’échelle humaine. Les ordinateurs les plus puissants existant actuellement – à supposer que ces tâches leur soient confiées – n’en seraient pas davantage capables, au moins dans les délais requis (moins de la milliseconde) pour des réactions éventuelles.

Quelques exemples de processus coactivés

Les exemples choisis ici ne tiennent pas de la science fiction mais s’inspirent d’observations que l’on peut obtenir en étudiant les domaines où se sont mis en place de tels processus coactivés. Il ne s’agit pas de domaines relevant de l’expérimentation en laboratoire et concernent des secteurs vitaux pour la survie des sociétés contemporaines. Ils impliquent d’ores et déjà la vie ou la mort de milliers de personnes, mais surtout des pertes et des profits à la hauteur de milliers de milliards de dollars, bénéficiant à quelques uns et maintenant des catégories sociales entière dans le sous-développement. C’est que nous allons essayer de montrer avec ces quelques exemples.

Les places de marché électroniques

Depuis plus de vingt ans, les Bourses mondiales – où se négocient les valeurs financières et les marchandises – ont été informatisées et mises en réseau. C’est ce phénomène qui a été le principal facteur de ce que l’on nomme la mondialisation financière et qui a soutenu l’idéologie politique dite du néo-libéralisme, selon laquelle le bon fonctionnement de ce système global imposait la disparition des contraintes réglementaires d’origine gouvernementale ou à vocation protectionniste.

Les acheteurs et vendeurs opérant sur ce marché mondial restent en principe des individus divers et variés. En fait, il s’agit de grands organismes, principalement les banques et fonds collecteurs d’épargne. Au sein de ces organismes interviennent des équipes spécialisées, composées de ce que l’on nomme les «traders». Ces derniers sont très bien rémunérés parce que leur expertise peut faire perdre ou gagner en quelques secondes des sommes considérables, aux épargnants et préteurs comme aux banques eux-mêmes. Mais on découvre aujourd’hui que les vrais «traders», ceux qui déterminent l’évolution des taux, sont de moins en moins des humains mais des algorithmes.

Un trader humain peut acheter 1000 actions de telle firme le jeudi matin au cours de 20 euros l’action et les vendre le jeudi soir au cours de 21 euros, réalisant un bénéfice de 1000 euros. Cependant, si le cours de l’action est à un même instant de 19,28 à Londres et de 19,29 à New York, mais passe un dixième de seconde plus tard respectivement à 19,29 et 19,28, acheter à Londres pour vendre à New York ou réciproquement en cas de renversement des cours devient impossible sans l’intervention de ces algorithmes informatiques.

Comment opère un trader humain ? Il recueille et traite dans le minimum de temps les informations sur l’état de l’économie, des entreprises, des tendances politiques et toutes données susceptibles de se répercuter sur les cours. S’il apprend par exemple que tel grand laboratoire éprouve quelques difficultés avec l’un de ses médicaments, il en déduit que l’action de ce laboratoire va baisser et en tire les conséquences, en matière d’achat ou de vente.

Signalons dans ce paysage que le Dow Jones, leader mondial dans l’information économique et boursière, a lancé un nouveau service nommé Lexicon. Ce dernier envoie des informations en temps réel aux investisseurs professionnels. Mais ceux-ci ne sont pas des humains, ce sont des algorithmes, les mêmes qui décident des opérations d’achat-vente. L’information dont ils ont besoin n’est pas qualitative mais numérique. Lexicon traduit pour eux en temps réels les informations qualitatives collectées par le Dow Jones et les transforme en données numériques compréhensibles par les algorithmes en charge des décisions d’investissement.

Ces derniers peuvent à leur tour les répercuter en les modifiant au besoin sur les algorithmes utilisés par d’autres investisseurs. Lexicon participe ainsi avec de nouveaux puissants moyens à la transformation du réseau mondial des places de marché en un vaste ensemble de processus coactivés capable de s’informer de l’actualité générale, d’en extraire des tendances et de s’en servir pour vendre ou acheter. Ce sont ces processus qui prennent désormais les décisions et non plus les humains. Il s’agit de ce que l’on nomme le computer-aided high-frequency trading. Il compte aujourd’hui environ 70% des transactions s’effectuant à Wall Street, et par conséquent dans le reste de la «planète finance».

Les traders à haute fréquence («high frequency traders») dits aussi «flash traders» procèdent à des milliers de transaction par seconde, à une telle échelle qu’ils peuvent perdre ou gagner des fortunes sur une variation de cours de quelques centimes. D’autres algorithmes sont plus lents mais plus sophistiqués. Ils recherchent les investissements négligés par la majorité des autres. Le système global en résultant est plus efficace et rapide qu’aucun esprit humain, même assisté d’un ordinateur. Mais en contrepartie, il est plus difficile à comprendre, prédire et réguler. Les algorithmes coactivés entretiennent entre eux une sorte de conversation par laquelle chacun d’eux répond à la milliseconde aux propos des autres. Des règles mathématiques prédominent alors, éliminant l’émotion et les erreurs de jugement.

Cependant des phénomènes inattendus de feed-back peuvent survenir et provoquer des catastrophes (au sens quasi mathématique du mot) s’étendant à l’échelle du monde en quelques heures. C’est ainsi que surviennent régulièrement des baisses soit ponctuelles soient généralisées dans des délais très courts. Nombre d’investisseurs humains en sortent ruinés. Certains au contraire savent profiter de l’événement. Dans certains cas, le système global peut s’effondrer, et c’est la crise mondiale. Les “bons” traders humains, ceux qui continuent à être très bien rémunérés, sont ceux qui ont compris comment commercer avec les algorithmes. Ils savent se situer à la limite de la catastrophe. Mais certains disent qu’ils sont eux-mêmes devenus des algorithmes.

S’agit-il de phénomènes marginaux, au regard de ce que l’on nomme l’économie réelle ? Le livre de François Morin (Le nouveau mur de l’argent, essai sur la finance globalisée, Ed. du Seuil, 2006) est à ce sujet éclairant. Il précise que le PIB de la planète Terre, celui qui seul importe car il exprime l’économie réelle, ne représente que 3% des échanges financiers mondiaux. On peut imaginer le moment où un système-méta conscient totalement distribué sur le Web, un “méta-trader artificiel” opérant à la micro-seconde, prendra le contrôle total de la finance. Que restera-t-il alors des entreprises, du travail humain, des valeurs humaines fondées sur le travail ?

Le champ de bataille

Après avoir mené plusieurs décennies de suite des opérations militaires se traduisant par une débauche de puissants moyens matériels, les Etats-Unis se sont trouvés mis en échec par des «insurgés» faiblement armés. Ils sont aujourd’hui confrontés à des guerres dites du faible au fort (ou guerres de 4e génération) où les programmes lourds tel que celui de l’avion de combat dit du XXIe siècle, le F35 Joint Strike Fighter de Lockeed Martin, ne suffiront pas à protéger les militaires engagés sur le terrain. Le Pentagone en a conclu que face à des ennemis connaissant bien ce terrain et disposant de l’appui de la population, il lui fallait des armes capables d’augmenter de façon écrasante les capacités sensorielles, physiques et cognitives du simple combattant. Les stratèges ont prévenu que le besoin sera le même dans les probables futurs combats de rue qui opposeront sur le sol national l’armée fédérale ou la garde nationale à des foules révoltées. Nous avons sur ce site évoqué précédemment certaines de ces armes. Le système SCENICC en constitue une nouvelle version, particulièrement démonstrative.

Il s’agit avec SCENICC de doter le combattant d’une vision à 360°, disposant d’une portée d’au moins 1 km et suffisamment discriminante pour faire la différence entre la canne d’un simple berger et l’AK 47 d’un «insurgé» – étant admis qu’il n’était plus diplomatiquement possible de permettre à chaque fantassin ami d’éliminer a priori tous les civils pouvant être des combattants dissimulés dans un rayon de 1 km.

C’est dans ce but que l’agence de recherche du Pentagone, la Darpa vient de lancer un appel d’offres pour la réalisation d’un système baptisé Soldier Centric Imaging via Computational Cameras effort, ou SCENICC. Le système disposera d’un ensemble de caméras ultra-légères, montées sur le casque mais néanmoins capables de donner une vision tout azimut et en 3D. Le soldat pourra littéralement voir derrière lui, zoomer sur les points suspects, disposer d’une vision binoculaire stéréoscopique – le tout en gardant les mains libres et la possibilité de communication verbale.

Pour commander l’ensemble, le système sera doté d’une unité centrale intelligente, capable de mémoriser des instructions, le souvenir de scènes antérieures et tout ce dont peut avoir besoin le combattant pris dans le feu du combat. Cette unité centrale sera connectée à une arme portative puissante, capable d’ «acquérir» les objectifs, suivre les trajectoires des projectiles et évaluer leurs impacts. Il s’agira finalement de mettre en place une «aire de compétences», véritablement post-humaines, dite “Full Sphere Awareness”. Le tout ne devra pas peser plus de 700 g, et disposer d’une batterie de grande capacité, éventuellement rechargeable par le moyen d’un capteur solaire intégré au battle-dress.

Cependant c’est la mise en réseau qui fait la principale force des combattants modernes. Chaque soldat équipé du système SCENICC se comportera comme un noeud (node) au sein d’un réseau reliant chacun d’eux à tous les autres et à divers dispositifs de cartographie et de modélisation du champ de bataille alimentés par des capteurs terrestres ou aériens de type drone. Ce sera un véritable espace virtuel de combat commun au sein duquel chaque combattant sera un élément non pas passif mais proactif. L’ensemble aura nom NETT WARRIOR.
Ce programme devrait associer des industriels tels que Raytheon, Rockwell Collins et General Dynamics. Il ne sera pas pleinement opérationnel avant 3 ou 4 ans, mais des éléments utilisables devraient être livrés dans les prochains mois. Nous n’avons pas d’informations précises sur son coût.

Le champ de bataille ne sera pas seulement occupé par des combattants humains équipés de tels systèmes. Il comportera aussi – il comporte déjà – une grande variété de matériels autonomes eux-aussi dotés de moyens d’observation, de transmission et d’ouverture de feu. Nous pouvons évoquer par exemple les systèmes de type MAARS (Modular Advanced Armed Robotic System). Dans ces catégories on trouvera des engins blindés terrestres de toutes tailles, des appareils aériens sans pilote ou drones eux aussi de toutes tailles et capables de multiples missions différentes. A plus haute altitude seront positionnés des avions stratosphériques robotisés tels que le Global Observer, capable de vols prolongés pour un coût relativement faible. Rappelons que depuis longtemps les satellites militaires en orbite étendent à l’ensemble des terres et des mers la «Global awareness» nécessaire au système-méta militaire ainsi mis en place.

Rappelons un point important, concernant ces systèmes et leurs semblables. Les chercheurs et les laboratoires qui s’y consacrent sont tenus par des accords de confidentialité stricts. Ils ne peuvent pas publier et faire discuter librement leurs résultats. La censure a toujours existé, mais, au prétexte de la lutte anti-terrorisme, elle semble s’aggraver. Quand le public entend mentionner certaines de ces recherches, c’est en conséquence d’une politique de communication bien contrôlée. Il s’agit généralement de décourager des recherches analogues pouvant être financées par les laboratoires civils. Si la Darpa le fait, à quoi bon faire la même chose en moins bien ? Il s’agit aussi de recruter des chercheurs à l’extérieur, attirés par les opportunités de carrière pouvant en découler, dès qu’ils auront accepté de perdre leur indépendance.

Mais en quoi la mise en réseau et la coactivation de tels systèmes produira-t-elle une intelligence et une volonté dont les décisions pourraient s’imposer à celles des chefs hiérarchiques, des Etats-majors et des gouvernements ayant commandité leur production et leurs déploiements ?

On peut répondre à cela de deux façons. En ce qui concerne le détail des opérations, il apparaît de plus en plus que la Net Centric Warfare se traduit par des décisions à conséquences létales prises sur le mode automatique, sans intervention humaine, que les diplomates ont par la suite beaucoup de mal à faire excuser. Il s’agit notamment des ouvertures de feu a priori ou préventives, touchant parfois des éléments «amis». On a tendance à dire que les opérateurs informatiques sont moins susceptibles d’erreurs que les opérateurs humains. Mais lorsque des dizaines d’opérateurs informatiques se coactivent, des phénomènes imprévisibles apparaissent [cf, ci-dessus l’exemple des systèmes boursiers].

En ce qui concerne, à une tout autre échelle, l’engagement d’opérations géostratégiques telle que le fut la décision d’envahir l’Irak, plus personne ne nie aujourd’hui, y compris au sein de l’establishment militaire, que le complexe militaro-industriel américain a dicté, sous la pression d’intérêts très puissants mais ne s’incarnant pas particulièrement dans la personne de responsables individualisés, des décisions dont les suites contribuent actuellement à la perte d’influence des Etats-Unis. Ceux-ci ne sont pas les premiers à souffrir de tels processus coactivés. L’URSS a perdu la compétition qui l’opposait à ces derniers pour les mêmes raisons. Bien qu’encore dans l’enfance à l’époque, l’informatisation des processus de décision stratégique a joué un rôle non négligeable en ce sens, dépossédant les généraux soviétiques et le Kremlin de la compétence «humaine » qui leur avait permis de résister auparavant à la puissance allemande.

Les frontières terrestres

Il s’agit déjà, dans certains pays, de zones de conflits de plus en plus violents. S’y affrontent les puissances voulant se protéger d’une immigration non régulée et des populations chassées par la misère et prêtes à tout dans l’espoir d’une vie meilleure dans les pays riches. Ces populations sont souvent la victime de maffias qui s’engagent à les faire passer contre des sommes importantes, quitte à les abandonner en cas de difficultés. Mais viendra un temps où ce ne seront plus quelques dizaines de milliers de clandestins qui voudront entrer. Il s’agira de millions ou dizaines de millions d’hommes, victimes des désastres climatiques et économiques prévus pour les prochaines décennies. Si les pays (encore) riches persistent à se défendre de ces invasions, la frontière deviendra un champ de bataille, qu’il s’agisse des frontières terrestres ou maritimes.

Traditionnellement, la garde des frontières était confiée à des administrations spécialisées, renforcées à l’occasion par l’armée ou la marine. Mais devant l’accroissement permanent du nombre des clandestins et de leur volonté de passer coûter que coûte, les moyens en hommes que peuvent affecter les pays riches à la défense de leurs frontières atteignent vite des limites. Comme sur le champ de bataille précédemment décrit, on verra de plus en plus les humains relayés par des systèmes de haute technologie. Ceux-ci ont l’avantage d’être disponibles en permanence, d’être relativement économiques et, si l’on peut dire, “de ne pas faire de sentiments”.

N’abordons pas ici la question de la protection des frontières maritimes qui relève encore de moyens de dissuasion classiques, compte tenu de la difficulté que rencontrent les migrants à se doter des embarcations nécessaires à des traversées de quelque durée. Les frontières terrestres sont beaucoup plus poreuses. D’où la nécessité pour les pays riches de faire appel aux nouvelles technologies.

On peut citer en premier lieu les «murs intelligents». Le plus “ambitieux” de ceux-ci est la grande muraille que les Etats-Unis sont en train d’établir entre eux et le Mexique. L’objectif est d’empêcher les incursions non seulement des Mexicains mais de tous les latino-américains attirés par la prospérité du Nord. A plus petite échelle, mais depuis plus longtemps, Israël a établi de tels murs pour délimiter certains implantations et les protéger d’intrusions en provenance de la Palestine ou des pays arabes. L’Espagne protège par un mur ses deux enclaves de Ceuta et Melilla en territoire marocain. Aujourd’hui, la Grèce demande qu’un mur intelligent soit édifié sur la partie de sa frontière terrestre avec la Turquie qui n’est pas naturellement défendue par le fleuve Eyros.

Sur la frontière américano-mexicaine, le mur classique, complété de fossés et barbelés, patrouillé par de trop peu nombreux garde-frontières en 4/4, s’était révélé bien insuffisant. Violé en permanence, il n’avait qu’une utilité de principe. Les projets actuels consistent donc à doubler la muraille physique par des «senseurs» répartis très en amont (à l’extérieur) et capables en principe de distinguer et identifier tous les signes pouvant laisser penser à une tentative d’intrusion. Dès que le risque s’en précise, des robots ayant l’allure de petits chars d’assaut équipés de caméras identifient les intrus et s’efforcent de les décourager d’insister. Si besoin est, un drone (aujourd’hui de type Predator) intervient à son tour. Tout ceci laisse le temps aux gardes-frontières humains de réagir.
Dans l’avenir, en cas d’invasion massive, des unités militaires spéciales, ou fournies par des sociétés civiles de sécurité ad hoc (véritables «chemises brunes» selon les détracteurs américains de ces procédés) prendront les affaires en mains. Tout laisse penser qu’ils se comporteront dans cette tâche avec la brutalité de véritables robots.

Ainsi, tant en amont qu’en aval du mur, des espaces considérables seront sécurisés et militarisés. Comme il s’agit en général de zones désertiques, les protestations ne seront pas trop fortes, mais il n’en sera pas de même dans d’autres régions plus peuplées.

Le projet américain ainsi décrit, conduit par le US Department of Homeland Security et la filiale de Boeing dite Boeing Intelligence and Security Systems, prend actuellement la forme d’un programme de 8 milliards de dollars. Il s’agit du Security Border Initiative Network ou SBInet. Il comportera des tours de 25 mètres réparties tous les 400 m (à terme sur un mur triple long de 3.000 km). Ces tours seront équipées de caméras optiques et infra-rouge pilotées à distance. Des senseurs magnétiques détecteront les véhicules. De plus les tours disposeront d’un radar de surveillance terrestre capable d’identifier les humains, fourni par les «Israël Aerospace Industries» de Tel-Aviv. Le radar sera complété de capteurs acoustiques et capteurs de vibrations destinés à détecter les voix et les pas, aussi furtifs soit-ils. Ces détecteurs devraient pouvoir opérer dans une zone dite de «early warning» s’étendant à 10 km en profondeur. Les caméras se dirigeront automatiquement sur les échos suspects. Elles diligenteront chaque fois qu’elles le «jugeront» utile des messages d’alerte vers les patrouilles armées mentionnées ci-dessus.

Ces murs intelligents ne constituent qu’un début. S’y ajoutent déjà, comme sur le champ de bataille, des robots autonomes terrestres capables d’augmenter le pouvoir de surveillance et le cas échéant d’intervenir directement, en appui voire en remplacement des gardes frontières. Ils patrouillent seuls, jusqu’à identifier quelque chose d’anormal. Ils signalent alors la cible (target) aux postes de garde humains. De tels engins sont aussi utilisés pour protéger des lieux sensibles, militaires ou civils, tels que les sites nucléaires.

Ces robots n’opèrent pas encore dans des lieux ouverts, dont ils n’auraient pas appris à connaître les caractéristiques. Ils interviennent le long de murs et d’enceintes bien définies. Mais cela n’empêche pas qu’ils doivent éviter de confondre des objets ou phénomènes normaux, y compris des ombres, avec les catégories d’intrusions qu’ils doivent signaler. Ils sont donc dotés de capteurs et de logiciels d’intelligence artificielle de plus en plus évoluées, capables de s’affiner par retour d’expérience. Lorsqu’ils ont identifié un phénomène anormal, ils alertent le poste de garde qui peut, avant même d’envoyer un agent, observer la cible par les yeux du robot, voire l’interpeller par l’intermédiaire de l’organe vocal dont il est doté.

Les robots patrouilleurs sont aussi équipés d’armes d’intimidation non létales au cas où les personnes interpellées n’obéiraient pas aux injonctions. On envisage sérieusement de les doter dans l’avenir d’armes à feu. Celles-ci cependant n’interviendraient (jusqu’à nouvel ordre) que sur commande de l’opérateur humain. Mais de l’acquisition de la cible jusqu’à l’ouverture autonome du feu, il n’y a qu’un pas. Il faudra compter avec le fait que le superviseur humain sera vite saturé par la multiplication des situations à risques et sera tenté de déléguer ses pouvoirs au système. Celui-ci ne manquera pas d’en tirer profit, apprentissage aidant, pour augmenter les siens.

Le marché est très porteur et beaucoup de laboratoires et d’industriels y investissent pour réaliser des produits de plus en plus performants. Afin d’obtenir des robots susceptibles de s’adapter à des environnements non encore cartographiés directement par eux, ils envisagent notamment d’utiliser les images 3D du type de celles que recueillent les véhicules utilisées dans l’application Google Street View. Ce même Google vient d’ailleurs d’annoncer qu’il a mis au point une voiture sans conducteur capable de se piloter seule avec ces aides à la localisation.

En dehors des véhicules terrestres, le marché demande de plus en plus de drones, capables d’inventorier des espaces beaucoup plus vastes. Les drones de surveillance seront en principe plus petits et moins coûteux que les grands drones militaires tels que le Predator utilisés au Pakistan par l’armée américaine, mais ils fonctionneront sur le même principe.

Parmi les nouveaux produits, on peut par exemple citer :
– le Mobile Detection Assessment Response System de General Dynamics utilisé à titre expérimental par l’US National Nuclear Sécurity Administration ;
– le robot tout terrain réalisé par la compagnie israélienne C-Nius Unmanned Ground Systems ;
– le robot de garde Samsung Techwin SGR-1 utilisé par la Corée du Sud (pour l’instant ce robot n’est pas mobile).

L’exemple américain est repris un peu partout dans le monde. Une conférence relative à la sécurisation des frontières européennes par des systèmes technologiques du type de ceux évoqués ci-dessus s’est tenue en novembre 2009 à Leeds, (UK). L’Union européenne a lancé un programme dit TALOS (Transportable Autonomous Patrol for Land Border Surveillance) associant des partenaires américains (on s’en serait douté). Les Polonais dirigent le projet, par l’intermédiaire du PIAP, Institut de recherche industrielle pour l’automatisation et les mesures de Varsovie. Le consortium regroupe actuellement les représentants de 10 Etats et dispose d’un budget de 10 millions d’euros. A l’avenir, le réseau pourrait être déployé sur toutes les frontières terrestres de l’Europe. Mais à quel coût et comment sera-t-il accepté ? Comment réagiront les pays voisins, notamment la Russie, qui se trouverait ainsi exclue symboliquement de l’espace européen ?

Que conclure ?

L’évolution vers un monde qui serait de plus en plus défini par les compétitions entre des systèmes anthropotechniques sous contrôle de ce que nous avons nommé des processus coactivés va-t-elle se poursuivre ? Cette perspective est probable, si l’on considère le poids des pouvoirs qui financent les investissement nécessaires à la mise en place des logiciels, matériels et réseaux servant de support à de tels processus.

Les exemple évoqués dans le présent article sont révélateurs. Mais on pourrait en citer bien d’autres. L’encadré ci-dessous liste les domaines dans lesquels, d’après-nous, les processus coactivés ne vont cesser de se développer (certains étant d’ores-et-déjà à l’oeuvre) :

Nanotechnologie et nouveaux matériaux
– Surveillance par nanocapteurs
– Capteurs utilisant les nanotechnologies moléculaires
– Traitements médicaux personnalisés à base de nanocomposants
– Nanoassembleurs moléculaires réplicants
– Revêtements générant de l’invisibilité

Médecine, Biologie et Biométrie
– Kits portables pour le séquencement complet du génome
– Petits robots médicaux
– Consultation et soins par internet
– Identification par mesures biométriques non invasives ou basées sur les activités
– Capteurs d’émissions lumineuses utilisant des composants optico-électriques à bas coût
– Implants médicaux intelligents

Robotique
– Senseurs avancés pour robots
– Intelligence artificielle avancée
– Petits robots domestiques ou jouets
– Robots sociaux
– Surveillance utilisant des nuages de micro-robots, ou “insectes robotisés”

Cognition
– Communication de cerveau à cerveau (“radiotélépathie”)
– Produits publicitaires destinés à s’interfacer avec le cerveau des clients potentiels
– Imagerie par résonance magnétique fonctionnelle avancée (fMRI)
– Techniques de détection du mensonge et de la tromperie
– Identification des émotions des blogueurs
– Reconnaissance avancée de la parole

Information and communication technologies
– Internet des objets et intelligence répartie dans les objets
– Déportation des fichiers et calculs sur des serveurs distants
– Recherche par IA des contenus sémantiques au sein de la réalité
– Identification par la voix
– Identification par puces à radio-fréquence (RFID)
– Identification intelligente des plaques minéralogiques
– Publicité ciblant les comportements en ligne
– Identification et localisation des téléphones mobiles, publicités ciblées
– Compteurs intelligents
– Utilisation de données sous-produites par l’activité d’un calculateur pour en détecter – espionner ses contenus
– Utilisation à l’aide d’outils disponibles sur le marché des signaux produits par une activité quelconque pour détecter – espionner les contenus de cette activité
– Systèmes radio pour contrôler la pression des pneus
– Emetteurs sonars pénétrant les murs (STTW)
– Reconnaissance des visages
– Réalité augmentée
– Echanges faisant appel à l’intelligence artificielle

Quelles sont les forces qui s’impliquent dans la généralisation des systèmes-méta que nous avons décrits ? On trouve en premier lieu celles visant sous couvert de défense et de sécurité, à une militarisation de plus en plus complète de l’espace social. Le but de cette militarisation est de conserver aux détenteurs de la richesse et de la puissance, par la force, les avantages qu’ils se sont donnés.

Il s’agit d’une toute petite minorité en nombre, qui se trouvera de plus en plus confrontée à des milliards de défavorisés de toutes sortes et de toutes origines. Ces derniers ne demeureront évidemment pas passifs et feront tout ce qu’ils pourront pour échapper, avec les armes dont ils disposeront, à la domination. Et pour cette petite minorité, il convient donc préventivement de tenir sous contrôle le reste des populations. Il est significatif de voir que pratiquement toutes les recherches en matière de systèmes intelligents pour la défense et la sécurité sont financées par des budgets militaires. Au premier rang de ceux-ci se trouve le budget de la défense américain, lequel est à lui seul dix fois plus important que ceux cumulés des autres Etats.

Les mêmes minorités de la richesse et de la puissance tirent leurs pouvoirs de la prédation qu’elles exercent sur les activités productives des milliards de travailleurs qui en contrepartie de leur travail au sein de l’économie réelle gagnent à peine de quoi survivre. Nous avons vu que cette prédation s’exerce presque exclusivement aujourd’hui par le biais de la finance internationale en réseau.

Les grands acteurs au sein de cet univers virtuel, banques, fonds spéculatifs, corporate powers, ont réussi à persuader les travailleurs de la base qu’ils devaient leur abandonner les valeurs ajoutées de leur travail. Périodiquement, des crises artificielles viennent spolier les épargnants de leurs économies afin d’en faire bénéficier les «investisseurs». Pour que ceci soit accepté, il fallait évidemment que les humains à la source de ces techniques de prédation, formes renouvelées de l’esclavage ancien, puissent ne pas être accusés d’en être les organisateurs. La meilleure solution consistait à laisser agir des systèmes-méta anonymes, bien plus imaginatifs d’ailleurs que les humains eux-mêmes pour capter les ressources des travailleurs de la base.

Il se trouve cependant que les processus coactivés que nous avons décrits ne cessent de s’étendre au sein des sociétés, en se coactivant sur des échelles de plus en plus larges. Les humains qui étaient à l’origine de leur mise en place risquent de se trouver désormais dépassés par leurs créatures, lesquelles exerceront le pouvoir à leur place.

On retrouvera modernisé le phénomène décrit par le vieux mythe de l’homme face au Golem. Malheureusement, aussi intelligents qu’ils soient dans les détails, les processus coactivés ne semblent pas capables d’une intelligence globale, prenant notamment en charge un développement équilibré des civilisations au sein d’une planète aux ressources de plus en plus insuffisantes. Les catastrophes évoquées dans le scénario pessimiste de l’ouvrage «Le paradoxe du sapiens», risquent donc de se produire.

N’y aurait-il pas cependant des lueurs d’espoir ?
Les événements politiques récents, un peu partout dans le monde, montrent que les populations de la base peuvent se révolter en masse contre le Système qui les aliène. Des destructions peuvent en découler, du type dit luddiste dans les pays anglo-saxons, où le peuple tentait de détruire les machines. Il s’agirait alors d’une révolte faisant appel à la force brutale.

Ne pourrait-on en imaginer une autre infiniment plus subtile et prometteuse ?
Il se trouve que des scientifiques ont essayé avec succès, depuis déjà quelques années, d’analyser le fonctionnement du cerveau humain incorporé (incorporé dans un corps et dans une société). Or ils ont découvert que ce cerveau fonctionne sur le mode des processus coactivés que nous avons évoqué dans cet article.

Certains chercheurs sont allés plus loin. Ils ont simulé sur des systèmes informatiques, dit massivement multi-agents, le fonctionnement de tels processus. Ils pensent avoir découvert ce faisant bien des points encore obscurs intéressant le travail du cerveau, de l’intelligence et de la conscience, propres à l’homme. Mais dans le même temps et en parallèle, ils ont découvert des points encore obscurs intéressant le fonctionnement des processus informatiques se développant actuellement en aveugle, par exemple sur les réseaux de la finance ou sur ceux du web, évoqués dans cet article.

La grave question politique, posée par les recherches de ces scientifiques, est que le savoir ainsi développé par eux sera inexorablement capté, si aucune précaution n’est prise, par les forces finançant la guerre et la spéculation.

Il y aurait pourtant une solution : adopter la démarche du logiciel libre. Celle-ci, qui est également pratiquée pour le développement de certains robots en Open Source, serait la garantie d’un minimum de démocratisation autour de la connaissance et de la mise en oeuvre d’un des enjeux majeurs de notre civilisation technologique, la “conscience artificielle”. Il faudrait pour cela que les investissements nécessaires à générer des systèmes opérationnels à partir du modèle proposé par le professeur Alain Cardon, le père d’un de ces projets, bien connu de nos lecteurs, ou par d’autres chercheurs qui le relaieraient, soient pris en charge et diffusés au sein de communautés d’utilisateurs suffisamment avertis pour s’impliquer dans l’effort de diffusion démocratique qui s’imposerait.

Nous pensons pour notre part que ce serait la meilleure façon de donner suite aux travaux d’Alain Cardon sur la conscience artificielle. Les lecteurs pourront en juger puisque celui-ci a bien voulu nous confier l’édition de son dernier ouvrage «Un modèle constructible de système psychique» publié ici sur le mode de la licence publique Creative Commons.
Il ne s’agit pas d’un ouvrage facile, mais le sujet est loin de l’être. Nous encourageons tous nos lecteurs à le lire.

Ouvrage téléchargeable ici au format pdf.,Attention : ouvrage sous licence Creative Commons
[obligation de citer le nom de l’auteur, utilisation commerciale interdite, modifications interdites].

——————————————————————————————————
(1) Voir : “Le paradoxe du Sapiens – Etres technologiques et catastrophes annoncées“, Jean-Paul Baquiast, editions Jean-Paul Bayol, 2010)