Google et Facebook engloutissent les câbles sous-marins de l’Internet

Google, Facebook et Microsoft ne contrôlent pas seulement toutes nos données, ils contrôlent désormais les câbles sous-marins qui traversent les océans et les mers du monde entier.

Plus de 5 700 kilomètres de l’océan Atlantique séparent les côtes de la France et de la Virginie. Mais en 2020, ils seront directement connectés pour la première fois par le câble sous-marin Dunant, ce qui renforcera la capacité Internet entre l’Europe et la côte est des États-Unis.

Lorsque Dunant deviendra opérationnel, il rejoindra plus de 428 câbles sous-marins, couvrant des milliers de kilomètres, constituant l’épine dorsale d’Internet. Mais ce câble ne ressemble à aucun autre.

Nommé en l’honneur de Henry Dunant, fondateur de la Croix-Rouge et lauréat du premier prix Nobel de la paix, le câble appartient à Google. Il s’agit du premier câble sous-marin transatlantique financé par des fonds privés et déployé par l’une des grandes entreprises de technologie.

Dunant est peut-être le premier câble sous-marin appartenant à l’une des grandes entreprises de technologie à traverser l’océan Atlantique, mais il ne s’agit pas du premier câble privé de la société. En janvier 2016, Google a également annoncé le câble Curie qui relierait le Chili à Los Angeles. Ces dernières années, Google, Microsoft et Facebook ont tous investi dans des câbles sous-marins pour répondre à la demande croissante.

Auparavant, les grandes entreprises technologiques dépensaient des millions de dollars en câbles dans le cadre de consortiums. En contrepartie de leur investissement, chaque entreprise a son mot à dire sur son parcours et, ce qui est crucial, une part de sa capacité. Mais la Big Tech n’aime pas partager.

Les consortiums sont parfaits pour le partage des coûts, mais il faut un certain temps pour parvenir à un consensus“, a déclaré Urs Hülzle, vice-président directeur de l’infrastructure technique de la division Cloud de Google. Hülzle a déclaré que les consortiums pouvaient ralentir le processus de construction de nouveaux câbles et que c’est pourquoi Google a décidé de faire cavalier seul. “Aujourd’hui, si vous regardez le marché, la majorité des câbles sont principalement alimentés par les sociétés Internet.”

Le vice-président de l’ingénierie réseau de Facebook, Najam Ahmad, explique que la création d’un nouveau câble peut prendre trois ans, ce qui signifie que les entreprises et les consortiums sont planifiés jusqu’à dix ans à l’avance.

En septembre 2017, Microsoft, Facebook et Telxius ont achevé le câble transatlantique MAREA de 6 600 km. Il a commencé à fonctionner en février 2018 et peut transmettre des données à 160 terabits par seconde.

D’autres câbles de consortium récents impliquant la Big Tech ont relié Singapour, l’Australie, le Japon et les États-Unis. Au total, Facebook a participé à au moins six consortiums de câbles sous-marins et Google détient des intérêts dans au moins 13 câbles, qui remontent à 2010.

Alan Mauldin, directeur de la recherche chez TeleGeography, une entreprise de données télécoms qui suit et cartographie les câbles sous-marins, a déclaré que, malgré les investissements de Google dans les câbles privés, il ne vendrait pas de capacité à d’autres entreprises. « Il ne le ferait jamais, car il deviendrait alors un transporteur et serait assujettis à une licence de transporteur », explique-t-il. « Nous ne voulons pas être un fournisseur de services en tant que fournisseur de services Internet », ajoute Hlzle, de Google.

« Les câbles ne seront finalement pas utilisés uniquement pour le trafic Google. Ce qui a tendance à se produire, c’est qu’ils vont échanger de la capacité sur ce câble avec des parties ayant de la capacité sur d’autres câbles », explique Mauldin. « En réalité, vous constaterez peut-être que Google a construit un câble sur une route donnée, mais ils peuvent en tirer parti en utilisant ce moyen d’échange. »

Qui a besoin de la démocratie quand on a des données ?

Tous les câbles sous-marins sont légèrement différents – dans la capacité qu’ils peuvent transporter et les technologies utilisées pour les construire – mais fonctionnent généralement de la même manière. Ils mesurent plusieurs pouces d’épaisseur et sont composés d’un tube en plastique qui protège un boîtier en cuivre contenant des fibres optiques.

Les données sont acheminées à travers les câbles à l’aide de voyants et de répéteurs répartis le long du fond à des distances d’environ 80 km, garantissant que les données se déplacent à une vitesse constante. L’analyse de Telegeography estime que plus d’un million de kilomètres de câbles sous-marins sont utilisés aujourd’hui. L’un des plus longs est le câble Asia America Gateway qui s’étend sur environ 20 000 km.

Initialement, les câbles sous-marins – les premiers posés outre-Atlantique dans les années 1850 – étaient utilisés pour les télégraphes, puis pour les données nécessaires aux appels téléphoniques mobiles. Les câbles peuvent durer environ 25 ans et s’ils sont cassés (généralement par les ancres des navires ou les tremblements de terre sous-marins), ils peuvent être réparés à l’aide de robots submersibles.

Ahmad a déclaré que l’intérêt de Facebook pour les câbles sous-marins venait d’un manque de capacité disponible. Il ajoute qu’il existe deux types de trafic sur Facebook : machine à machine et machine à utilisateur. Le premier d’entre eux, qui implique la sauvegarde de photos, de publications et d’autres éléments sur les réseaux sociaux des centres de données, est six à sept fois plus volumineux que le trafic de machine à utilisateur.

Wired

La Chine a dévoilé le premier réseau informatique infalsifiable au monde

En août, la Chine a dévoilé et testé avec succès le projet Jinan – le premier réseau informatique infalsifiable au monde, qui repose sur des principes quantiques. Le projet utilise la ville de Jinan en tant que centre informatique quantique qui stimule le réseau quantique Beijing-Shanghai en raison de sa position géographique centrale entre les deux grandes villes.

Il s’agit d’une étape importante dans le développement de la technologie quantique et identifie la Chine comme l’un des leaders mondiaux dans ce domaine. Plus précisément, le réseau avertit les deux utilisateurs de toute altération du système, car l’altération modifie les informations transmises. La perturbation est immédiatement reconnaissable et les deux parties peuvent immédiatement identifier quand quelque chose ne va pas.

Zhou Fei, directeur adjoint de la Jinan Institute of Quantum Technology, considère que le système a des ramifications dans le monde entier. Il a déclaré au Financial Times : « Nous prévoyons d’utiliser le réseau pour la défense nationale, la finance et d’autres domaines, et nous espérons pouvoir l’étendre sous forme de pilote qui, s’il est couronné de succès, peut être utilisé à travers la Chine et dans le monde entier. »

En mettant en œuvre le réseau informatique quantique, la Chine devient le premier pays à mettre en œuvre la technologie quantique à des fins réelles et commerciales. Cela marque également la Chine en tant que leader quantique dans le monde entier – un statut qui est renforcé par leur développement de la machine Heifei, qui pourrait éclipser tous les supercalculateurs actuels, ainsi que leur transport réussi d’un photon depuis un satellite dans l’espace en utilisant la physique quantique.

traduction Thomas Jousse

World Economic Forum, Financial Times, South China Morning Post

La gouvernance Bitcoin

Dans cette section, nous découvrirons les différentes parties prenantes dans le réseau Bitcoin, les mécanismes de gestion du réseau, de mise à jour du logiciel, le principe de neutralité du bitcoin et les régulations qui s’appliquent à cet environnement.

À plus de 1000 dollars, le Bitcoin atteint un niveau record

Interviews d’experts : M. LIPSKIER Avocat et Président de World of Blockchains ; N. DORIER, CTO à Metaco SA ; S. POLROT, Avocat et Expert Blockchain

Comprendre le phénomène Blockchain
Le protocole de validation du Bitcoin
Le Bitcoin en pratique

 

Une nouvelle technologie installée sur l’ISS pour former un ‘Internet’ à l’échelle du système solaire

Alors que plus d’investissement et d’innovation est donné à l’exploration spatiale, l’ISS devient un lieu très occupé. Et avec les colonies lunaires et les missions habitées vers Mars devenant de plus en plus réelle, la station âgée de presque vingt ans est dans le besoin d’une mise à niveau.

Et elle en reçoit une. Une nouvelle technologie a été installée sur l’ISS, et est conçue pour former la base d’un réseau similaire à internet couvrant la totalité (ou presque) de notre voisinage cosmique. Cela s’appelle DTN, ou Delay/Disruption Tolerant Network (Réseaux tolérants aux délais).

DTN solar system, credit NASA

C’est tout simplement Internet. Pour l’ensemble de notre système solaire.

Les protocoles traditionnels d’Internet requièrent que tous les nœuds du chemin de transmission soient disponibles au même instant. Mais pour le DTN, ce n’est pas le cas. Le DTN marche en fournissant un réseau de données fiable et automatique, « déposer et expédier », qui stocke des faisceaux partiels de données dans des nœuds le long d’un chemin de communication, jusqu’à ce que les parties puissent être expédiées ou retransmissent, puis réassemblée à la destination finale.

Ces destinations pourraient inclure des stations à la surface de la Terre, des vaisseaux robotiques dans l’espace profond, ou même des colonies humaines.

Cela fait que le réseau est très résilient, même si les planètes bloquent le chemin de communication, le message serait toujours reçu.

Bénéfices

L’ISS a récemment ajouté le DTN à son Telescience Resource Kit (TReK), faisant du satellite la première pièce dans ce que la NASA décrit comme un éventuel internet à l’échelle du système solaire.

Etant donné que la conception a été faite pour résister aux environs incertains de l’espace, il est logique de penser que ce sera applicable aux zones sujettes aux catastrophes, où de telles conditions existent aussi.

« Notre expérience avec le DTN sur la station spatiale conduit à des applications terrestres supplémentaires, spécialement pour les communications mobiles dans lesquelles les connections peuvent être erratiques et discontinues », a déclaré le Dr. Vinton G. Cerf de Google, un chercheur invité au Jet Propulsion Laboratory de la NASA travaillant sur le DTN.

Pour rendre les protocoles plus acceptés et utilisés, plusieurs implémentations de DTN sont accessibles au public en code Open-source.

Traduction Benjamin Prissé

Science Alert

Transhumanisme et Cellules Souches – travail à la frontière de la gériatrie biomédicale

La recherche scientifique biomédicale dans le domaine des cellules souches et plus largement de la médecine régénérative offre aujourd’hui des promesses d’applications thérapeutiques révolutionnaires pour de nombreuses maladies. Pourtant, il semble que pour certains, ces avancées pourraient servir d’autres desseins, notamment en ce qui concerne l’amélioration biologique de l’humain vers des objectifs de contrôle voire d’inversion du processus de vieillissement.

Beaucoup de ceux qui tiennent à ces idées appartiennent à un mouvement, dit transhumaniste, où ils s’accordent sur des idées et valeurs communes concernant l’avenir de l’humain. Plus que cela, certains de ces acteurs transhumanistes prennent activement part à la recherche scientifique et orientent celle-ci vers les valeurs qu’ils soutiennent, touchant ainsi aux frontières de disciplines scientifiques établies et à la démarcation entre science et pseudoscience.

En s’appuyant sur les concepts de recherche confinée / recherche de plein air, de forum hybride et de travail aux frontières, la présente recherche explore la place que les chercheurs transhumanistes occupent dans la recherche scientifique institutionnelle et se questionne sur la façon et les moyens qu’ils mettent en œuvre pour y prendre part.

À partir de la constitution et de l’analyse d’un corpus documentaire transhumaniste sur les cellules souches, mais aussi en décrivant le réseau auquel les chercheurs transhumanistes appartiennent, l’étude apporte une perspective nouvelle sur le mouvement transhumaniste. Les résultats obtenus montrent que les chercheurs transhumanistes ne se cantonnent pas à produire des discours et des représentations de leurs idées et de leurs valeurs, mais participent activement à la réalisation de celles-ci en menant eux-mêmes des recherches et en infiltrant la recherche scientifique institutionnelle.

Laurie Paredes, Université de Montréal Octobre 2014

Un modèle constructible de système psychique

revue mensuelle – N° 114 : Les «processus coactivés» et la nouvelle maîtrise du monde
Par Jean-Paul Baquiast et Christophe Jacquemin – 23/01/2011

La planète semble être entrée depuis quelques siècles dans une nouvelle ère (aire) géologique marquée par l’empreinte omniprésente des humains sur les phénomènes naturels. Ce serait l’anthropocène. Pour notre part, nous avons suggéré(1) qu’il valait mieux employer ici le terme d’anthropotechnocène, tout au moins pour désigner l’évolution de la Terre depuis quelques décennies.
Par ce terme, nous postulons que cette évolution est de plus en plus déterminée par un développement exponentiel des technologies associées aux humains dans ce que nous avons nommé les “systèmes anthropotechniques”.
Nous proposons ici d’apprécier la pertinence de cette hypothèse en introduisant le concept de «processus coactivés». Il illustre la prise de pouvoir de plus en plus marquée des technologies en réseau sur l’humain.

Comment définir les «processus coactivés» ?
Ce concept décrit la façon dont, dans un domaine donné, des systèmes informatiques et robotiques en réseau, que nous nommerons des agents, échangent en permanence les informations résultant de leur activité. Il résulte de ces échanges que l’action de chacun de ces agents peut s’enrichir et évoluer en fonction de l’action des autres. Il faut alors noter que e déploiement d’un grand nombre de processus coactivés dans un nombre croissant de domaines et de champs d’activité fait apparaître un système global de coactivations réciproques intégrant les communications informationnelles et les actions physiques de l’ensemble des agents.

Ce système devient un système-méta (une sorte de superorganisme). Dans un premier temps, il acquiert la capacité de prendre des décisions locales de façon autonome puis, très vite, celle d’opérer pour son propre compte. Il se dote en effet dans le cours de sa croissance de l’équivalent de “pulsions fondamentales” qui se transforment en intentions dictant elles-mêmes des comportements globaux. La sélection darwinienne opère à tous niveaux dans ce milieu très comparable au milieu biologique pour ne conserver que les acquis bénéficiant à la compétitivité du système-méta confronté à d’autres systèmes semblables ou différents.

On verra ainsi «émerger» ou s’auto-construire au sein du système-méta une couche haute dotée de l’aptitude à agir intentionnellement sur toutes les informations produites par les agents et par conséquent sur toutes les actions de ceux-ci. Cette couche fera l’acquisition de ce que l’on pourra nommer – en utilisant les termes de la psychologie classique – une capacité à penser, c’est-à-dire à utiliser les résultats de ses observations pour la planification de ses diverses actions. Il s’agira donc d’un système devenant spontanément auto-adaptatif et auto-évolutif.
A partir d’un certain niveau de complexité, il sera difficile en théorie de distinguer de tels systèmes des systèmes vivants, y compris de ceux se définissant eux-mêmes comme «humains» c’est-à-dire dotés de capacités dépassant celles des animaux et des ordinateurs. En pratique cependant, ils pourront montrer des performances dépassant très largement, dans leur champ d’action, celles des humains associés à leur fonctionnement.

C’est ce qui commence à se produire dans les sociétés dites technologiques. Des systèmes globaux se sont mis en place dans certains secteurs. Ils intègrent tout ce qui est calculé par processeur sur quelque système communicant que ce soit, avec simultanément pour objectif et pour résultat de les unifier et de contrôler l’ensemble des informations produites ou échangées. On voit se généraliser des applications ou plus exactement des fonctions autonomes. Elles sont liées dans un premier temps au médium de communication et visent d’abord la supervision, puis ensuite la commande de l’activité des agents. Leur présence et leurs effets sont peu observables et moins encore pilotables par des opérateurs humains car les processus coactivés correspondant s’effectuent beaucoup trop vite et en trop grand nombre pour être compris et analysés à l’échelle humaine. Les ordinateurs les plus puissants existant actuellement – à supposer que ces tâches leur soient confiées – n’en seraient pas davantage capables, au moins dans les délais requis (moins de la milliseconde) pour des réactions éventuelles.

Quelques exemples de processus coactivés

Les exemples choisis ici ne tiennent pas de la science fiction mais s’inspirent d’observations que l’on peut obtenir en étudiant les domaines où se sont mis en place de tels processus coactivés. Il ne s’agit pas de domaines relevant de l’expérimentation en laboratoire et concernent des secteurs vitaux pour la survie des sociétés contemporaines. Ils impliquent d’ores et déjà la vie ou la mort de milliers de personnes, mais surtout des pertes et des profits à la hauteur de milliers de milliards de dollars, bénéficiant à quelques uns et maintenant des catégories sociales entière dans le sous-développement. C’est que nous allons essayer de montrer avec ces quelques exemples.

Les places de marché électroniques

Depuis plus de vingt ans, les Bourses mondiales – où se négocient les valeurs financières et les marchandises – ont été informatisées et mises en réseau. C’est ce phénomène qui a été le principal facteur de ce que l’on nomme la mondialisation financière et qui a soutenu l’idéologie politique dite du néo-libéralisme, selon laquelle le bon fonctionnement de ce système global imposait la disparition des contraintes réglementaires d’origine gouvernementale ou à vocation protectionniste.

Les acheteurs et vendeurs opérant sur ce marché mondial restent en principe des individus divers et variés. En fait, il s’agit de grands organismes, principalement les banques et fonds collecteurs d’épargne. Au sein de ces organismes interviennent des équipes spécialisées, composées de ce que l’on nomme les «traders». Ces derniers sont très bien rémunérés parce que leur expertise peut faire perdre ou gagner en quelques secondes des sommes considérables, aux épargnants et préteurs comme aux banques eux-mêmes. Mais on découvre aujourd’hui que les vrais «traders», ceux qui déterminent l’évolution des taux, sont de moins en moins des humains mais des algorithmes.

Un trader humain peut acheter 1000 actions de telle firme le jeudi matin au cours de 20 euros l’action et les vendre le jeudi soir au cours de 21 euros, réalisant un bénéfice de 1000 euros. Cependant, si le cours de l’action est à un même instant de 19,28 à Londres et de 19,29 à New York, mais passe un dixième de seconde plus tard respectivement à 19,29 et 19,28, acheter à Londres pour vendre à New York ou réciproquement en cas de renversement des cours devient impossible sans l’intervention de ces algorithmes informatiques.

Comment opère un trader humain ? Il recueille et traite dans le minimum de temps les informations sur l’état de l’économie, des entreprises, des tendances politiques et toutes données susceptibles de se répercuter sur les cours. S’il apprend par exemple que tel grand laboratoire éprouve quelques difficultés avec l’un de ses médicaments, il en déduit que l’action de ce laboratoire va baisser et en tire les conséquences, en matière d’achat ou de vente.

Signalons dans ce paysage que le Dow Jones, leader mondial dans l’information économique et boursière, a lancé un nouveau service nommé Lexicon. Ce dernier envoie des informations en temps réel aux investisseurs professionnels. Mais ceux-ci ne sont pas des humains, ce sont des algorithmes, les mêmes qui décident des opérations d’achat-vente. L’information dont ils ont besoin n’est pas qualitative mais numérique. Lexicon traduit pour eux en temps réels les informations qualitatives collectées par le Dow Jones et les transforme en données numériques compréhensibles par les algorithmes en charge des décisions d’investissement.

Ces derniers peuvent à leur tour les répercuter en les modifiant au besoin sur les algorithmes utilisés par d’autres investisseurs. Lexicon participe ainsi avec de nouveaux puissants moyens à la transformation du réseau mondial des places de marché en un vaste ensemble de processus coactivés capable de s’informer de l’actualité générale, d’en extraire des tendances et de s’en servir pour vendre ou acheter. Ce sont ces processus qui prennent désormais les décisions et non plus les humains. Il s’agit de ce que l’on nomme le computer-aided high-frequency trading. Il compte aujourd’hui environ 70% des transactions s’effectuant à Wall Street, et par conséquent dans le reste de la «planète finance».

Les traders à haute fréquence («high frequency traders») dits aussi «flash traders» procèdent à des milliers de transaction par seconde, à une telle échelle qu’ils peuvent perdre ou gagner des fortunes sur une variation de cours de quelques centimes. D’autres algorithmes sont plus lents mais plus sophistiqués. Ils recherchent les investissements négligés par la majorité des autres. Le système global en résultant est plus efficace et rapide qu’aucun esprit humain, même assisté d’un ordinateur. Mais en contrepartie, il est plus difficile à comprendre, prédire et réguler. Les algorithmes coactivés entretiennent entre eux une sorte de conversation par laquelle chacun d’eux répond à la milliseconde aux propos des autres. Des règles mathématiques prédominent alors, éliminant l’émotion et les erreurs de jugement.

Cependant des phénomènes inattendus de feed-back peuvent survenir et provoquer des catastrophes (au sens quasi mathématique du mot) s’étendant à l’échelle du monde en quelques heures. C’est ainsi que surviennent régulièrement des baisses soit ponctuelles soient généralisées dans des délais très courts. Nombre d’investisseurs humains en sortent ruinés. Certains au contraire savent profiter de l’événement. Dans certains cas, le système global peut s’effondrer, et c’est la crise mondiale. Les “bons” traders humains, ceux qui continuent à être très bien rémunérés, sont ceux qui ont compris comment commercer avec les algorithmes. Ils savent se situer à la limite de la catastrophe. Mais certains disent qu’ils sont eux-mêmes devenus des algorithmes.

S’agit-il de phénomènes marginaux, au regard de ce que l’on nomme l’économie réelle ? Le livre de François Morin (Le nouveau mur de l’argent, essai sur la finance globalisée, Ed. du Seuil, 2006) est à ce sujet éclairant. Il précise que le PIB de la planète Terre, celui qui seul importe car il exprime l’économie réelle, ne représente que 3% des échanges financiers mondiaux. On peut imaginer le moment où un système-méta conscient totalement distribué sur le Web, un “méta-trader artificiel” opérant à la micro-seconde, prendra le contrôle total de la finance. Que restera-t-il alors des entreprises, du travail humain, des valeurs humaines fondées sur le travail ?

Le champ de bataille

Après avoir mené plusieurs décennies de suite des opérations militaires se traduisant par une débauche de puissants moyens matériels, les Etats-Unis se sont trouvés mis en échec par des «insurgés» faiblement armés. Ils sont aujourd’hui confrontés à des guerres dites du faible au fort (ou guerres de 4e génération) où les programmes lourds tel que celui de l’avion de combat dit du XXIe siècle, le F35 Joint Strike Fighter de Lockeed Martin, ne suffiront pas à protéger les militaires engagés sur le terrain. Le Pentagone en a conclu que face à des ennemis connaissant bien ce terrain et disposant de l’appui de la population, il lui fallait des armes capables d’augmenter de façon écrasante les capacités sensorielles, physiques et cognitives du simple combattant. Les stratèges ont prévenu que le besoin sera le même dans les probables futurs combats de rue qui opposeront sur le sol national l’armée fédérale ou la garde nationale à des foules révoltées. Nous avons sur ce site évoqué précédemment certaines de ces armes. Le système SCENICC en constitue une nouvelle version, particulièrement démonstrative.

Il s’agit avec SCENICC de doter le combattant d’une vision à 360°, disposant d’une portée d’au moins 1 km et suffisamment discriminante pour faire la différence entre la canne d’un simple berger et l’AK 47 d’un «insurgé» – étant admis qu’il n’était plus diplomatiquement possible de permettre à chaque fantassin ami d’éliminer a priori tous les civils pouvant être des combattants dissimulés dans un rayon de 1 km.

C’est dans ce but que l’agence de recherche du Pentagone, la Darpa vient de lancer un appel d’offres pour la réalisation d’un système baptisé Soldier Centric Imaging via Computational Cameras effort, ou SCENICC. Le système disposera d’un ensemble de caméras ultra-légères, montées sur le casque mais néanmoins capables de donner une vision tout azimut et en 3D. Le soldat pourra littéralement voir derrière lui, zoomer sur les points suspects, disposer d’une vision binoculaire stéréoscopique – le tout en gardant les mains libres et la possibilité de communication verbale.

Pour commander l’ensemble, le système sera doté d’une unité centrale intelligente, capable de mémoriser des instructions, le souvenir de scènes antérieures et tout ce dont peut avoir besoin le combattant pris dans le feu du combat. Cette unité centrale sera connectée à une arme portative puissante, capable d’ «acquérir» les objectifs, suivre les trajectoires des projectiles et évaluer leurs impacts. Il s’agira finalement de mettre en place une «aire de compétences», véritablement post-humaines, dite “Full Sphere Awareness”. Le tout ne devra pas peser plus de 700 g, et disposer d’une batterie de grande capacité, éventuellement rechargeable par le moyen d’un capteur solaire intégré au battle-dress.

Cependant c’est la mise en réseau qui fait la principale force des combattants modernes. Chaque soldat équipé du système SCENICC se comportera comme un noeud (node) au sein d’un réseau reliant chacun d’eux à tous les autres et à divers dispositifs de cartographie et de modélisation du champ de bataille alimentés par des capteurs terrestres ou aériens de type drone. Ce sera un véritable espace virtuel de combat commun au sein duquel chaque combattant sera un élément non pas passif mais proactif. L’ensemble aura nom NETT WARRIOR.
Ce programme devrait associer des industriels tels que Raytheon, Rockwell Collins et General Dynamics. Il ne sera pas pleinement opérationnel avant 3 ou 4 ans, mais des éléments utilisables devraient être livrés dans les prochains mois. Nous n’avons pas d’informations précises sur son coût.

Le champ de bataille ne sera pas seulement occupé par des combattants humains équipés de tels systèmes. Il comportera aussi – il comporte déjà – une grande variété de matériels autonomes eux-aussi dotés de moyens d’observation, de transmission et d’ouverture de feu. Nous pouvons évoquer par exemple les systèmes de type MAARS (Modular Advanced Armed Robotic System). Dans ces catégories on trouvera des engins blindés terrestres de toutes tailles, des appareils aériens sans pilote ou drones eux aussi de toutes tailles et capables de multiples missions différentes. A plus haute altitude seront positionnés des avions stratosphériques robotisés tels que le Global Observer, capable de vols prolongés pour un coût relativement faible. Rappelons que depuis longtemps les satellites militaires en orbite étendent à l’ensemble des terres et des mers la «Global awareness» nécessaire au système-méta militaire ainsi mis en place.

Rappelons un point important, concernant ces systèmes et leurs semblables. Les chercheurs et les laboratoires qui s’y consacrent sont tenus par des accords de confidentialité stricts. Ils ne peuvent pas publier et faire discuter librement leurs résultats. La censure a toujours existé, mais, au prétexte de la lutte anti-terrorisme, elle semble s’aggraver. Quand le public entend mentionner certaines de ces recherches, c’est en conséquence d’une politique de communication bien contrôlée. Il s’agit généralement de décourager des recherches analogues pouvant être financées par les laboratoires civils. Si la Darpa le fait, à quoi bon faire la même chose en moins bien ? Il s’agit aussi de recruter des chercheurs à l’extérieur, attirés par les opportunités de carrière pouvant en découler, dès qu’ils auront accepté de perdre leur indépendance.

Mais en quoi la mise en réseau et la coactivation de tels systèmes produira-t-elle une intelligence et une volonté dont les décisions pourraient s’imposer à celles des chefs hiérarchiques, des Etats-majors et des gouvernements ayant commandité leur production et leurs déploiements ?

On peut répondre à cela de deux façons. En ce qui concerne le détail des opérations, il apparaît de plus en plus que la Net Centric Warfare se traduit par des décisions à conséquences létales prises sur le mode automatique, sans intervention humaine, que les diplomates ont par la suite beaucoup de mal à faire excuser. Il s’agit notamment des ouvertures de feu a priori ou préventives, touchant parfois des éléments «amis». On a tendance à dire que les opérateurs informatiques sont moins susceptibles d’erreurs que les opérateurs humains. Mais lorsque des dizaines d’opérateurs informatiques se coactivent, des phénomènes imprévisibles apparaissent [cf, ci-dessus l’exemple des systèmes boursiers].

En ce qui concerne, à une tout autre échelle, l’engagement d’opérations géostratégiques telle que le fut la décision d’envahir l’Irak, plus personne ne nie aujourd’hui, y compris au sein de l’establishment militaire, que le complexe militaro-industriel américain a dicté, sous la pression d’intérêts très puissants mais ne s’incarnant pas particulièrement dans la personne de responsables individualisés, des décisions dont les suites contribuent actuellement à la perte d’influence des Etats-Unis. Ceux-ci ne sont pas les premiers à souffrir de tels processus coactivés. L’URSS a perdu la compétition qui l’opposait à ces derniers pour les mêmes raisons. Bien qu’encore dans l’enfance à l’époque, l’informatisation des processus de décision stratégique a joué un rôle non négligeable en ce sens, dépossédant les généraux soviétiques et le Kremlin de la compétence «humaine » qui leur avait permis de résister auparavant à la puissance allemande.

Les frontières terrestres

Il s’agit déjà, dans certains pays, de zones de conflits de plus en plus violents. S’y affrontent les puissances voulant se protéger d’une immigration non régulée et des populations chassées par la misère et prêtes à tout dans l’espoir d’une vie meilleure dans les pays riches. Ces populations sont souvent la victime de maffias qui s’engagent à les faire passer contre des sommes importantes, quitte à les abandonner en cas de difficultés. Mais viendra un temps où ce ne seront plus quelques dizaines de milliers de clandestins qui voudront entrer. Il s’agira de millions ou dizaines de millions d’hommes, victimes des désastres climatiques et économiques prévus pour les prochaines décennies. Si les pays (encore) riches persistent à se défendre de ces invasions, la frontière deviendra un champ de bataille, qu’il s’agisse des frontières terrestres ou maritimes.

Traditionnellement, la garde des frontières était confiée à des administrations spécialisées, renforcées à l’occasion par l’armée ou la marine. Mais devant l’accroissement permanent du nombre des clandestins et de leur volonté de passer coûter que coûte, les moyens en hommes que peuvent affecter les pays riches à la défense de leurs frontières atteignent vite des limites. Comme sur le champ de bataille précédemment décrit, on verra de plus en plus les humains relayés par des systèmes de haute technologie. Ceux-ci ont l’avantage d’être disponibles en permanence, d’être relativement économiques et, si l’on peut dire, “de ne pas faire de sentiments”.

N’abordons pas ici la question de la protection des frontières maritimes qui relève encore de moyens de dissuasion classiques, compte tenu de la difficulté que rencontrent les migrants à se doter des embarcations nécessaires à des traversées de quelque durée. Les frontières terrestres sont beaucoup plus poreuses. D’où la nécessité pour les pays riches de faire appel aux nouvelles technologies.

On peut citer en premier lieu les «murs intelligents». Le plus “ambitieux” de ceux-ci est la grande muraille que les Etats-Unis sont en train d’établir entre eux et le Mexique. L’objectif est d’empêcher les incursions non seulement des Mexicains mais de tous les latino-américains attirés par la prospérité du Nord. A plus petite échelle, mais depuis plus longtemps, Israël a établi de tels murs pour délimiter certains implantations et les protéger d’intrusions en provenance de la Palestine ou des pays arabes. L’Espagne protège par un mur ses deux enclaves de Ceuta et Melilla en territoire marocain. Aujourd’hui, la Grèce demande qu’un mur intelligent soit édifié sur la partie de sa frontière terrestre avec la Turquie qui n’est pas naturellement défendue par le fleuve Eyros.

Sur la frontière américano-mexicaine, le mur classique, complété de fossés et barbelés, patrouillé par de trop peu nombreux garde-frontières en 4/4, s’était révélé bien insuffisant. Violé en permanence, il n’avait qu’une utilité de principe. Les projets actuels consistent donc à doubler la muraille physique par des «senseurs» répartis très en amont (à l’extérieur) et capables en principe de distinguer et identifier tous les signes pouvant laisser penser à une tentative d’intrusion. Dès que le risque s’en précise, des robots ayant l’allure de petits chars d’assaut équipés de caméras identifient les intrus et s’efforcent de les décourager d’insister. Si besoin est, un drone (aujourd’hui de type Predator) intervient à son tour. Tout ceci laisse le temps aux gardes-frontières humains de réagir.
Dans l’avenir, en cas d’invasion massive, des unités militaires spéciales, ou fournies par des sociétés civiles de sécurité ad hoc (véritables «chemises brunes» selon les détracteurs américains de ces procédés) prendront les affaires en mains. Tout laisse penser qu’ils se comporteront dans cette tâche avec la brutalité de véritables robots.

Ainsi, tant en amont qu’en aval du mur, des espaces considérables seront sécurisés et militarisés. Comme il s’agit en général de zones désertiques, les protestations ne seront pas trop fortes, mais il n’en sera pas de même dans d’autres régions plus peuplées.

Le projet américain ainsi décrit, conduit par le US Department of Homeland Security et la filiale de Boeing dite Boeing Intelligence and Security Systems, prend actuellement la forme d’un programme de 8 milliards de dollars. Il s’agit du Security Border Initiative Network ou SBInet. Il comportera des tours de 25 mètres réparties tous les 400 m (à terme sur un mur triple long de 3.000 km). Ces tours seront équipées de caméras optiques et infra-rouge pilotées à distance. Des senseurs magnétiques détecteront les véhicules. De plus les tours disposeront d’un radar de surveillance terrestre capable d’identifier les humains, fourni par les «Israël Aerospace Industries» de Tel-Aviv. Le radar sera complété de capteurs acoustiques et capteurs de vibrations destinés à détecter les voix et les pas, aussi furtifs soit-ils. Ces détecteurs devraient pouvoir opérer dans une zone dite de «early warning» s’étendant à 10 km en profondeur. Les caméras se dirigeront automatiquement sur les échos suspects. Elles diligenteront chaque fois qu’elles le «jugeront» utile des messages d’alerte vers les patrouilles armées mentionnées ci-dessus.

Ces murs intelligents ne constituent qu’un début. S’y ajoutent déjà, comme sur le champ de bataille, des robots autonomes terrestres capables d’augmenter le pouvoir de surveillance et le cas échéant d’intervenir directement, en appui voire en remplacement des gardes frontières. Ils patrouillent seuls, jusqu’à identifier quelque chose d’anormal. Ils signalent alors la cible (target) aux postes de garde humains. De tels engins sont aussi utilisés pour protéger des lieux sensibles, militaires ou civils, tels que les sites nucléaires.

Ces robots n’opèrent pas encore dans des lieux ouverts, dont ils n’auraient pas appris à connaître les caractéristiques. Ils interviennent le long de murs et d’enceintes bien définies. Mais cela n’empêche pas qu’ils doivent éviter de confondre des objets ou phénomènes normaux, y compris des ombres, avec les catégories d’intrusions qu’ils doivent signaler. Ils sont donc dotés de capteurs et de logiciels d’intelligence artificielle de plus en plus évoluées, capables de s’affiner par retour d’expérience. Lorsqu’ils ont identifié un phénomène anormal, ils alertent le poste de garde qui peut, avant même d’envoyer un agent, observer la cible par les yeux du robot, voire l’interpeller par l’intermédiaire de l’organe vocal dont il est doté.

Les robots patrouilleurs sont aussi équipés d’armes d’intimidation non létales au cas où les personnes interpellées n’obéiraient pas aux injonctions. On envisage sérieusement de les doter dans l’avenir d’armes à feu. Celles-ci cependant n’interviendraient (jusqu’à nouvel ordre) que sur commande de l’opérateur humain. Mais de l’acquisition de la cible jusqu’à l’ouverture autonome du feu, il n’y a qu’un pas. Il faudra compter avec le fait que le superviseur humain sera vite saturé par la multiplication des situations à risques et sera tenté de déléguer ses pouvoirs au système. Celui-ci ne manquera pas d’en tirer profit, apprentissage aidant, pour augmenter les siens.

Le marché est très porteur et beaucoup de laboratoires et d’industriels y investissent pour réaliser des produits de plus en plus performants. Afin d’obtenir des robots susceptibles de s’adapter à des environnements non encore cartographiés directement par eux, ils envisagent notamment d’utiliser les images 3D du type de celles que recueillent les véhicules utilisées dans l’application Google Street View. Ce même Google vient d’ailleurs d’annoncer qu’il a mis au point une voiture sans conducteur capable de se piloter seule avec ces aides à la localisation.

En dehors des véhicules terrestres, le marché demande de plus en plus de drones, capables d’inventorier des espaces beaucoup plus vastes. Les drones de surveillance seront en principe plus petits et moins coûteux que les grands drones militaires tels que le Predator utilisés au Pakistan par l’armée américaine, mais ils fonctionneront sur le même principe.

Parmi les nouveaux produits, on peut par exemple citer :
– le Mobile Detection Assessment Response System de General Dynamics utilisé à titre expérimental par l’US National Nuclear Sécurity Administration ;
– le robot tout terrain réalisé par la compagnie israélienne C-Nius Unmanned Ground Systems ;
– le robot de garde Samsung Techwin SGR-1 utilisé par la Corée du Sud (pour l’instant ce robot n’est pas mobile).

L’exemple américain est repris un peu partout dans le monde. Une conférence relative à la sécurisation des frontières européennes par des systèmes technologiques du type de ceux évoqués ci-dessus s’est tenue en novembre 2009 à Leeds, (UK). L’Union européenne a lancé un programme dit TALOS (Transportable Autonomous Patrol for Land Border Surveillance) associant des partenaires américains (on s’en serait douté). Les Polonais dirigent le projet, par l’intermédiaire du PIAP, Institut de recherche industrielle pour l’automatisation et les mesures de Varsovie. Le consortium regroupe actuellement les représentants de 10 Etats et dispose d’un budget de 10 millions d’euros. A l’avenir, le réseau pourrait être déployé sur toutes les frontières terrestres de l’Europe. Mais à quel coût et comment sera-t-il accepté ? Comment réagiront les pays voisins, notamment la Russie, qui se trouverait ainsi exclue symboliquement de l’espace européen ?

Que conclure ?

L’évolution vers un monde qui serait de plus en plus défini par les compétitions entre des systèmes anthropotechniques sous contrôle de ce que nous avons nommé des processus coactivés va-t-elle se poursuivre ? Cette perspective est probable, si l’on considère le poids des pouvoirs qui financent les investissement nécessaires à la mise en place des logiciels, matériels et réseaux servant de support à de tels processus.

Les exemple évoqués dans le présent article sont révélateurs. Mais on pourrait en citer bien d’autres. L’encadré ci-dessous liste les domaines dans lesquels, d’après-nous, les processus coactivés ne vont cesser de se développer (certains étant d’ores-et-déjà à l’oeuvre) :

Nanotechnologie et nouveaux matériaux
– Surveillance par nanocapteurs
– Capteurs utilisant les nanotechnologies moléculaires
– Traitements médicaux personnalisés à base de nanocomposants
– Nanoassembleurs moléculaires réplicants
– Revêtements générant de l’invisibilité

Médecine, Biologie et Biométrie
– Kits portables pour le séquencement complet du génome
– Petits robots médicaux
– Consultation et soins par internet
– Identification par mesures biométriques non invasives ou basées sur les activités
– Capteurs d’émissions lumineuses utilisant des composants optico-électriques à bas coût
– Implants médicaux intelligents

Robotique
– Senseurs avancés pour robots
– Intelligence artificielle avancée
– Petits robots domestiques ou jouets
– Robots sociaux
– Surveillance utilisant des nuages de micro-robots, ou “insectes robotisés”

Cognition
– Communication de cerveau à cerveau (“radiotélépathie”)
– Produits publicitaires destinés à s’interfacer avec le cerveau des clients potentiels
– Imagerie par résonance magnétique fonctionnelle avancée (fMRI)
– Techniques de détection du mensonge et de la tromperie
– Identification des émotions des blogueurs
– Reconnaissance avancée de la parole

Information and communication technologies
– Internet des objets et intelligence répartie dans les objets
– Déportation des fichiers et calculs sur des serveurs distants
– Recherche par IA des contenus sémantiques au sein de la réalité
– Identification par la voix
– Identification par puces à radio-fréquence (RFID)
– Identification intelligente des plaques minéralogiques
– Publicité ciblant les comportements en ligne
– Identification et localisation des téléphones mobiles, publicités ciblées
– Compteurs intelligents
– Utilisation de données sous-produites par l’activité d’un calculateur pour en détecter – espionner ses contenus
– Utilisation à l’aide d’outils disponibles sur le marché des signaux produits par une activité quelconque pour détecter – espionner les contenus de cette activité
– Systèmes radio pour contrôler la pression des pneus
– Emetteurs sonars pénétrant les murs (STTW)
– Reconnaissance des visages
– Réalité augmentée
– Echanges faisant appel à l’intelligence artificielle

Quelles sont les forces qui s’impliquent dans la généralisation des systèmes-méta que nous avons décrits ? On trouve en premier lieu celles visant sous couvert de défense et de sécurité, à une militarisation de plus en plus complète de l’espace social. Le but de cette militarisation est de conserver aux détenteurs de la richesse et de la puissance, par la force, les avantages qu’ils se sont donnés.

Il s’agit d’une toute petite minorité en nombre, qui se trouvera de plus en plus confrontée à des milliards de défavorisés de toutes sortes et de toutes origines. Ces derniers ne demeureront évidemment pas passifs et feront tout ce qu’ils pourront pour échapper, avec les armes dont ils disposeront, à la domination. Et pour cette petite minorité, il convient donc préventivement de tenir sous contrôle le reste des populations. Il est significatif de voir que pratiquement toutes les recherches en matière de systèmes intelligents pour la défense et la sécurité sont financées par des budgets militaires. Au premier rang de ceux-ci se trouve le budget de la défense américain, lequel est à lui seul dix fois plus important que ceux cumulés des autres Etats.

Les mêmes minorités de la richesse et de la puissance tirent leurs pouvoirs de la prédation qu’elles exercent sur les activités productives des milliards de travailleurs qui en contrepartie de leur travail au sein de l’économie réelle gagnent à peine de quoi survivre. Nous avons vu que cette prédation s’exerce presque exclusivement aujourd’hui par le biais de la finance internationale en réseau.

Les grands acteurs au sein de cet univers virtuel, banques, fonds spéculatifs, corporate powers, ont réussi à persuader les travailleurs de la base qu’ils devaient leur abandonner les valeurs ajoutées de leur travail. Périodiquement, des crises artificielles viennent spolier les épargnants de leurs économies afin d’en faire bénéficier les «investisseurs». Pour que ceci soit accepté, il fallait évidemment que les humains à la source de ces techniques de prédation, formes renouvelées de l’esclavage ancien, puissent ne pas être accusés d’en être les organisateurs. La meilleure solution consistait à laisser agir des systèmes-méta anonymes, bien plus imaginatifs d’ailleurs que les humains eux-mêmes pour capter les ressources des travailleurs de la base.

Il se trouve cependant que les processus coactivés que nous avons décrits ne cessent de s’étendre au sein des sociétés, en se coactivant sur des échelles de plus en plus larges. Les humains qui étaient à l’origine de leur mise en place risquent de se trouver désormais dépassés par leurs créatures, lesquelles exerceront le pouvoir à leur place.

On retrouvera modernisé le phénomène décrit par le vieux mythe de l’homme face au Golem. Malheureusement, aussi intelligents qu’ils soient dans les détails, les processus coactivés ne semblent pas capables d’une intelligence globale, prenant notamment en charge un développement équilibré des civilisations au sein d’une planète aux ressources de plus en plus insuffisantes. Les catastrophes évoquées dans le scénario pessimiste de l’ouvrage «Le paradoxe du sapiens», risquent donc de se produire.

N’y aurait-il pas cependant des lueurs d’espoir ?
Les événements politiques récents, un peu partout dans le monde, montrent que les populations de la base peuvent se révolter en masse contre le Système qui les aliène. Des destructions peuvent en découler, du type dit luddiste dans les pays anglo-saxons, où le peuple tentait de détruire les machines. Il s’agirait alors d’une révolte faisant appel à la force brutale.

Ne pourrait-on en imaginer une autre infiniment plus subtile et prometteuse ?
Il se trouve que des scientifiques ont essayé avec succès, depuis déjà quelques années, d’analyser le fonctionnement du cerveau humain incorporé (incorporé dans un corps et dans une société). Or ils ont découvert que ce cerveau fonctionne sur le mode des processus coactivés que nous avons évoqué dans cet article.

Certains chercheurs sont allés plus loin. Ils ont simulé sur des systèmes informatiques, dit massivement multi-agents, le fonctionnement de tels processus. Ils pensent avoir découvert ce faisant bien des points encore obscurs intéressant le travail du cerveau, de l’intelligence et de la conscience, propres à l’homme. Mais dans le même temps et en parallèle, ils ont découvert des points encore obscurs intéressant le fonctionnement des processus informatiques se développant actuellement en aveugle, par exemple sur les réseaux de la finance ou sur ceux du web, évoqués dans cet article.

La grave question politique, posée par les recherches de ces scientifiques, est que le savoir ainsi développé par eux sera inexorablement capté, si aucune précaution n’est prise, par les forces finançant la guerre et la spéculation.

Il y aurait pourtant une solution : adopter la démarche du logiciel libre. Celle-ci, qui est également pratiquée pour le développement de certains robots en Open Source, serait la garantie d’un minimum de démocratisation autour de la connaissance et de la mise en oeuvre d’un des enjeux majeurs de notre civilisation technologique, la “conscience artificielle”. Il faudrait pour cela que les investissements nécessaires à générer des systèmes opérationnels à partir du modèle proposé par le professeur Alain Cardon, le père d’un de ces projets, bien connu de nos lecteurs, ou par d’autres chercheurs qui le relaieraient, soient pris en charge et diffusés au sein de communautés d’utilisateurs suffisamment avertis pour s’impliquer dans l’effort de diffusion démocratique qui s’imposerait.

Nous pensons pour notre part que ce serait la meilleure façon de donner suite aux travaux d’Alain Cardon sur la conscience artificielle. Les lecteurs pourront en juger puisque celui-ci a bien voulu nous confier l’édition de son dernier ouvrage «Un modèle constructible de système psychique» publié ici sur le mode de la licence publique Creative Commons.
Il ne s’agit pas d’un ouvrage facile, mais le sujet est loin de l’être. Nous encourageons tous nos lecteurs à le lire.

Ouvrage téléchargeable ici au format pdf.,Attention : ouvrage sous licence Creative Commons
[obligation de citer le nom de l’auteur, utilisation commerciale interdite, modifications interdites].

——————————————————————————————————
(1) Voir : “Le paradoxe du Sapiens – Etres technologiques et catastrophes annoncées“, Jean-Paul Baquiast, editions Jean-Paul Bayol, 2010)