Robots tueurs. Que seront les soldats de demain ?

Robots tueurs« Robots tueurs », le terme est à la mode mais il fausse d’emblée toute réflexion sur le sujet. Car ce seront des robots soldats qui combattront peut-être dans le futur, non des exterminateurs de la race humaine. Or, qui dit soldat dit faiblesses et vertus au combat. Pour que ces machines soient moralement acceptables, il faut donc qu’elles puissent agir au moins aussi bien qu’un soldat humain, qu’elles puissent « raisonner » d’elles-mêmes sur le plan moral. En d’autres termes, ces robots doivent être dotés d’une éthique artificielle.

Les robots soldats, ces machines pleinement autonomes qui seront employées sur le champ de bataille, sortiront bientôt des industries d’armement. Ces robots peuvent-ils être la promesse de guerres plus propres ou au contraire dénuées de toute humanité ? Alors que les débats portent sur l’éventuel bannissement de cette technologie et sur la moralité de son emploi, le livre définit ce qui serait nécessaire à une telle machine pour qu’elle soit “acceptable” sur le champ de bataille.

Quelles seraient les conséquences sociologiques et tactiques de sa présence en zone de guerre ? L’analyse de la psychologie humaine au combat, ce que les hommes font mal et ce qu’ils font bien, permet de définir les formes que prendrait l’intelligence artificielle du robot, le rendant apte à prendre les bonnes décisions dans le feu de l’action.

Quels sont alors les objectifs d’une “éthique artificielle” qu’il faut réussir à programmer ? En décrivant le processus décisionnel de l’homme au combat lorsqu’il est amené à ouvrir le feu, le livre propose, à partir des techniques de programmation actuelles de la morale, un modèle d’éthique artificielle qui rendrait le robot moralement autonome.

Brice Erbland analyse la psychologie humaine au combat afin de mieux proposer ce que pourrait être la programmation d’une éthique artificielle pour les futurs robots de combat. Une approche originale qui n’est ni celle d’un philosophe, ni celle d’un roboticien, mais celle d’un soldat.

Table des matières

Conséquences de l’emploi de robots
Rupture sociologique de la guerre
Biais stratégique et conséquences tactiques
Émotions vs algorithmes
Faiblesses humaines au combat
Vertus humaines au combat
Objectifs d’une éthique artificielle
Programmation d’une éthique artificielle
Le processus décisionnel humain
Proposition d’architecture d’un module d’éthique artificielle
Quel test pour valider cette éthique ?
Que nous apprend la littérature ?

Théorie du super soldat

La moralité des technologies d’augmentation dans l’armée

Les technologies visant à augmenter les capacités physiques et psychologiques des soldats peuvent-elles affecter la moralité de la guerre ainsi que les fondements de nos sociétés modernes ?

Description

Les technologies visant à augmenter les capacités physiques et psychologiques des soldats ont toujours fait partie intégrante de l’histoire militaire. Toutefois, les recherches actuelles n’ont plus rien à voir avec les expériences du passé, à tel point qu’il est désormais possible de parler d’une révolution de la condition humaine qui mènera à plus ou moins brève échéance à une situation où les guerres du futur seront menées par des « super soldats ». Cette possibilité, qui est de plus en plus réelle et inévitable, mais qui demeure étonnamment négligée par les éthiciens, ouvre la porte à une série de questions fondamentales : ces technologies sont-elles moralement problématiques ? Si elles sont permises, en vertu de quels critères est-il possible de distinguer celles qui sont acceptables de celles qui ne devraient pas être tolérées ? Ces innovations vont-elles enfreindre les principes moraux de la « guerre juste » ? Quels devraient être les paramètres éthiques du développement de ces technologies ? Ce premier ouvrage en langue française sur le soldat augmenté cherche à répondre à ces questions.

Refusant d’adopter un point de vue manichéen sur cette question, Jean-François Caron explique que les nouvelles technologies d’augmentation entraînent un dilemme moral important. D’un côté, elles peuvent être interprétées comme une obligation morale de la part de l’armée à l’égard des soldats. De l’autre, elles peuvent également entraîner des violations des règles de la guerre. À la lumière de cette tension, l’auteur propose une vision nuancée des tenants et aboutissants de ces technologies militaires et suggère un cadre éthique original permettant de délimiter leur développement et leur utilisation.

Jean-François Caron est politicologue et spécialiste de philosophie politique. Il a enseigné à l’Université Laval, à l’Université du Québec à Chicoutimi, à l’Institut d’études européennes de l’Université libre de Bruxelles et a été professeur adjoint à l’Université de Moncton. Il est professeur agrégé et directeur du département de science politique et des relations internationales de l’Université Nazarbayev.

Extrait PDF

Éthique sur le champ de bataille dans un futur proche

La menace des robots tueurs

L’intelligence artificielle connaît de nombreuses applications dans la sécurité et le domaine militaire. Sur le terrain, elle facilite les manœuvres et permet de sauver des vies en cas d’avaries. Elle accroît la performance des armées, en fournissant des alliés robots aux combattants. Selon certains experts, les armes létales automatiques (SALA) sont en train de créer la troisième révolution de la guerre, après la poudre à canon et l’arme nucléaire. On ne peut manquer de s’inquiéter du jour où seront opérationnelles des armées de robots capables de mener les hostilités de façon complètement autonome.

De nombreuses entreprises, dans le monde entier, mènent d’importantes recherches scientifiques dans le domaine de l’intelligence artificielle. Les résultats obtenus à ce jour sont excellents : l’intelligence artificielle a déjà appris à prédire le risque de développer un diabète au moyen d’une montre « intelligente » ou à distinguer, de par leur apparence, les nævus de certains types de cancers. Ce puissant outil, qui surpasse l’intelligence humaine par l’une de ses caractéristiques les plus importantes – la vitesse – intéresse également les militaires.

Grâce au développement des technologies informatiques, les systèmes de combat du futur deviendront plus autonomes que les systèmes actuels. D’une part, cette autonomisation constituera sans aucun doute une aide précieuse pour les combattants. D’autre part, elle apportera son lot de défis et de risques : course aux armements entre pays, absence de règles et de lois dans les zones de combat et irresponsabilité dans la prise de décisions. Aujourd’hui, de nombreux entrepreneurs, décideurs et scientifiques cherchent à interdire l’emploi de systèmes de combat autonomes, alors que les militaires assurent qu’au combat, la décision finale – tuer ou non – sera prise par un humain.

Nous voulons y croire mais, faut-il le rappeler, l’arme nucléaire – cette arme qui n’aurait jamais dû voir le jour et qui s’était heurtée, dès la phase embryonnaire de sa conception, à de nombreux opposants – a pourtant bel et bien été utilisée.

Les robots armés restent sous la responsabilité d’un humain

Un assistant virtuel

Comme dans toutes les autres sphères de l’activité humaine, l’intelligence artificielle peut grandement faciliter et accélérer le travail dans le domaine de la sécurité. Ainsi, des chercheurs de l’université de Grenade, en Espagne, développent actuellement un logiciel capable, à l’aide de réseaux neuronaux, de détecter presque instantanément et avec une très grande précision des armes légères – pistolets, mitraillettes, mitrailleuses – sur des images vidéo. Les systèmes de sécurité modernes comprennent un grand nombre de caméras de surveillance, dont les opérateurs ne peuvent tout simplement pas visionner chaque image. L’intelligence artificielle est donc très utile pour analyser ces images, détecter la présence d’armes et en informer les agents dans un temps record.

Par ailleurs, le Centre de renseignement géospatial de l’université du Missouri, aux États-Unis, a développé un système d’IA capable de localiser rapidement et avec précision des dispositifs de missiles antiaériens sur des images satellitaires et aériennes. Sa capacité de recherche est jusqu’à 85 fois plus rapide que celle des experts humains. Pour former le réseau neuronal qui sous-tend ce système, on a utilisé des photos représentant différents types de missiles antiaériens. Une fois le système entraîné, on l’a testé sur un jeu de photos : en seulement 42 minutes, il a trouvé 90 % des dispositifs de défense. Il a fallu à des experts 60 heures de travail pour résoudre le même problème, avec le même résultat.

Il existe également des applications plus complexes de l’intelligence artificielle. Le laboratoire de recherche de l’armée américaine, par exemple, développe un système informatique qui analyse la réaction humaine à une image donnée. Il sera utile aux analystes militaires, contraints de visionner et de systématiser des milliers de photos et des heures d’enregistrements vidéo.

Le principe du système est le suivant : l’intelligence artificielle suit de près les yeux et le visage de la personne et met en parallèle ses expressions faciales avec les images que cette personne regarde. Si une image attire l’attention de la personne (cela signifie que l’expression de son visage ou la direction de son regard change), le logiciel la déplace automatiquement dans un dossier thématique. Ainsi, lors des essais, on a montré à un soldat un ensemble d’images divisées en cinq catégories principales : bateaux, pandas, fruits rouges, papillons et lustres. On lui a demandé de ne compter que les images de la catégorie qui l’intéressait. Les images défilaient au rythme d’une par seconde. L’IA en a « conclu » que le combattant était intéressé par la catégorie des bateaux et a copié ces images dans un dossier distinct.

Sur le théâtre d’opérations

Mais l’intelligence artificielle peut aussi aider les militaires au combat. C’est ainsi qu’en Russie, on achève actuellement l’élaboration du chasseur de cinquième génération Su-57, qui pourra être mis en service d’ici à la fin de l’année. Le logiciel de l’ordinateur de bord de ce chasseur comporte des éléments d’IA. Ainsi, en vol, le chasseur analyse en permanence l’état de l’air, sa température, sa pression et de nombreux autres paramètres. Si le pilote essaye d’effectuer une manœuvre et si le système « estime » que cette action entraînera une chute, la commande du pilote sera ignorée. Lorsqu’un avion décroche en vrille, ce même système indique au pilote comment redresser le chasseur et en reprendre le contrôle.

Pendant ce temps, le Japon développe son propre chasseur de cinquième génération, dont le prototype, le X-2 Shinshin (« Âme » en japonais), a effectué son premier vol en avril 2016. Un vaste réseau de capteurs, qui analyseront l’état de chaque élément de l’avion et détermineront les dommages qu’il aura subis, permettra à celui-ci de « survivre ». Si, lors d’un combat, son aile ou son empennage est endommagé, son système de bord reconfigurera le contrôle de sorte que la maniabilité et la vitesse de l’avion restent pratiquement inchangées. L’ordinateur du chasseur japonais sera capable de prédire l’heure de la panne complète d’un élément endommagé, de sorte que le pilote pourra décider de poursuivre le combat ou de retourner à la base.

À ce titre, l’intelligence artificielle constitue une « aubaine » – si tant est que l’on puisse utiliser ce terme pour des armes et des systèmes de combat.

Un programme complexe capable de résoudre de manière optimale un problème particulier dix fois plus vite qu’un humain pourra non seulement faciliter le travail d’un avion de reconnaissance, d’un opérateur de drones ou d’un commandant de système de défense aérienne, mais aussi sauver des vies. Il pourra venir à la rescousse de personnes en détresse dans un sous-marin (extinction ponctuelle d’incendies dans les compartiments abandonnés par les humains), de pilotes d’avions ou de combattants de chars armés endommagés.

Les dirigeants des meilleures sociétés de robotique et d’IA appellent à l’interdiction des robots tueurs

Robots-tueurs

Sa rapidité d’analyse et sa capacité d’apprentissage rendent l’intelligence artificielle attrayante pour les systèmes de combat. Les militaires, bien qu’ils ne l’admettent toujours pas, sont probablement déjà tentés de créer des systèmes de combat capables de fonctionner sur le champ de bataille de manière entièrement autonome, c’est-à-dire étant aptes à identifier une cible, ouvrir le feu sur celle-ci, se déplacer et choisir les trajectoires optimales leur permettant de se mettre à l’abri.

Il y a quelques années, les autorités militaires des États-Unis, de Russie, d’Allemagne, de Chine et de plusieurs autres pays ont annoncé que la création de systèmes de combat entièrement autonomes n’était pas leur objectif. Dans le même temps, les militaires ont noté que de tels systèmes seront vraisemblablement créés.

L’an dernier, le département américain de la Défense a achevé d’élaborer la « Troisième stratégie de compensation » (Third Offset Strategy) et commencé à la mettre en œuvre. Ce document implique, entre autres, le développement actif d’innovations techniques et leur utilisation dans les travaux militaires futurs.

Le 1er septembre 2017, le président russe, Vladimir Poutine, a déclaré, lors d’une conférence publique prononcée dans une école de Yaroslavl : « L’IA représente l’avenir non seulement de la Russie, mais de toute l’humanité. Elle offre des possibilités colossales, accompagnées de menaces difficilement prévisibles aujourd’hui. Ceux qui prendront la tête dans ce domaine dirigeront le monde », a-t-il déclaré, avant d’ajouter qu’il est « fortement indésirable que quelqu’un obtienne un monopole. Donc, si nous sommes les leaders dans ce domaine, nous partagerons ces technologies avec le monde entier ». Peut-on en déduire pour autant que nous ne sommes pas au début d’une nouvelle ère de course aux armements ?

Sur Terre, un nombre croissant de zones sont protégées de manière fiable par des systèmes antiaériens et antimissiles, surveillées par des systèmes satellitaires et sans pilote, et patrouillées par des navires et des avions. Dans l’esprit des militaires, seuls les systèmes de combat dotés d’IA pourront, en cas de guerre, pénétrer ces zones fermées et y opérer avec une certaine liberté.

Il existe déjà aujourd’hui des systèmes de combat capables de détecter et de classer leurs cibles, et de commander le tir de missiles antiaériens, comme par exemple les systèmes de missiles sol-air S-400 en Russie. Le système américain d’information Aegis, qui contrôle l’armement des navires de guerre, fonctionne de la même façon. Le long de la zone démilitarisée, à la frontière avec la République populaire démocratique de Corée, la République de Corée a posté plusieurs robots militaires SGR-A1 chargés de la surveillance.

Éthique sur le champ de bataille dans un futur proche

L’ONU face aux SALA

Depuis mai 2014, l’ONU a engagé un débat international sur le développement des systèmes d’armes létales automatiques (SALA), dit « robots tueurs ». Les Hautes Parties contractantes à la Convention sur certaines armes classiques (CCAC) se sont dotées d’un nouveau mandat : « débattre des questions ayant trait aux technologies émergentes dans le domaine des SALA, à la lumière des objectifs et des buts de la Convention ».

Réuni pour la première fois en novembre 2017, un Groupe d’experts gouvernementaux (GEG), présidé par l’ambassadeur indien Amandeep Singh Gill, a été chargé d’examiner les technologies émergentes dans le domaine des SALA. L’une des orientations retenues dans le rapport de consensus de cette réunion est que la responsabilité pour le développement de tout système d’armement de conflit appartient aux États. « Les États doivent veiller à pouvoir rendre des comptes en cas d’actions mortelles appliquées par leurs forces dans un conflit armé », a déclaré l’ambassadeur Singh Gill, lors de la dernière réunion du GEG, à Genève (Suisse), le 9 avril 2018.

Izumi Nakamitsu, la Haute-Représentante pour les affaires de désarmement de l’ONU a remarqué, pour sa part, que ce nouveau type de technologies donne lieu à des méthodes et moyens de livrer la guerre « avec des conséquences incertaines, éventuellement indésirables » et a souligné la nécessité de « dégager un consensus sur un entendement commun quant aux limites possibles du degré d’autonomie dans l’utilisation de la force létale ».

En mode automatique, ils sont capables d’ouvrir le feu sur l’ennemi, sans toutefois tirer sur les gens aux mains levées. Aucun de ces systèmes n’est utilisé par les militaires en mode automatique.

Les derniers progrès accomplis dans le développement de l’intelligence artificielle permettent de créer des systèmes de combat capables de se déplacer. Ainsi, aux États-Unis, on développe actuellement des ailiers sans pilote, qui voleront derrière des chasseurs pilotés par des humains, et viseront, sur ordre, des cibles aériennes ou terrestres. Le système de conduite de tir de la future version du char russe T-14, développé sur la base de la plate-forme universelle à chenilles Armata, sera capable de détecter les cibles de manière autonome et de les bombarder jusqu’à destruction complète. En parallèle, la Russie travaille sur une famille de robots à chenilles qui pourront participer au combat avec des soldats humains.

Pour les armées, tous ces systèmes sont appelés à remplir plusieurs fonctions de base, et en premier lieu celle d’accroître l’efficacité de destruction des cibles ennemies et de préserver la vie de leurs propres soldats. Dans le même temps, il n’existe pas encore de normes internationales ni de documents juridiques qui réglementeraient l’utilisation de systèmes de combat dotés d’IA dans une guerre.

Ni les coutumes de la guerre, ni les Conventions de Genève ne décrivent les systèmes dotés d’IA qui peuvent être utilisés au combat et ceux qui ne le peuvent pas. Il n’existe pas non plus de législation internationale qui permettrait de déterminer les coupables de la défaillance d’un système autonome. Si un drone bombarde de manière autonome des civils, qui sera puni ? Son fabricant ? Le commandant de l’escadrille à laquelle il était affecté ? Le ministère de la Défense ? La chaîne de coupables potentiels est trop grande et, comme on le sait, lorsqu’il y a trop de coupables, personne n’est coupable.

En 2015, le Future of Life Institute a publié une lettre ouverte signée par plus de 16 000 personnes, alertant sur les menaces que ces systèmes de combat dotés d’IA font peser sur les civils, sur le risque d’une course aux armements et, au bout du compte, sur le danger d’une issue fatale pour l’humanité. Elle était signée, en particulier, par l’entrepreneur américain et fondateur de SpaceX et Tesla Elon Musk, l’astrophysicien britannique Stephen Hawking (1942-2018) et le philosophe américain Noam Chomsky. En août dernier, Elon Musk et une centaine de développeurs de systèmes de robotique et d’IA ont envoyé à l’ONU une pétition demandant l’interdiction totale du développement et des essais des armes offensives autonomes.

Ces experts estiment que la création d’armées de robots capables de mener de manière autonome des hostilités conduira inévitablement à l’émergence, chez leurs détenteurs, de sentiments de pouvoir absolu et d’impunité. En outre, lorsqu’un homme est en situation de conflit, il prend des décisions dans lesquelles interviennent, notamment, ses attitudes morales, sentiments et émotions. L’observation directe des souffrances d’autrui produit encore un effet dissuasif sur les soldats, même si, chez les militaires professionnels, la compassion et la sensibilité finissent par s’émousser. En cas d’introduction généralisée de systèmes de combat autonomes, dont les détachements ne pourront être conduits que du doigt sur l’écran d’une tablette depuis un autre continent, la guerre se transformera inévitablement en jeu, les victimes civiles et les soldats en chiffres sur l’écran.

Vasily Sychev (Fédération de Russie) Expert en armement et journaliste, écrit essentiellement pour les journaux La Gazette russe, Expert, Lenta.ru et Le Courrier de l’industrie militaire. Il dirige également les rubriques « Armement » et « Aviation » dans le journal web de vulgarisation scientifique N+1.

Le Courrier de l’UNESCO • juillet-septembre 2018

Soldat augmenté : une combinaison de combat résiste aux explosions nucléaires

La combinaison de haute technologie de la Russie, développée par Rostec et appelée le Ratnik 3, a reçu une mise à niveau montrant une résistance aux explosions nucléaires. La combinaison comprend 59 autres caractéristiques de haute technologie pour créer une armure la plus avancée.

La dernière mise à niveau de la nouvelle armure comprend une montre anti-explosion nucléaire. Selon un communiqué publié par le bureau de presse, Oleg Faustov, concepteur en chef du Life Support System of the Soldier Combat Outfit at the Central Scientific Research Institute pour le génie des machines de précision, a déclaré : « La montre, que nous avons incluse dans l’équipement de combat Ratnik, est capable de résister à l’irradiation solaire et aux impulsions électromagnétiques, par exemple après une explosion nucléaire. Si un soldat est exposé à l’émission électromagnétique d’une bombe nucléaire, la montre continuera de fonctionner sans interruption.» La montre dispose également d’un mécanisme de remontage automatique, fonctionne sous l’eau et résiste à des conditions climatiques sévères (-40 à +50 ° C).

Étude prospective à l’horizon 2030 : impacts des transformations et ruptures technologiques sur notre environnement stratégique et de sécurité.

La combinaison du « soldat du futur » Ratnik comprend un exosquelette motorisé qui donnera plus de force et d’endurance aux soldats ; un gilet pare-balles ; une visière en verre teinté couvrant entièrement le visage et un casque équipé d’un affichage tête haute (HUD). Le poids de l’équipement de combat sera réduit de 30% lors de son utilisation sur le terrain. L’équipement comprend également des armes d’infanterie, des munitions, des moyens de communication et de navigation.

L’armée russe veut créer des exosquelettes militaires dirigés par le cerveau en 5 ans

Le Ratnik 3 devrait être prêt à être utilisé d’ici 2022.

Business Insider

Éthique sur le champ de bataille dans un futur proche

L’Homme augmenté, réflexions sociologiques pour le militaire

L’Homme augmenté, réflexions sociologiques pour le militaire

Colin A. (dir.), mars 2016, « L’Homme augmenté, réflexions sociologiques pour le militaire », Études de l’IRSEM n°42. → Télécharger le PDF (77 pages)

Voir aussi → Éthique sur le champ de bataille dans un futur proche

Agnès COLIN est chargée d’étude à l’IRSEM depuis 2010, auprès du domaine Défense et société. Elle est diplômée d’un doctorat en Chimie-Physique de l’université Pierre et Marie Curie-Paris VI, a été ingénieure d’étude à la DGA puis chargée d’étude au Centre des Hautes Etudes de l’armement (CHEar) sur les nouvelles technologies et les enjeux sociétaux. Ses principales thématiques de recherche sont les aspects sociétaux des nouvelles technologies NBIC (Nanotechnologie, Biotechnologie, Science de l’Information et de la Cognition), ainsi que les questionnements éthiques, juridiques et philosophiques des technologies émergentes en vue d’augmenter les performances de l’homme en terrain de combat.

Cette étude collective a été dirigée par une chercheuse de l’IRSEM, notre regrettée collègue Agnès Colin. Agnès nous a malheureusement quittés en septembre 2015. Titulaire d’un doctorat en physique-chimie obtenu en 1984, elle avait été recrutée à la Délégation générale pour l’armement comme ingénieur cadre technico-commercial. Ses fonctions avaient plusieurs fois évolué au sein de la DGA où elle avait notamment occupé les postes de chef de la division Détection sous-marine-Sonar, d’ingénieur en guerre électronique puis de chargée d’études en réflexion stratégique de l’armement au CHEAr. Agnès avait rejoint l’IRSEM, en tant que chercheuse, dès sa création en 2010. Elle avait mené plusieurs projets de publication dont cette étude sur l’homme augmenté qui lui aura donné l’occasion de fédérer autour d’elle une équipe de chercheurs d’horizons divers. Agnès aurait été heureuse que cette étude paraisse, apportant ainsi une nouvelle fois sa contribution à la recherche stratégique en France. Il revient maintenant à l’IRSEM de prolonger les pistes ouvertes par les travaux originaux d’Agnès.

Sommaire :

Introduction : L’Homme augmenté, nouveaux enjeux pour la défense
Les technologies d’amélioration des capacités humaines, le contexte sociologique
L’éthique, place respective du médecin et du scientifique face à des impératifs militaires de commandement et d’opérationnalité
Le dopage sportif, quelles évolutions récentes et quelles conséquences pour les militaires ?
Le contexte sociologique des technologies augmentatrices, perception et acceptation sociale
Un regard de philosophie morale sur l’homme et le militaire augmentés : vers la fin du courage ?
Le cyborg, un regard historique

Introduction (extrait)

L’homme augmenté constitue un vaste champ de recherche sur lequel se cristallisent de nombreux travaux et avancées scientifiques, liés au développement des nouvelles technologies et de la convergence croissante entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives (NBIC). Ces techniques ont un intérêt certain dans le domaine médical pour « réparer » l’homme lors d’applications à finalité thérapeutique mais peuvent aussi conduire à des améliorations hors du champ médical. De tout temps, l’homme a eu le désir de pouvoir un jour dépasser ses limites biologiques en vue de la création d’une espèce plus performante ou de s’élever au-dessus de la condition de simple mortel (post-humain). Ce sujet fascine car les médias et les auteurs de science-fiction entretiennent régulièrement de nombreux mythes et imaginaires sur les attentes (le cyborg). Si le débat sur l’amélioration artificielle des performances humaines, dans le secteur civil et dans le monde académique, émerge aujourd’hui de manière plus flagrante, c’est en grande partie grâce aux progrès scientifiques sur les sciences du vivant et l’ingénierie à des échelles de plus en plus petites. Il est donc logique que ces avancées scientifiques et technologiques aient des répercussions sur l’homme et posent de nouveaux enjeux sociétaux afin de garantir les droits et la santé des individus. Depuis une dizaine d’années, de nombreux scientifiques, philosophes et sociologues se penchent sur la question du “human enhancement” ou de “l’homme augmenté” et discutent des enjeux de l’amélioration artificielle des capacités humaines. Cette problématique concerne aussi le monde militaire. Pour la défense, ces nouvelles techniques ouvrent en effet des perspectives pour le combattant qui peut améliorer ses capacités d’adaptation à l’environnement militaire, d’augmenter ses performances et son efficience dans des contextes d’opérations difficiles (Vincent, 2010). Ces questionnements représentent de nouveaux défis non seulement technologiques mais aussi de nouveaux défis idéologiques et sociétaux, comme le souligne Patrice Binder (Binder, 2012) pour le Conseil Général de l’Armement dans une étude sur les enjeux des neurosciences pour la défense. Du point de vue éthique, l’utilisation des nouvelles technologies à des fins non thérapeutiques pose de nouvelles interrogations sur le respect des valeurs morales et sur la santé du personnel. En France, il n’existe pas de cadre normatif adapté aux questions d’amélioration de l’individu. Cela est dû au fait que dans le monde médical, la problématique de l’éthique des nouvelles technologies n’est actuellement abordée que pour les utilisations thérapeutiques. La refonte de la loi de bioéthique de 2004 définit un cadre d’application pour les applications thérapeutiques. Mais pour l’utilisation de dispositifs à d’autres fins, rien n’est prévu pour l’instant dans la révision des lois de bioéthique. Pour la défense, comme le militaire doit respecter les mêmes lois de bioéthique que le civil, force est de constater qu’il n’existe pas actuellement de cadre législatif particulier ni réglementaire pour traiter ce sujet. Certes, le droit et certains codes de bonnes pratiques des instituts de recherche apportent des éclairages sur ces questions. C’est ainsi que le Service de santé des Armées s’oppose à tout comportement ou à toute action susceptible de nuire à la santé du militaire.

À ce jour, il convient d’être très prudent sur les possibles technologiques et les projections futuristes. Il semble que les progrès les plus importants dans les technosciences se situent dans les technologies de l’information et de la communication, dans la mise au point de complexes interfaces cerveau-machines, dans la robotique comme les prothèses et dans de nouvelles molécules dopantes qui peuvent agir directement sur la physiologie de l’homme. Mais c’est surtout grâce aux avancées notables et conséquentes des recherches dans les neurosciences et les techniques d’exploration du cerveau, que la demande d’amélioration des performances semble être la plus forte et est présente de manière significative dans les débats éthiques du secteur civil, et commence à l’être dans le secteur militaire en France. En complément des articles présentés dans cette étude, ce préambule a pour objet d’introduire cette problématique d’actualité qui ouvre de nouveaux champs de recherche. L’ensemble de ces interrogations concerne le secteur de la défense au sein duquel des dispositifs basés sur l’imagerie cérébrale et le décodage de l’activité cérébrale sont potentiellement appelés à connaître un essor au cours des prochaines années. Ces techniques pourraient ainsi être utilisées pour le recrutement du personnel, lors de la sélection pour certaines prises de risques ou situations demandant des connaissances spécifiques. Elles seraient aussi très utiles dans les expériences sur les interfaces cerveau-machines en vue de l’amélioration des performances des militaires au combat (Colin, 2012). Les travaux de recherche militaire les plus nombreux et les plus avancés dans ce domaine sont menés par la DARPA pour le compte de l’armée américaine (Moreno, 2006) et visent à corréler l’activité de neurones avec des tâches spécifiques (dans le but, entre autres, de détecter le mensonge ou mieux gérer la peur).

Est-ce que l’US Navy planifie d’implanter des micro-puces ?

Des représentants consultent Zoltan Istvan le candidat à la présidence.

  • Le transhumaniste Zoltan Istvan a rencontré des hauts fonctionnaires de l’US Navy
  • Ils ont demandé conseils pour les aider à élaborer des politiques sur les implants de micro-puces
  • M. Istvan croit que tous les enfants devraient avoir des implants afin qu’ils puissent être suivis

La plupart d’entre nous portent un dispositif de repérage chaque jour sous la forme de téléphones mobiles, mais certaines personnes vont plus loin en ayant des puces intégrées dans leur corps.

La plupart d’entre nous portent un dispositif de repérage chaque jour sous la forme de téléphones mobiles, mais certaines personnes vont plus loin en ayant des puces intégrées dans leur corps.

L’US Navy est maintenant si préoccupée quant à cette pratique qu’elle est en train d’élaborer une politique officielle pour l’aider à traiter avec le personnel ayant des puces implantées.

Les fonctionnaires ont consulté le candidat transhumaniste à la présidence américaine Zoltan Istvan, pour discuter des répercussions de la préparation des humains avec des micro-puces pour augmenter leurs capacités (discuter de la fusion des humains et des machines).


Éthique sur le champ de bataille dans un futur proche


La DARPA[1] travaille déjà sur des implants qui peuvent être implantés dans le cerveau des soldats afin de les rendre plus résistants à la guerre.

Mais d’après M. Istvan, l’armée est également préoccupée à propos des technologies non autorisées que leur personnel peut s’implanter.

« La Navy s’efforce de créer des politiques autour de soldats ou marins qui commencent leur service militaire avec des puces non autorisées intégrées en eux.

C’est tout à fait sensé étant donné que la technologie est devenue si petite, que les implants peuvent maintenant faire un large éventail de choses – traquer, effectuer des paiements, surveiller la circulation sanguine et la santé corporelle – et être totalement cachée dans les êtres humains.

Vous pouvez imaginer à quel point ce serait délicat si quelqu’un avait une puce implantée non autorisée sur une base nucléaire – des politiques doivent être créées et rapidement. »

La rencontre s’est tenue entre M. Istvan et des responsables du Chief of Naval Operations Strategic Studies Group (opérations navales des études stratégiques), qui recherche de nouveaux concepts de guerre.

Une lettre du Vice-Amiral James Wisecup, directeur du groupe, dit à M. Istvan : « Vos commentaires ont élargi notre compréhension du transhumanisme et de la fusion des hommes et des machines.

Vos perspectives personnelles furent intéressantes et opportunes alors que nous commençons notre processus de recherche. Vous avez eu un impact direct sur nos points de vue pour les futurs concepts. »

Istvan croit que la technologie pourrait être utilisée pour donner aux humains l’immortalité en augmentant nos corps avec la technologie.

Traduction Thomas Jousse

Lire la suite sur DailyMail

[1] DARPA projette de concevoir le modem cortical ; Des implants cérébraux conçus pour fondre et ne laisser aucune trace ; Un implant cérébral montre le potentiel de l’interface-neuronale (IND) pour le cerveau ; Un implant cérébral se connectera avec 1 million de neurones ; Un algorithme informatique créé pour encoder les souvenirs humains.

Réalité augmentée pour les forces armées

« Notre travail consiste à reprendre le monde extérieur tel qu’il est et d’y incruster des avatars », explique Christophe Bruzy.

« Afin d’offrir un entraînement de qualité, il est essentiel de disposer d’une analyse minutieuse du réel : hauteur de l’herbe, configuration des routes, hauteur des trottoirs, etc. »

Cette intégration du virtuel dans le réel a pris un nouveau tournant avec le programme SCORPION de l’armée de terre qui vise à optimiser les capacités de combat des Groupements Tactiques Interarmes (de 500 à 1 800 hommes) à partir de 2018, en les dotant de plateformes de combat modernes interconnectées.

lire l’article sur Thales News

Éthique sur le champ de bataille dans un futur proche

Le récent rapport de l’armée américaine “Visualizing the Tactical Ground Battlefield in the Year 2050” décrit un certain nombre de scénarios de guerre qui soulèvent des dilemmes éthiques épineux. Parmi les nombreux développements tactiques envisagés par les auteurs, un groupe d’experts réunis par le laboratoire de recherche de l’armée américaine, trois se distinguent à la fois plausibles et plein de défis moraux : les humains augmentés, des armes à énergie dirigée, et des robots tueurs autonomes. Les deux premières technologies affectent directement l’homme, et donc présentent deux défis militaires et médicaux éthiques. Le troisième développement, des robots remplaceraient les humains, et pose donc des questions difficiles sur la mise en œuvre du droit de la guerre, sans aucun sens de la justice.

Humains augmentés. Médicaments, interfaces cerveau-machine, prothèses neurales, et le génie génétique sont toutes les technologies qui peuvent être utilisées dans les prochaines décennies pour renforcer la capacité des soldats au combat, les garder en alerte, les aider à survivre plus longtemps avec moins de nourriture, soulager la douleur, aiguiser et renforcer leurs capacités cognitives et physiques. Tous soulèvent des difficultés éthiques et bioéthiques graves.

Médicaments et prothèses sont des interventions médicales. Leur but est de sauver des vies, soulager la souffrance, ou améliorer la qualité de vie. Lorsqu’il est utilisé pour la mise en valeur, cependant, ils ne sont plus thérapeutiques. Les soldats désignés pour l’amélioration ne seraient pas malades. Les commandants s’efforceraient d’améliorer les capacités de combat d’un soldat tout en réduisant les risques pour leur vie et leur intégrité physique. Cela soulève plusieurs questions connexes.

D’abord, les sciences médicales devraient-elles servir les fins de la guerre ? Ce n’est pas une nouvelle question – elle a surgi la première fois quand l’armée américaine a recruté des médecins pour développer les armes chimiques et biologiques pendant la deuxième guerre mondiale. Et bien qu’il puisse y avoir de bonnes raisons militaires d’avoir les médecins à aider à la fabrication de bombes, la communauté médicale a fermement rejeté ce rôle. Les médecins sont des guérisseurs, pas des guerriers; augmenter des soldats pour tuer sape l’intégrité de la médecine.

Une autre difficulté éthique parle sur les effets transformateurs d’améliorations. De nombreux agents pharmaceutiques soulèvent des préoccupations légitimes au sujet des changements de personnalité. Par exemple, si les soldats utilisent des drogues pour maximiser la prouesse cognitive en réduisant l’anxiété et éliminer les craintes, les visions de puissance et la grandeur peuvent en résulter. Certains médicaments, pourraient bloquer les souvenirs d’événements du champ de bataille. Sans mémoire, il n’y a pas de remords, et sans remords, il n’y a pas de contrainte.

Enfin, nous devons considérer les droits des soldats désignés pour l’amélioration. Les soldats n’ont pas le droit de refuser des traitements médicaux standards qui les maintiennent en forme pour le devoir. Mais les soldats doivent-ils être d’accord sur l’amélioration ? (…) En conséquence, l’amélioration devrait exiger le consentement éclairé ainsi que la surveillance médicale nécessaire pour surveiller la sécurité. Et parce que les effets à long terme de l’augmentation médical demeurent inconnus, les autorités militaires doivent faire tous les efforts pour utiliser des alternatives non médicales (telles que l’armure de corps, transport blindé, et l’amélioration de l’armement) pour améliorer les performances de la troupe.

Le respect de ces conditions, cependant, sera problématique. Pour une chose, le consentement éclairé est souvent difficile à atteindre dans une hiérarchie militaire où “les ordres sont les ordres.” D’autre part, les effets médicaux de certaines améliorations ne seront pas nécessairement connus. Les soldats peuvent ne pas avoir suffisamment d’informations pour prendre des décisions éclairées qui nécessitent une éthique médicale.

Armes à énergie dirigée. Le rapport de l’armée prédit qu’une variété d’armes à énergie dirigée sera utilisé en 2050. Il ne fouille pas profondément dans les détails, mais cette catégorie pourrait inclure les lasers aveuglants, rayonnement électromagnétique, et la stimulation magnétique, toutes les technologies à portée de main. Aucun est conçus pour être mortelle. Les lasers aveuglants émettent des impulsions d’énergie dirigée de façon permanente ou temporaire et neutralisent des combattants. Le droit international interdit maintenant les lasers aveuglants en permanence, mais le laser “dazzlers” provoque seulement une cécité temporaire et permettrait aux troupes le désarmement et l’arrestation d’assaillants. Une autre arme à énergie dirigée de l’armée américaine est Active Denial System, ou ADS, qui émet un faisceau d’onde électromagnétique d’une fréquence de 95 gigahertz qui pénètre la peau pour créer une sensation de brûlure intense, sans endommager les tissus. (note : une impulsion de 2 secondes porterait la peau jusqu’à une température d’environ 55 °C, causant une intense sensation de brûlure très douloureuse. Il faudrait une exposition au faisceau de 250 secondes pour brûler la peau). Les deux lasers aveuglants et des armes de type ADS pourraient être particulièrement utile dans des conditions de champ de bataille où les armées sont confrontées à des populations mixtes de civils et des guérilleros ou des terroristes qui ne portent pas d’uniformes. En utilisant la technologie, les soldats pourraient neutraliser les combattants et les non-combattants, puis arrêter et de détenir l’ancien tout en libérant ce dernier indemne.

Stimulation magnétique transcrânienne (TMS) pourrait également être utile pour cibler les foules indifférenciées, il dirigerait un champ magnétique intense pour manipuler l’activité du cerveau. Actuellement à l’étude comme traitement pour la dépression, TMS pourrait, par exemple, être en mesure de modifier l’humeur d’une personne et de transformer l’hostilité et la haine en confiance et à la coopération. Les dispositifs existants sont de petite taille et nécessitent un opérateur pour passer une bobine directement sur la tête d’une personne, mais les applications futures pourraient permettre un fonctionnement de longue distance. Ainsi une force militaire pourrait sans douleur et de manière non-létale modifier l’état d’esprit et le comportement d’un ennemi et l’emporter dans une bataille.

À première vue, ces technologies suscitent révulsion. Mais quel est exactement le problème? Tout d’abord, en violation de son rôle traditionnel, la science médicale développe des armes qui infligent la douleur. Il peut être une douleur transitoire, mais implique néanmoins la souffrance. Deuxièmement, les armes médicalisées minent le corps humain d’une manière particulièrement insidieuse. La plupart des armes tuent ou blessent en infligeant un traumatisme contondant ou perte de sang, mais les lasers aveuglants, l’Active Denial System, et la stimulation transmagnétique (TMS) manipulent les systèmes physiologiques spécifiques plutôt que de traumatiser tout simplement le corps humain. Ces armes font craindre des blessures qui défient les soins médicaux et sont des technologies qui pourraient éventuellement modifier les humains au-delàs de toute reconnaissance. Les caractéristiques particulières de certaines armes modernes ont conduit le Comité international de la Croix-Rouge à recommander une interdiction sur les armes spécifiquement conçues pour tuer ou blesser pour provoquer une maladie ou un état physiologique anormal spécifique, comme étant aveuglé ou brûlé. Il y a de bonnes raisons de faire preuve de prudence extrême à mesure que nous avançons avec des armes qui envahissent le corps directement.

Stimulation magnétique transcrânienne propose surtout des raisons impérieuses de préoccupation. Réalisé au cerveau, il perturbe les processus cognitifs et modifie temporairement les caractéristiques humaines essentielles. Est-ce là où la technologie militaire devrait aller? En plus de médicaliser la guerre, les interventions neurologiques augmentent le risque de déshumanisation et les infractions de « liberté cognitive » – le droit de penser par soi-même, libre de contraintes externes ou contrôle de l’esprit. Étroitement liée au droit à la vie privée, la liberté cognitive devrait interdire aux autres d’envahir l’esprit-espace personnel, perturber ses processus ou de révéler son contenu.

Si le droit de l’ennemi à la liberté cognitive est inviolable ou soumis aux diktats la nécessité militaire reste une question ouverte. Forts de notre compréhension que les privations de liberté physique (telles que l’incarcération) nécessitent une procédure régulière, on peut dire de façon convaincante que les privations de liberté cognitive, si autorisée à tous, nécessitent une barre beaucoup plus élevée. Mener une guerre ne permet pas chaque usage de la force. Ceci est un axiome fondamental du droit international humanitaire. Bien que non létales, les armes qui modifient les états d’esprit peuvent aller au-delà du pâle. À tout le moins, ils exigent des autorités militaires et politiques de suivre de près leur utilisation et les effets encore non connus.

Robots tueurs autonomes. Le rapport de l’armée américaine affirme que «les robots déployés seraient capables de fonctionner dans une variété de modes de « contrôle » de l’autonomie totale à la gestion active par les humains.” Considérons le mode «autonomie totale». Tourné en vrac sur le champ de bataille, des robots tueurs (ces armées avec des armes létales) pourraient agir individuellement ou collectivement. Programmés avec une mission, ils seraient capables de dégrader ou de désactiver les forces ennemies en utilisant des tactiques cohérentes avec le droit des conflits armés et le droit international humanitaire.

D’une façon minimum, les robots tueurs doivent comprendre et appliquer la loi pendant qu’ils accomplissent leur mission. Est-il possible de les programmer simplement pour le faire ainsi ? Le droit des conflits armés a une composante éthique très saillante.

Depuis le 19ème siècle, les juristes internationaux ont compris qu’aucune loi ne peut couvrir toutes les situations possibles. Cela laisse deux logiques par défaut pour la prise de décision : la nécessité militaire ou une norme de conduite plus élevée. Si un officier manque d’orientation claire se rabattre sur l’accomplissement de sa mission, ou se reporter aux principes moraux ? La réponse est aussi claire aujourd’hui qu’elle l’était en 1899, lorsque les délégués à la Convention de La Haye sur le droit et les coutumes de la guerre ont déclaré :

Les Hautes Parties contractantes pensent qu’il est juste de déclarer que dans les cas non inclus dans les règlements adoptés par ceux-ci, les populations et les belligérants restent sous la sauvegarde et sous l’empire des principes du droit international, tels qu’ils résultent des usages établis entre nations civilisées, des lois de l’humanité et les exigences de la conscience publique.

Donc, la programmation d’un robot tueur à se comporter avec justice est beaucoup plus difficile que de télécharger le corpus du droit international. Il faut inculquer un sens de la justice. Est-ce possible ? Une solution peut être d’établir des principes de base et certains éléments de supervision, mais il ne sera pas facile à mettre en application ni l’un ni l’autre. Par exemple, la règle de la proportionnalité exige qu’un dirigeant de champ pèse l’avantage militaire d’attaquer une cible militaire contre le mal qui arrivera aux civils ennemis en conséquence. C’est une décision extrêmement ardue parce que les éléments de l’équation-avantage militaire et blesser les civils – sont sans commune mesure. Décès et blessure mesure des pertes civiles, mais quelles mesures avantagent le militaire? La vie des compatriotes enregistrés, les ressources ennemies dégradées, crédibilité de la dissuasion restaurée, ou une combinaison de ces facteurs ? Les commandants humains ont assez de mal avec ce genre de décision. Les robots tueurs peuvent-ils gérer les choses un peu mieux ?

Même s’ils le pouvaient, il y aurait encore des sensibilités politiques à considérer. Par exemple, qui compte comme un civil ? Après la guerre de Gaza de 2008 à 2009 entre Israël et les forces palestiniennes, chaque côté a reconnu que près de 1.200 Palestiniens ont perdu leurs vies. Mais Israël a affirmé que 75 pour cent étaient des combattants alors que les Palestiniens ont affirmé que 75 pour cent étaient des civils. (…) Les “lois de l’humanité” reposent avec les humains, pas des robots. Tout comme nous pouvons arrêter et juger les soldats qui violent la loi et la morale, il doit être possible d’arrêter et de juger les autorités de surveillance (les superviseurs) des droits de robots qui font de même. Pleine autonomie pour les robots est loin d’être idéale. La responsabilité de la conduite de la guerre doit par la suite incomber aux êtres humains.

Ce que la technologie ne peut résoudre. Augmentation de l’homme, armes à énergie dirigée, et robots tueurs sont tous en cours d’élaboration dans le but de sauver des vies des combattants et non combattants. Comment vont-ils réussir à cet objectif dépendra de la façon dont les opérateurs civils et militaires naviguent plusieurs détroits.

Premièrement, les dirigeants doivent se méfier de la pente glissante. L’augmentation de soldats peut conduire à l’amélioration des policiers ou de l’amélioration des criminels. De même, les opérateurs peuvent utiliser des armes à énergie dirigée à la torture plutôt que de neutraliser leurs cibles. Ou bien la technologie pourrait finir par saper les libertés civiles.

Deuxièmement, les opérateurs et les concepteurs d’armes doivent être conscients des écueils de la multiplication de la force. Cela est particulièrement vrai dans la guerre asymétrique. Les armes conçues pour atténuer les blessures et la perte de la vie peuvent aussi intensifier le mal. Comment un état armé de soldats augmentée, armes à énergie dirigée, et robots tueurs va lutter contre les insurgés ? Emploierait-il son arsenal pour frapper, neutraliser, soumettre, et arrêter des guérilleros, ou tuerait-il simplement des militants handicapés ?

Comme nous cherchons des réponses à ces questions, nous devons nous méfier de placer trop d’importance dans la technologie. Le conflit armé contemporain démontre amplement comment les guérilleros, les insurgés, et les terroristes ont trouvé de nouveau moyen de surmonter les technologies de pointe grâce à des tactiques relativement à faible contenu technologique comme les attentats-suicides, des engins explosifs improvisés, boucliers humains, la prise d’otages, et de la propagande. Il y a peu de doute que ces tactiques fassent profit parce que de nombreuses armées de l’Etat cherchent à embrasser les « lois de l’humanité et les exigences de la conscience publique », et, en tant que démocraties, choisissent souvent de se battre avec une main attachée derrière le dos. Les technologies émergentes qui accompagneront la guerre du futur aiguisent ce dilemme, d’autant plus que la guerre asymétrique s’intensifie et certains se demandent inévitablement si des robots tueurs manquaient un sens de la justice ce ne serait pas une si mauvaise chose après tout.


Michael L. Gross est professeur à l’Université de Haïfa en Israël, où il est également à la tête de l’École des sciences politiques. Il est l’auteur de la bioéthique et les conflits armés (2006), dilemmes moraux de la guerre moderne (2010), et L’éthique de l’Insurrection (2015).

Source : Bulletin of the Atomic Scientists 17/12/2015