Skip to content

Éthique sur le champ de bataille dans un futur proche

Le récent rapport de l’armée américaine « Visualizing the Tactical Ground Battlefield in the Year 2050 » décrit un certain nombre de scénarios de guerre qui soulèvent des dilemmes éthiques épineux. Parmi les nombreux développements tactiques envisagés par les auteurs, un groupe d’experts réunis par le laboratoire de recherche de l’armée américaine, trois se distinguent à la fois plausible et pleine de défis moraux : les humains augmentés, des armes à énergie dirigée, et des robots tueurs autonomes. Les deux premières technologies affectent directement l’homme, et donc présentent deux défis militaires et médicaux éthiques. Le troisième développement, des robots, remplaceraient les humains, et pose donc des questions difficiles sur la mise en œuvre du droit de la guerre, sans aucun sens de la justice.

Humains augmentés. Médicaments, interfaces cerveau-machine, prothèses neurales, et le génie génétique sont toutes les technologies qui peuvent être utilisées dans les prochaines décennies pour renforcer la capacité des soldats au combat, les garder en alerte, les aider à survivre plus longtemps avec moins de nourriture, soulager la douleur, aiguiser et renforcer leurs capacités cognitives et physiques. Tous soulèvent des difficultés éthiques et bioéthiques graves.

Médicaments et prothèses sont des interventions médicales. Leur but est de sauver des vies, soulager la souffrance, ou améliorer la qualité de vie. Lorsqu’il est utilisé pour la mise en valeur, cependant, ils ne sont plus thérapeutiques. Les soldats désignés pour l’amélioration ne seraient pas malades. Les commandants s’efforceraient d’améliorer les capacités de combat d’un soldat tout en réduisant les risques pour leur vie et leur intégrité physique. Cela soulève plusieurs questions connexes.

D’abord, les sciences médicales devraient-elles servir les fins de la guerre ? Ce n’est pas une nouvelle question – elle a surgi la première fois quand l’armée américaine a recruté des médecins pour développer les armes chimiques et biologiques pendant la deuxième guerre mondiale. Et bien qu’il puisse y avoir de bonnes raisons militaires d’avoir les médecins à aider à la fabrication de bombes, la communauté médicale a fermement rejeté ce rôle. Les médecins sont des guérisseurs, pas des guerriers; augmenter des soldats pour tuer sape l’intégrité de la médecine.

Une autre difficulté éthique parle sur les effets transformateurs d’améliorations. De nombreux agents pharmaceutiques soulèvent des préoccupations légitimes au sujet des changements de personnalité. Par exemple, si les soldats utilisent des drogues pour maximiser la prouesse cognitive en réduisant l’anxiété et éliminer les craintes, les visions de puissance et la grandeur peuvent en résulter. Certains médicaments, pourraient bloquer les souvenirs d’événements du champ de bataille. Sans mémoire, il n’y a pas de remords, et sans remords, il n’y a pas de contrainte.

Enfin, nous devons considérer les droits des soldats désignés pour l’amélioration. Les soldats n’ont pas le droit de refuser des traitements médicaux standards qui les maintiennent en forme pour le devoir. Mais les soldats doivent-ils être d’accord sur l’amélioration ? (…) En conséquence, l’amélioration devrait exiger le consentement éclairé ainsi que la surveillance médicale nécessaire pour surveiller la sécurité. Et parce que les effets à long terme de l’augmentation médical demeurent inconnus, les autorités militaires doivent faire tous les efforts pour utiliser des alternatives non médicales (telles que l’armure de corps, transport blindé, et l’amélioration de l’armement) pour améliorer les performances de la troupe.

Le respect de ces conditions, cependant, sera problématique. Pour une chose, le consentement éclairé est souvent difficile à atteindre dans une hiérarchie militaire où « les ordres sont les ordres. » D’autre part, les effets médicaux de certaines améliorations ne seront pas nécessairement connus. Les soldats peuvent ne pas avoir suffisamment d’informations pour prendre des décisions éclairées qui nécessitent une éthique médicale.

Armes à énergie dirigée. Le rapport de l’armée prédit qu’une variété d’armes à énergie dirigée sera utilisé en 2050. Il ne fouille pas profondément dans les détails, mais cette catégorie pourrait inclure les lasers aveuglants, rayonnement électromagnétique, et la stimulation magnétique, toutes les technologies à portée de main. Aucun est conçus pour être mortelle. Les lasers aveuglants émettent des impulsions d’énergie dirigée de façon permanente ou temporaire et neutralisent des combattants. Le droit international interdit maintenant les lasers aveuglants en permanence, mais le laser « dazzlers » provoque seulement une cécité temporaire et permettrait aux troupes le désarmement et l’arrestation d’assaillants. Une autre arme à énergie dirigée de l’armée américaine est Active Denial System, ou ADS, qui émet un faisceau d’onde électromagnétique d’une fréquence de 95 gigahertz qui pénètre la peau pour créer une sensation de brûlure intense, sans endommager les tissus. (note : une impulsion de 2 secondes porterait la peau jusqu’à une température d’environ 55 °C, causant une intense sensation de brûlure très douloureuse. Il faudrait une exposition au faisceau de 250 secondes pour brûler la peau). Les deux lasers aveuglants et des armes de type ADS pourraient être particulièrement utile dans des conditions de champ de bataille où les armées sont confrontées à des populations mixtes de civils et des guérilleros ou des terroristes qui ne portent pas d’uniformes. En utilisant la technologie, les soldats pourraient neutraliser les combattants et les non-combattants, puis arrêter et de détenir l’ancien tout en libérant ce dernier indemne.

Stimulation magnétique transcrânienne (TMS) pourrait également être utile pour cibler les foules indifférenciées, il dirigerait un champ magnétique intense pour manipuler l’activité du cerveau. Actuellement à l’étude comme traitement pour la dépression, TMS pourrait, par exemple, être en mesure de modifier l’humeur d’une personne et de transformer l’hostilité et la haine en confiance et à la coopération. Les dispositifs existants sont de petite taille et nécessitent un opérateur pour passer une bobine directement sur la tête d’une personne, mais les applications futures pourraient permettre un fonctionnement de longue distance. Ainsi une force militaire pourrait sans douleur et de manière non-létale modifier l’état d’esprit et le comportement d’un ennemi et l’emporter dans une bataille.

À première vue, ces technologies suscitent révulsion. Mais quel est exactement le problème? Tout d’abord, en violation de son rôle traditionnel, la science médicale développe des armes qui infligent la douleur. Il peut être une douleur transitoire, mais implique néanmoins la souffrance. Deuxièmement, les armes médicalisées minent le corps humain d’une manière particulièrement insidieuse. La plupart des armes tuent ou blessent en infligeant un traumatisme contondant ou perte de sang, mais les lasers aveuglants, l’Active Denial System, et la stimulation transmagnétique (TMS) manipulent les systèmes physiologiques spécifiques plutôt que de traumatiser tout simplement le corps humain. Ces armes font craindre des blessures qui défient les soins médicaux et sont des technologies qui pourraient éventuellement modifier les humains au-delàs de toute reconnaissance. Les caractéristiques particulières de certaines armes modernes ont conduit le Comité international de la Croix-Rouge à recommander une interdiction sur les armes spécifiquement conçues pour tuer ou blesser pour provoquer une maladie ou un état ​​physiologique anormal spécifique, comme étant aveuglé ou brûlé. Il y a de bonnes raisons de faire preuve de prudence extrême à mesure que nous avançons avec des armes qui envahissent le corps directement.

Stimulation magnétique transcrânienne propose surtout des raisons impérieuses de préoccupation. Réalisé au cerveau, il perturbe les processus cognitifs et modifie temporairement les caractéristiques humaines essentielles. Est-ce là où la technologie militaire devrait aller? En plus de médicaliser la guerre, les interventions neurologiques augmentent le risque de déshumanisation et les infractions de « liberté cognitive » – le droit de penser par soi-même, libre de contraintes externes ou contrôle de l’esprit. Étroitement liée au droit à la vie privée, la liberté cognitive devrait interdire aux autres d’envahir l’esprit-espace personnel, perturber ses processus ou de révéler son contenu.

Si le droit de l’ennemi à la liberté cognitive est inviolable ou soumis aux diktats la nécessité militaire reste une question ouverte. Forts de notre compréhension que les privations de liberté physique (telles que l’incarcération) nécessitent une procédure régulière, on peut dire de façon convaincante que les privations de liberté cognitive, si autorisée à tous, nécessitent une barre beaucoup plus élevée. Mener une guerre ne permet pas chaque usage de la force. Ceci est un axiome fondamental du droit international humanitaire. Bien que non létales, les armes qui modifient les états d’esprit peuvent aller au-delà du pâle. À tout le moins, ils exigent des autorités militaires et politiques de suivre de près leur utilisation et les effets encore non connus.

Robots tueurs autonomes. Le rapport de l’armée américaine affirme que «les robots déployés seraient capables de fonctionner dans une variété de modes de « contrôle » de l’autonomie totale à la gestion active par les humains. » Considérons le mode «autonomie totale». Tourné en vrac sur le champ de bataille, des robots tueurs (ces armées avec des armes létales) pourraient agir individuellement ou collectivement. Programmés avec une mission, ils seraient capables de dégrader ou de désactiver les forces ennemies en utilisant des tactiques cohérentes avec le droit des conflits armés et le droit international humanitaire.

D’une façon minimum, les robots tueurs doivent comprendre et appliquer la loi pendant qu’ils accomplissent leur mission. Est-il possible de les programmer simplement pour le faire ainsi ? Le droit des conflits armés a une composante éthique très saillante.

Depuis le 19ème siècle, les juristes internationaux ont compris qu’aucune loi ne peut couvrir toutes les situations possibles. Cela laisse deux logiques par défaut pour la prise de décision : la nécessité militaire ou une norme de conduite plus élevée. Si un officier manque d’orientation claire se rabattre sur l’accomplissement de sa mission, ou se reporter aux principes moraux ? La réponse est aussi claire aujourd’hui qu’elle l’était en 1899, lorsque les délégués à la Convention de La Haye sur le droit et les coutumes de la guerre ont déclaré :

Les Hautes Parties contractantes pensent qu’il est juste de déclarer que dans les cas non inclus dans les règlements adoptés par ceux-ci, les populations et les belligérants restent sous la sauvegarde et sous l’empire des principes du droit international, tels qu’ils résultent des usages établis entre nations civilisées, des lois de l’humanité et les exigences de la conscience publique.

Donc, la programmation d’un robot tueur à se comporter avec justice est beaucoup plus difficile que de télécharger le corpus du droit international. Il faut inculquer un sens de la justice. Est-ce possible ? Une solution peut être d’établir des principes de base et certains éléments de supervision, mais il ne sera pas facile à mettre en application ni l’un ni l’autre. Par exemple, la règle de la proportionnalité exige qu’un dirigeant de champ pèse l’avantage militaire d’attaquer une cible militaire contre le mal qui arrivera aux civils ennemis en conséquence. C’est une décision extrêmement ardue parce que les éléments de l’équation-avantage militaire et blesser les civils – sont sans commune mesure. Décès et blessure mesure des pertes civiles, mais quelles mesures avantagent le militaire? La vie des compatriotes enregistrés, les ressources ennemies dégradées, crédibilité de la dissuasion restaurée, ou une combinaison de ces facteurs ? Les commandants humains ont assez de mal avec ce genre de décision. Les robots tueurs peuvent-ils gérer les choses un peu mieux ?

Même s’ils le pouvaient, il y aurait encore des sensibilités politiques à considérer. Par exemple, qui compte comme un civil ? Après la guerre de Gaza de 2008 à 2009 entre Israël et les forces palestiniennes, chaque côté a reconnu que près de 1.200 Palestiniens ont perdu leurs vies. Mais Israël a affirmé que 75 pour cent étaient des combattants alors que les Palestiniens ont affirmé que 75 pour cent étaient des civils. (…) Les « lois de l’humanité » reposent avec les humains, pas des robots. Tout comme nous pouvons arrêter et juger les soldats qui violent la loi et la morale, il doit être possible d’arrêter et de juger les autorités de surveillance (les superviseurs) des droits de robots qui font de même. Pleine autonomie pour les robots est loin d’être idéale. La responsabilité de la conduite de la guerre doit par la suite incomber aux êtres humains.

Ce que la technologie ne peut résoudre. Augmentation de l’homme, armes à énergie dirigée, et robots tueurs sont tous en cours d’élaboration dans le but de sauver des vies des combattants et non combattants. Comment vont-ils réussir à cet objectif dépendra de la façon dont les opérateurs civils et militaires naviguent plusieurs détroits.

Premièrement, les dirigeants doivent se méfier de la pente glissante. L’augmentation de soldats peut conduire à l’amélioration des policiers ou de l’amélioration des criminels. De même, les opérateurs peuvent utiliser des armes à énergie dirigée à la torture plutôt que de neutraliser leurs cibles. Ou bien la technologie pourrait finir par saper les libertés civiles.

Deuxièmement, les opérateurs et les concepteurs d’armes doivent être conscients des écueils de la multiplication de la force. Cela est particulièrement vrai dans la guerre asymétrique. Les armes conçues pour atténuer les blessures et la perte de la vie peuvent aussi intensifier le mal. Comment un état armé de soldats augmentée, armes à énergie dirigée, et robots tueurs va lutter contre les insurgés ? Emploierait-il son arsenal pour frapper, neutraliser, soumettre, et arrêter des guérilleros, ou tuerait-il simplement des militants handicapés ?

Comme nous cherchons des réponses à ces questions, nous devons nous méfier de placer trop d’importance dans la technologie. Le conflit armé contemporain démontre amplement comment les guérilleros, les insurgés, et les terroristes ont trouvé de nouveau moyen de surmonter les technologies de pointe grâce à des tactiques relativement à faible contenu technologique comme les attentats-suicides, des engins explosifs improvisés, boucliers humains, la prise d’otages, et de la propagande. Il y a peu de doute que ces tactiques fassent profit parce que de nombreuses armées de l’Etat cherchent à embrasser les « lois de l’humanité et les exigences de la conscience publique », et, en tant que démocraties, choisissent souvent de se battre avec une main attachée derrière le dos. Les technologies émergentes qui accompagneront la guerre du futur aiguisent ce dilemme, d’autant plus que la guerre asymétrique s’intensifie et certains se demandent inévitablement si des robots tueurs manquaient un sens de la justice ce ne serait pas une si mauvaise chose après tout.


Michael L. Gross est professeur à l’Université de Haïfa en Israël, où il est également à la tête de l’École des sciences politiques. Il est l’auteur de la bioéthique et les conflits armés (2006), dilemmes moraux de la guerre moderne (2010), et L’éthique de l’Insurrection (2015).

Source : Bulletin of the Atomic Scientists 17/12/2015

5 Comments »

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :