Skip to content

Éthique sur le champ de bataille dans un futur proche

Le récent rapport de l’armée américaine « Visualizing the Tactical Ground Battlefield in the Year 2050 » décrit un certain nombre de scénarios de guerre qui soulèvent des dilemmes éthiques épineux. Parmi les nombreux développements tactiques envisagés par les auteurs, un groupe d’experts réunis par le laboratoire de recherche de l’armée américaine, trois se distinguent par leur plausibilité et les défis moraux qu’ils posent : les humains augmentés, les armes à énergie dirigée, et les robots tueurs autonomes. Les deux premières technologies affectent directement les humains, et présentent donc des défis éthiques tant militaires que médicaux. Le troisième développement, les robots remplaceraient les humains, et pose donc des questions difficiles sur l’application du droit de la guerre sans aucun sens de la justice.

Humains augmentés. Médicaments, interfaces cerveau-machine, prothèses neurales, et le génie génétique sont toutes les technologies qui pourraient être utilisées dans les prochaines décennies pour renforcer la capacité des soldats au combat, les maintenir en alerte, les aider à survivre plus longtemps avec moins de nourriture, soulager la douleur, aiguiser et renforcer leurs capacités cognitives et physiques. Toutes soulèvent de graves difficultés éthiques et bioéthiques.

Les médicaments et les prothèses sont des interventions médicales. Leur but est de sauver des vies, soulager la souffrance, ou d’améliorer la qualité de vie. Cependant, lorsqu’ils sont utilisés à des fins d’amélioration, ils ne sont plus thérapeutiques. Les soldats désignés pour l’amélioration ne seraient pas malades. Les commandants chercheraient plutôt à améliorer les capacités de combat d’un soldat tout en réduisant les risques pour leur vie et leur intégrité physique. Cela soulève plusieurs questions connexes.

D’abord, la science médicale doit-elle servir les fins de la guerre ? Cette question n’est pas nouvelle – elle a surgi la première fois lorsque l’armée américaine a recruté des médecins pour développer les armes chimiques et biologiques pendant la Seconde Guerre mondiale. Et bien qu’il puisse y avoir de bonnes raisons militaires pour que des médecins aident à fabriquer des bombes, la communauté médicale a fermement rejeté ce rôle. Les médecins sont des guérisseurs, pas des guerriers ; augmenter la capacité des soldats pour qu’ils tuent sape l’intégrité de la médecine.

Une autre difficulté éthique concerne les effets transformateurs des améliorations. De nombreux agents pharmaceutiques suscitent des inquiétudes légitimes quant aux changements de personnalité. Par exemple, si des soldats utilisent des drogues pour maximiser leurs prouesses cognitives en réduisant l’anxiété et en éliminant la peur, il peut en résulter des visions de puissance et de grandeur. Certains médicaments, quant à eux, pourraient bloquer les souvenirs des événements survenus sur le champ de bataille. Sans mémoire, il n’y a pas de remords, et sans remords, il n’y a pas de contrainte.

Enfin, nous devons considérer les droits des soldats désignés pour une amélioration. Les soldats n’ont pas le droit de refuser les traitements médicaux standard qui les maintiennent aptes au service. Mais les soldats doivent-ils accepter d’être améliorés ? Les soldats qui acceptent sont déjà en bonne santé et en bonne forme physique ; l’amélioration ne fait que les rendre plus aptes. Par conséquent, l’amélioration de la condition physique doit faire l’objet d’un consentement éclairé et d’une supervision médicale nécessaire pour garantir la sécurité. Et parce que les effets à long terme de l’augmentation médicale restent inconnus, les autorités militaires devraient faire tout leur possible pour utiliser des alternatives non médicales (telles que les gilets pare-balles, les transports blindés et les armes améliorées) pour améliorer les performances des troupes.

Le respect de ces conditions sera toutefois problématique. D’une part, le consentement éclairé est souvent difficile à obtenir dans une hiérarchie militaire où « les ordres sont les ordres ». D’autre part, les effets médicaux de certaines améliorations ne seront pas nécessairement connus. Les soldats peuvent ne pas disposer d’informations suffisantes pour prendre les décisions éclairées que l’éthique médicale exige. Les officiers ne peuvent pas non plus ordonner au personnel de service d’accepter des soins médicaux qui ne sont pas thérapeutiques. Pour évaluer les avantages de l’amélioration, nous devons tenir compte de ces réserves. Il se peut que toute technologie qui augmente l’efficacité militaire et protège les soldats soit la bienvenue. Les chefs militaires doivent toutefois faire preuve de prudence pour s’assurer que le personnel militaire n’abuse pas de ses améliorations et ne viole pas le droit humanitaire.

Armes à énergie dirigée. Le rapport de l’armée prévoit qu’une variété d’armes à énergie dirigée sera utilisé d’ici 2050. Il n’entre pas dans les détails, mais cette catégorie pourrait inclure des lasers aveuglants, des radiations électromagnétiques et des stimulations magnétiques, autant de technologies à portée de main. Aucune n’est conçue pour être mortelle. Les lasers aveuglants émettent des impulsions d’énergie dirigée pour aveugler et neutraliser les combattants de façon permanente ou temporaire. Le droit international interdit désormais les lasers qui rendent aveugle de façon permanente, mais le laser éblouisseurs « dazzlers » ne provoquent qu’une cécité temporaire et permettraient aux troupes de désarmer et d’arrêter les assaillants. Une autre arme à énergie dirigée de l’armée américaine est l’Active Denial System, ou ADS, qui émet un faisceau d’onde électromagnétique d’une fréquence de 95 gigahertz qui pénètre la peau pour créer une sensation de brûlure intense, sans endommager les tissus. (note : une impulsion de 2 secondes porterait la peau jusqu’à une température d’environ 55 °C, causant une intense sensation de brûlure très douloureuse. Il faudrait une exposition au faisceau de 250 secondes pour brûler la peau). Les lasers aveuglants et les armes de type ADS pourraient être particulièrement utiles sur les champs de bataille où les armées sont confrontées à des populations mixtes de civils et de guérilleros ou de terroristes qui ne portent pas d’uniformes. En utilisant l’une ou l’autre de ces technologies, les soldats pourraient neutraliser les combattants et les non-combattants, puis arrêter et de détenir les premiers tout en libérant les seconds indemnes.

LIRE AUSSI 🔖  L’armée russe veut créer des exosquelettes militaires dirigés par le cerveau en 5 ans

Stimulation magnétique transcrânienne (TMS) pourrait également être utile pour cibler les foules indifférenciées, mais plutôt que de neutraliser les gens, elle dirigerait un champ magnétique intense pour manipuler l’activité cérébrale. Actuellement à l’étude comme traitement pour la dépression, la TMS pourrait, par exemple, être en mesure de modifier l’humeur d’une personne pour transformer l’hostilité et la haine en confiance et en coopération. Les dispositifs existants sont petits et nécessitent qu’un opérateur passe une bobine directement sur la tête d’une personne, mais les applications futures pourraient permettre un fonctionnement à longue distance. Ainsi armée, une force militaire pourrait modifier de manière indolore et non létale l’état d’esprit et le comportement d’un ennemi pour l’emporter au combat.

À première vue, ces technologies suscitent la révulsion. Mais quel est exactement le problème? Tout d’abord, en violation de son rôle traditionnel, la science médicale développe des armes qui infligent de la douleur. Il peut s’agir d’une douleur passagère, mais elle implique néanmoins une souffrance. Deuxièmement, les armes médicalisées minent le corps humain d’une manière particulièrement insidieuse. La plupart des armes tuent ou blessent en infligeant un traumatisme contondant ou une perte de sang, mais les lasers aveuglants, l’Active Denial System, et la stimulation transmagnétique (TMS) manipulent des systèmes physiologiques spécifiques plutôt plutôt que de simplement traumatiser le corps humain. Ces armes font craindre des blessures qui défient les soins médicaux et sont des technologies qui pourraient un jour modifier l’être humain au-delà de toute reconnaissance. Les caractéristiques particulières de certaines armes modernes ont conduit le Comité international de la Croix-Rouge à recommander une interdiction des armes spécifiquement conçues pour tuer ou blesser pour provoquer une maladie ou un état physiologique anormal spécifique, comme la cécité ou les brûlures. Il y a de bonnes raisons de faire preuve d’une extrême prudence à mesure que nous avançons avec des armes qui envahissent le corps directement.

La stimulation magnétique transcrânienne offre des raisons particulièrement convaincantes de s’inquiéter. Dirigée vers le cerveau, elle perturbe les processus cognitifs et modifie temporairement les caractéristiques humaines essentielles. Est-ce là l’orientation que devrait prendre la technologie militaire ? Outre la médicalisation de la guerre, les interventions neurologiques présentent un risque de déshumanisation et d’atteinte à la « liberté cognitive », – c’est-à-dire le droit de penser par soi-même, sans contraintes extérieures ni contrôle mental. Étroitement liée au droit à la vie privée, la liberté cognitive devrait interdire aux autres d’envahir l’espace mental personnel d’une personne pour en perturber les processus ou en révéler le contenu.

La question de savoir si le droit de l’ennemi à la liberté cognitive est inviolable ou soumis aux impératifs de la nécessité militaire reste ouverte. Si l’on s’appuie sur le fait que les privations de liberté physique (comme l’incarcération) doivent faire l’objet d’une procédure régulière, on peut soutenir de manière convaincante que les privations de liberté cognitive, si tant est qu’elles soient autorisées, doivent être beaucoup plus strictes. Faire la guerre n’autorise pas tout recours à la force. C’est un axiome fondamental du droit humanitaire international. Bien que non létales, les armes qui altèrent les états d’esprit peuvent dépasser les bornes. À tout le moins, elles exigent que les autorités militaires et politiques surveillent de près leur utilisation et leurs effets encore inconnus.

Robots tueurs autonomes. Le rapport de l’armée américaine indique que «les robots déployés seraient capables de fonctionner dans une variété de modes de « contrôle » de l’autonomie totale à la gestion active par l’homme. » Considérons le mode «autonomie totale». Lâchés sur le champ de bataille, les robots tueurs (ceux qui sont armés d’armes mortelles) pourraient agir individuellement ou collectivement. Programmés pour une mission, ils seraient capables de dégrader ou de mettre hors d’état de nuire les forces ennemies en utilisant des tactiques conformes au droit des conflits armés et au droit humanitaire international.

Au minimum, les robots tueurs doivent comprendre et appliquer la loi lorsqu’ils accomplissent leur mission. Est-il possible de les programmer simplement pour qu’ils le fassent ? Le droit des conflits armés a une composante éthique très importante.

Depuis le 19ème siècle, les juristes internationaux ont compris qu’aucune loi ne peut couvrir toutes les situations possibles. Il reste donc deux raisonnements par défaut pour la prise de décision : la nécessité militaire ou une norme de conduite plus élevée. Un officier qui ne dispose pas de directives claires doit-il se contenter d’accomplir sa mission ou s’en remettre à des principes moraux ? La réponse est aussi claire aujourd’hui qu’elle l’était en 1899, lorsque les délégués à la Convention de La Haye sur le droit et les coutumes de la guerre ont déclaré :

« les Hautes Parties Contractantes croient devoir déclarer que dans les cas non compris dans les Règlements adoptés par elles, les populations et les belligérants restent sous la protection et l’empire des principes du droit international, tels qu’ils résultent des usages établis entre nations civilisées, des lois de l’humanité et les exigences de la conscience publique ».

Il est donc beaucoup plus difficile de programmer un robot tueur pour qu’il se comporte de manière juste que de télécharger le corpus du droit international. Il faut lui inculquer un sens de la justice. Est-ce possible ? Une solution pourrait consister à établir des règles empiriques et un certain élément de contrôle, mais ni l’une ni l’autre ne sera facile à mettre en œuvre. Par exemple, la règle de la proportionnalité exige qu’un officier de terrain mette en balance l’avantage militaire de l’attaque d’une cible militaire et le préjudice qui en résultera pour les civils ennemis. C’est une décision extrêmement difficile parce que les éléments de l’équation – l’avantage militaire et le préjudice civil – sont incommensurables. Les décès et les blessures mesurent le préjudice civil, mais qu’est-ce qui mesure l’avantage militaire ? Les vies des compatriotes sauvées, les ressources de l’ennemi dégradées, la crédibilité de la dissuasion restaurée, ou une combinaison de ces facteurs ? Les commandants humains ont suffisamment de difficultés avec ce type de décision. Les robots tueurs peuvent-ils mieux gérer les choses ?

LIRE AUSSI 🔖  Hitachi : une IA capable de prédire les crimes avant qu’ils se produisent

Même s’ils le pouvaient, il y aurait toujours des sensibilités politiques à prendre en compte. Par exemple, qui est considéré comme un « civil » ? Après la guerre de Gaza de 2008-2009 entre Israël et les forces palestiniennes, chaque partie a reconnu qu’environ 1 200 Palestiniens avaient perdu la vie. Mais Israël a affirmé que 75 % d’entre eux étaient des combattants, tandis que les Palestiniens ont affirmé que 75 % étaient des civils. La différence portait sur le statut controversé des policiers et des personnes travaillant pour l’aile politique de l’organisation Hamas. Que doit faire un robot tueur ? Techniquement, il est possible de télécharger des photos de personnes appartenant à l’aile politique du Hamas et aux forces de police de Gaza. Mais lorsque des soldats ordinaires reçoivent de telles photos (souvent sous la forme d’un jeu de cartes), on attend d’eux qu’ils fassent preuve de discrétion lorsqu’ils envisagent d’arrêter, de tuer ou même d’ignorer un suspect. Attendre des robots tueurs qu’ils fassent de même ne semble ni faisable ni souhaitable. Les « lois de l’humanité » relèvent des humains, pas des robots. Tout comme nous pouvons arrêter et juger les soldats qui violent la loi et la morale, il doit être possible d’arrêter et de juger les superviseurs humains des robots qui font de même. L’autonomie complète des robots est loin d’être idéale. La responsabilité de la conduite de la guerre doit finalement incomber aux êtres humains.

Ce que la technologie ne peut pas résoudre. L’augmentation humaine, les armes à énergie dirigée et les robots tueurs sont tous développés dans le but de sauver la vie des combattants et des non-combattants. La réussite de cet objectif dépendra de la manière dont les opérateurs civils et militaires sauront naviguer entre plusieurs écueils.

Premièrement, les dirigeants doivent se méfier de la pente glissante. L’augmentation des soldats peut conduire à l’augmentation des policiers ou à affaiblir (de-enhancing) des criminels. De même, les opérateurs peuvent utiliser des armes à énergie dirigée pour torturer leurs cibles au lieu de les neutraliser. L’une ou l’autre de ces technologies pourrait finir par porter atteinte aux libertés civiles.

Deuxièmement, les opérateurs et les concepteurs d’armes doivent être conscients des pièges de la multiplication des forces. Cela est particulièrement vrai dans les guerres asymétriques. Les armes conçues pour atténuer les blessures et les pertes de vie peuvent également intensifier les dommages. Comment un État armé de soldats augmentés, d’armes à énergie dirigée et de robots tueurs combattrait-il les insurgés ? Utiliserait-il son arsenal pour neutraliser, soumettre et arrêter les guérilleros, ou se contenterait-il de tuer les militants handicapés ? C’est ce qu’ont fait les forces de sécurité russes en 2002, en utilisant un gaz calmant pour d’abord neutraliser puis tuer les militants tchétchènes qui avaient pris le contrôle d’un théâtre de Moscou.

Alors que nous cherchons des réponses à ces questions, nous devons rester prudents et ne pas accorder trop de poids à la technologie. Les conflits armés contemporains démontrent amplement comment des guérillas, des insurgés et des terroristes relativement faibles trouvent de nouveaux moyens de surmonter les technologies avancées grâce à des tactiques relativement peu sophistiquées telles que les attentats suicides, les engins explosifs improvisés, les boucliers humains, les prises d’otages et la propagande. Il ne fait guère de doute que ces tactiques s’imposent parce que de nombreuses armées d’État s’efforcent de respecter les « lois de l’humanité et les exigences de la conscience publique » et, en tant que démocraties, choisissent souvent de se battre avec une main attachée dans le dos. Les technologies émergentes qui accompagneront les guerres futures ne font qu’accentuer ce dilemme, en particulier lorsque la guerre asymétrique s’intensifie et que certains se demandent inévitablement si les robots tueurs dépourvus de sens de la justice ne seraient pas une si mauvaise chose après tout.


Michael L. Gross est professeur à l’Université de Haïfa en Israël, où il est également à la tête de l’École des sciences politiques. Il est l’auteur de la bioéthique et les conflits armés (2006), dilemmes moraux de la guerre moderne (2010), et L’éthique de l’Insurrection (2015).

Source : Bulletin of the Atomic Scientists 17/12/2015

En savoir plus sur Intelligence Artificielle et Transhumanisme

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Continue reading