Skip to content

Robots tueurs. Que seront les soldats de demain ?

Robots tueurs« Robots tueurs », le terme est à la mode mais il fausse d’emblée toute réflexion sur le sujet. Car ce seront des robots soldats qui combattront peut-être dans le futur, non des exterminateurs de la race humaine. Or, qui dit soldat dit faiblesses et vertus au combat. Pour que ces machines soient moralement acceptables, il faut donc qu’elles puissent agir au moins aussi bien qu’un soldat humain, qu’elles puissent « raisonner » d’elles-mêmes sur le plan moral. En d’autres termes, ces robots doivent être dotés d’une éthique artificielle.

Les robots soldats, ces machines pleinement autonomes qui seront employées sur le champ de bataille, sortiront bientôt des industries d’armement. Ces robots peuvent-ils être la promesse de guerres plus propres ou au contraire dénuées de toute humanité ? Alors que les débats portent sur l’éventuel bannissement de cette technologie et sur la moralité de son emploi, le livre définit ce qui serait nécessaire à une telle machine pour qu’elle soit « acceptable » sur le champ de bataille.

Quelles seraient les conséquences sociologiques et tactiques de sa présence en zone de guerre ? L’analyse de la psychologie humaine au combat, ce que les hommes font mal et ce qu’ils font bien, permet de définir les formes que prendrait l’intelligence artificielle du robot, le rendant apte à prendre les bonnes décisions dans le feu de l’action.

Quels sont alors les objectifs d’une « éthique artificielle » qu’il faut réussir à programmer ? En décrivant le processus décisionnel de l’homme au combat lorsqu’il est amené à ouvrir le feu, le livre propose, à partir des techniques de programmation actuelles de la morale, un modèle d’éthique artificielle qui rendrait le robot moralement autonome.

Brice Erbland analyse la psychologie humaine au combat afin de mieux proposer ce que pourrait être la programmation d’une éthique artificielle pour les futurs robots de combat. Une approche originale qui n’est ni celle d’un philosophe, ni celle d’un roboticien, mais celle d’un soldat.

Table des matières

Conséquences de l’emploi de robots
Rupture sociologique de la guerre
Biais stratégique et conséquences tactiques
Émotions vs algorithmes
Faiblesses humaines au combat
Vertus humaines au combat
Objectifs d’une éthique artificielle
Programmation d’une éthique artificielle
Le processus décisionnel humain
Proposition d’architecture d’un module d’éthique artificielle
Quel test pour valider cette éthique ?
Que nous apprend la littérature ?

1 Comment »

  1. La théorie de Brice Erbland est axée sur la responsabilisation des humains (demande d’approbation) et la limitation de leurs possibles dérives (refus d’obéir aux ordres illégaux). Il n’est donc pas question de mettre les drones au standard éthique de certains personnages de Science-fiction, ce qui serait aussi ridicule qu’irréalisable dans l’état actuel des choses. En dépit de la complexité du sujet, le livre reste très accessible au grand public bien que les modélisations mathématiques s’adressent, sans surprise, à des professionnels de la programmation. Sur le sujet de la moralisation de l’usage des drones et de la robotique militaire, l’ouvrage se distingue donc des études antérieures, plutôt axée sur l’encadrement juridique du déploiement des engins et de l’attribution de la responsabilité pénale.

    Un des aspects le plus étonnant de cette théorie est le rejet de la morphologie humanoïde, afin de ne pas susciter des comportements gênants de la part des civils (hostilité accrue) et des militaires (empathie excessive). De ce point de vue, Erbland va à contre-courant de la volonté de produire des robots humanoïdes aptes à employer l’équipement destiné aux humains. Les deux points de vue se tiennent et il appartiendra aux théoriciens militaires d’établir une stratégie des moyens et d’emploi conciliant les deux impératifs. C’est là que l’on comprend que les drones et robots les plus déterminant dans les conflits futurs ne seront pas les plus perfectionnés mais ceux de celui qui aura compris comment les employer. Gageons que ceux-là n’emploieront pas les drones les plus perfectionnés.

    D’après les mentions des dernières pages, ce livre a été réalisé sur base des réflexions de l’association AEGES:C’est une plateforme indépendante et transdisciplinaire qui a pour objectif de contribuer à développer la recherche scientifique, faire reconnaître et promouvoir le champ des études sur la guerre et la stratégie dans le monde universitaire français. Elle cherche également à approfondir le lien entre le monde académique (notamment la nouvelle génération de chercheurs) et l’ensemble des acteurs civil.
    Cette association a contribué à la production d’une collection d’ouvrage diverses questions militaires:http://www.aeges.fr/collections/

    AEGES ne semble toutefois n’avoir aucun lien avec les éditions Economica dont la bibliothèque polémologique est aussi monumentale que renommée: https://www.economica.fr/livres-histoire-strategie-et-arts-militaires,fr,2,71.cfm

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.