Robots tueurs. Que seront les soldats de demain ?
Dernière mise à jour le 07/02/2019
« Robots tueurs », le terme est à la mode mais il fausse d’emblée toute réflexion sur le sujet. Car ce seront des robots soldats qui combattront peut-être dans le futur, non des exterminateurs de la race humaine. Or, qui dit soldat dit faiblesses et vertus au combat. Pour que ces machines soient moralement acceptables, il faut donc qu’elles puissent agir au moins aussi bien qu’un soldat humain, qu’elles puissent « raisonner » d’elles-mêmes sur le plan moral. En d’autres termes, ces robots doivent être dotés d’une éthique artificielle.
Les robots soldats, ces machines pleinement autonomes qui seront employées sur le champ de bataille, sortiront bientôt des industries d’armement. Ces robots peuvent-ils être la promesse de guerres plus propres ou au contraire dénuées de toute humanité ? Alors que les débats portent sur l’éventuel bannissement de cette technologie et sur la moralité de son emploi, le livre définit ce qui serait nécessaire à une telle machine pour qu’elle soit “acceptable” sur le champ de bataille.
Quelles seraient les conséquences sociologiques et tactiques de sa présence en zone de guerre ? L’analyse de la psychologie humaine au combat, ce que les hommes font mal et ce qu’ils font bien, permet de définir les formes que prendrait l’intelligence artificielle du robot, le rendant apte à prendre les bonnes décisions dans le feu de l’action.
Quels sont alors les objectifs d’une “éthique artificielle” qu’il faut réussir à programmer ? En décrivant le processus décisionnel de l’homme au combat lorsqu’il est amené à ouvrir le feu, le livre propose, à partir des techniques de programmation actuelles de la morale, un modèle d’éthique artificielle qui rendrait le robot moralement autonome.
Brice Erbland analyse la psychologie humaine au combat afin de mieux proposer ce que pourrait être la programmation d’une éthique artificielle pour les futurs robots de combat. Une approche originale qui n’est ni celle d’un philosophe, ni celle d’un roboticien, mais celle d’un soldat.
Table des matières
Conséquences de l’emploi de robots
Rupture sociologique de la guerre
Biais stratégique et conséquences tactiques
Émotions vs algorithmes
Faiblesses humaines au combat
Vertus humaines au combat
Objectifs d’une éthique artificielle
Programmation d’une éthique artificielle
Le processus décisionnel humain
Proposition d’architecture d’un module d’éthique artificielle
Quel test pour valider cette éthique ?
Que nous apprend la littérature ?