Une lentille cornéenne intelligente pourrait donner aux soldats des super-pouvoirs

L’homme augmenté – Le soldat augmenté

Est-ce la lentille de contact intelligente que DARPA recherche depuis au moins une décennie ?

L’école d’ingénieurs IMT Atlantique a dévoilé ce qu’elle appelle “la première lentille de contact autonome avec une micro batterie flexible” au début du mois.

Et, notamment, elle a attiré l’attention de l’armée américaine : la DARPA serait intéressée par la lentille de contact pour augmenter les capacités visuelles des troupes sur le terrain, selon Task and Purpose – ce qui signifie que l’oculomètre embarqué pourrait représenter la lentille de contact renforcée que la DARPA a cherché pendant une décennie.

Le plus grand défi que les ingénieurs d’IMT Atlantique ont eu à relever a été de réduire la taille de la batterie. Mais grâce à une micro-pile flexible nouvellement développée, ils ont trouvé un moyen d’alimenter en continu une source lumineuse LED (une diode électroluminescente) pendant “plusieurs heures”, selon le communiqué de presse.

Le communiqué suggère également que “l’électronique flexible à base de graphène” pourrait encore améliorer les capacités des lentilles de contact intelligentes. Les applications pourraient aller de l’assistance aux chirurgiens en salle d’opération à l’aide aux conducteurs sur la route.

“Cette première réalisation s’inscrit dans le cadre d’un projet plus vaste et très ambitieux qui vise la création d’une nouvelle génération d’oculomètre liés à l’émergence des casques de réalité augmentée qui ont suscité de nouveaux usages (interface homme-machine, analyse de la charge cognitive etc.), ouvrant des marchés colossaux, tout en imposant de nouvelles contraintes de précision et d’intégration” a déclaré Jean-Louis Bougrenet de la Tocnaye, directeur du département d’optique de l’IMT Atlantique.

Et maintenant, les militaires veulent aussi participer au projet. Le magazine économique français L’Usine Nouvelle écrit que la DARPA s’intéresse à cette technologie. Même le géant de la technologie Microsoft est prêt à investir deux millions d’euros, selon le magazine – ce qui est remarquable, compte tenu du récent contrat HoloLens de l’entreprise technologique avec l’armée américaine.

“Nous sommes à l’aube d’une révolution dont peu de gens ont conscience. Le smartphone, qui représente aujourd’hui le summum de la mobilité et de la connectivité, va disparaître. Dans quelques années, il sera remplacé par des casques de réalité virtuelle et augmentée liés à des implants connectés. C’est sur ce coup d’après que tous les Gafam se positionnent aujourd’hui”, affirme Jean-Louis de Bougrenet de la Tocnaye.

“Tous les éléments sont prêts. Nous devrions l’intégrer en octobre 2019 et espérons démarrer les tests en 2020. Ensuite nous pourrons passer aux tests cliniques de qualification.”

The National Interest

Démonstration du prototype militaire HoloLens 2 de Microsoft

Il y a quelques mois, Microsoft avait remporté un contrat de 480 millions de dollars pour fournir plus de 100 000 casques de réalité augmentée HoloLens à l’armée américaine.

CNBC a pu voir ce que Microsoft a préparé sous la forme d’un HoloLens 2 modifié et, bien qu’il semble qu’il s’agisse davantage d’une démo haut de gamme que d’une démonstration raffinée, il semble que les militaires obtiennent ce qu’ils veulent, ce que craignaient les employés de Microsoft qui avaient signé une lettre en février 2019 contre le projet.

Vers une “augmentation morale” du soldat ?   

Les technologies de l’augmentation et sa créature le très fantasmé “super-soldat” vont, dans les années à venir, affecter l’art de la guerre, l’ethos militaire, l’habitus du soldat, l’esprit de corps et la société dans son ensemble (1). En 2017, Vladimir Poutine annonçait l’avènement prochain du soldat génétiquement modifié, un homme qui selon lui “pourra se battre sans peur, compassion, regret ou douleur” (2). Difficile à délimiter, objet de nombreuses discussions, l’augmentation est envisagée ici, de manière restrictive, comme une intervention invasive ayant pour objectif d’améliorer les capacités et performances de l’humain au-delà des standards. Une intervention qui sous-tend un questionnement éthique, juridique et doctrinal. Dans cette perspective, le philosophe canadien Ryan Tonkens envisage, d’ores et déjà, d'”augmenter moralement” des soldats préalablement augmentés physiquement ou cognitivement, afin de tempérer ce nouveau potentiel (3).

Unfit for the future

Cette idée s’inspire des travaux de deux chercheurs de l’Université d’Oxford, Ingmar Persson et Julian Savulescu, qui ont publié en 2012 un ouvrage qui a suscité un grand débat dans le monde anglo-saxon : Unfit for the future. The need for moral enhancement (4). Sans faire explicitement référence aux militaires, les deux auteurs préconisent de contrebalancer notre puissance technoscientifique et biomédicale, et donc cognitive, grandissante par une augmentation morale afin de réduire ce qu’ils appellent la “nuisance ultime” qui risque d’anéantir notre monde (5). Partant du postulat que la morale a une base biologique (6), ils suggèrent l’usage accru de la psychopharmacologie, dont les effets secondaires de certains produits favoriseraient déjà une “conduite morale” comme les anti-libidinaux qui réduisent les pulsions sexuelles anormales en inhibant la testostérone, le disulfirame qui modère l’appétence à l’alcool et ses effets associés, ou encore le propranolol, un bêta-bloquant qui aurait un impact sur les biais racistes implicites, inconscients (7). D’autres substances sont aussi candidates comme l’ocytocine (OT), une hormone qui favoriserait la confiance et la coopération. Il va sans dire que, loin de faire l’unanimité, cette approche est critiquée (8).

Maintenir l’humain sur le théâtre d’opération

Si Ryan Tonkens adhère aux idées de Ronald C. Arkin, un roboticien américain qui considère que les machines pourraient agir plus éthiquement que les humains sur un théâtre d’opération (9), il s’en démarque en lui reprochant de passer trop rapidement d’une évaluation morale négative du combattant à l’usage de la machine, sans essayer de trouver un moyen d’optimiser “moralement” ce dernier. Pour Ryan Tonkens, l'”entraînement éthique” qui a prévalu jusqu’alors aux États-Unis et au Canada (mais aussi en France), ne suffit plus dans la guerre moderne. La pédagogie doit, selon lui, être complétée par l’augmentation morale pour faire ainsi face au péril de l’augmentation cognitive. Pragmatique, il conclut que l’augmentation morale ne doit pas rendre vulnérable. Interprétée dans le contexte, elle doit être réaliste et tenir compte de l’ennemi (10).

Notes
(1) Jean-François Caron, Théorie du super soldat. La moralité des technologies d’augmentation dans l’armée, Québec, PUL, 2018.
(2) Oli Smith, “‘Worse than nuclear bombs!’ Putin reveals terrifying sci-fi weapon amid world war fears”, Express, Home of the Daily and Sunday Express, 23 octobre 2017.
(3) Ryan Tonkens, “Morally enhanced soldiers: beyond military necessity”, in Jai C. Galliott et Mianna Lotz (ed), Super soldiers. The ethical, legal and social implications, Farnham, Ashgate, 2015, p. 53-61.
(4) Ingmar Persson et Julian Savulescu, Unfit for the future. The need for moral enhancement, Oxford, OUP, 2012.
(5) Ryan Tonkens, “Morally enhanced soldiers: beyond military necessity”, op. cit., p. 55.
(6) Ingmar Persson et Julian Savulescu, Unfit for the future. The need for moral enhancement, op. cit., p. 109
(7) Terbeck, S., Kahane, G., McTavish, S. et al. “Propranolol reduces implicit negative racial bias”, Psychopharmacology, 222: 419, 2012.
(8) Veljko Dubljevic, “‘Moral enhancement’ is science fiction, not science fact”, Scientific American, 30 mai 2017.
(9) Ronald C. Arkin, “The case for ethical autonomy in unmanned systems”, Journal of military ethics, Vol. 9, no 4, 2010.
(10) Ryan Tonkens, op. cit., p. 57.

Les employés de Microsoft appellent à la fin du projet militaire de réalité augmentée

Plus de 100 employés de Microsoft ont signé une lettre appelant les dirigeants, Satya Nadella et Brad Smith, à annuler le contrat de l’entreprise pour le développement de sa technologie de casque de réalité augmentée HoloLens pour l’armée américaine.

Les employés de Microsoft écrivent : “Bien que l’entreprise ait déjà octroyé une licence de technologie à l’armée américaine, elle n’a jamais franchi le pas en matière de développement d’armes. Avec ce contrat, elle le fait.”

Cette lettre a été publiée peu de temps avant que Microsoft ne dévoile son casque amélioré HoloLens 2 au salon de MWC de Barcelone.

TechCrunch

Les soldats américains porteront les casques de réalité augmentée HoloLens Microsoft au combat

Des soldats américains avec des drones de reconnaissance de poche

Drones de reconnaissance

L’armée américaine a passé une commande de 39 millions de dollars pour de minuscules drones de reconnaissance, suffisamment petits pour tenir dans la poche ou la paume d’un soldat.

L’idée derrière les drones, fabriqués par FLIR Systems et ressemblant à de minuscules hélicoptères, est que les soldats pourront les envoyer dans le ciel du champ de bataille afin d’obtenir un “avantage mortel” pendant les combats, selon Business Insider.

Champ de bataille

FLIR Systems livre actuellement ses “véhicules aériens nano-sans équipage” – nano-unmanned aerial vehicles UAVs – , qu’il appelle “Black Hornet Personal Reconnaissance Systems” d’après un communiqué de presse selon lequel l’Armée de terre entame une “première intégration” des drones.

“Ce contrat représente une étape importante avec le déploiement opérationnel à grande échelle des nano-UAVs dans la plus puissante armée du monde”, a déclaré Jim Cannon, PDG de FLIR Systems, dans le communiqué de presse.

Black Hornet Flir

[su_document url=”https://iatranshumanisme.com/wp-content/uploads/2019/02/black-hornet-prs-brochure-web.pdf” width=”640″]

Robots tueurs. Que seront les soldats de demain ?

« Robots tueurs », le terme est à la mode mais il fausse d’emblée toute réflexion sur le sujet. Car ce seront des robots soldats qui combattront peut-être dans le futur, non des exterminateurs de la race humaine. Or, qui dit soldat dit faiblesses et vertus au combat. Pour que ces machines soient moralement acceptables, il faut donc qu’elles puissent agir au moins aussi bien qu’un soldat humain, qu’elles puissent « raisonner » d’elles-mêmes sur le plan moral. En d’autres termes, ces robots doivent être dotés d’une éthique artificielle.

Les robots soldats, ces machines pleinement autonomes qui seront employées sur le champ de bataille, sortiront bientôt des industries d’armement. Ces robots peuvent-ils être la promesse de guerres plus propres ou au contraire dénuées de toute humanité ? Alors que les débats portent sur l’éventuel bannissement de cette technologie et sur la moralité de son emploi, le livre définit ce qui serait nécessaire à une telle machine pour qu’elle soit “acceptable” sur le champ de bataille.

Quelles seraient les conséquences sociologiques et tactiques de sa présence en zone de guerre ? L’analyse de la psychologie humaine au combat, ce que les hommes font mal et ce qu’ils font bien, permet de définir les formes que prendrait l’intelligence artificielle du robot, le rendant apte à prendre les bonnes décisions dans le feu de l’action.

Quels sont alors les objectifs d’une “éthique artificielle” qu’il faut réussir à programmer ? En décrivant le processus décisionnel de l’homme au combat lorsqu’il est amené à ouvrir le feu, le livre propose, à partir des techniques de programmation actuelles de la morale, un modèle d’éthique artificielle qui rendrait le robot moralement autonome.

Brice Erbland analyse la psychologie humaine au combat afin de mieux proposer ce que pourrait être la programmation d’une éthique artificielle pour les futurs robots de combat. Une approche originale qui n’est ni celle d’un philosophe, ni celle d’un roboticien, mais celle d’un soldat.

Table des matières

Conséquences de l’emploi de robots
Rupture sociologique de la guerre
Biais stratégique et conséquences tactiques
Émotions vs algorithmes
Faiblesses humaines au combat
Vertus humaines au combat
Objectifs d’une éthique artificielle
Programmation d’une éthique artificielle
Le processus décisionnel humain
Proposition d’architecture d’un module d’éthique artificielle
Quel test pour valider cette éthique ?
Que nous apprend la littérature ?

Théorie du super soldat

La moralité des technologies d’augmentation dans l’armée

Les technologies visant à augmenter les capacités physiques et psychologiques des soldats peuvent-elles affecter la moralité de la guerre ainsi que les fondements de nos sociétés modernes ?

Description

Les technologies visant à augmenter les capacités physiques et psychologiques des soldats ont toujours fait partie intégrante de l’histoire militaire. Toutefois, les recherches actuelles n’ont plus rien à voir avec les expériences du passé, à tel point qu’il est désormais possible de parler d’une révolution de la condition humaine qui mènera à plus ou moins brève échéance à une situation où les guerres du futur seront menées par des « super soldats ». Cette possibilité, qui est de plus en plus réelle et inévitable, mais qui demeure étonnamment négligée par les éthiciens, ouvre la porte à une série de questions fondamentales : ces technologies sont-elles moralement problématiques ? Si elles sont permises, en vertu de quels critères est-il possible de distinguer celles qui sont acceptables de celles qui ne devraient pas être tolérées ? Ces innovations vont-elles enfreindre les principes moraux de la « guerre juste » ? Quels devraient être les paramètres éthiques du développement de ces technologies ? Ce premier ouvrage en langue française sur le soldat augmenté cherche à répondre à ces questions.

Refusant d’adopter un point de vue manichéen sur cette question, Jean-François Caron explique que les nouvelles technologies d’augmentation entraînent un dilemme moral important. D’un côté, elles peuvent être interprétées comme une obligation morale de la part de l’armée à l’égard des soldats. De l’autre, elles peuvent également entraîner des violations des règles de la guerre. À la lumière de cette tension, l’auteur propose une vision nuancée des tenants et aboutissants de ces technologies militaires et suggère un cadre éthique original permettant de délimiter leur développement et leur utilisation.

Jean-François Caron est politicologue et spécialiste de philosophie politique. Il a enseigné à l’Université Laval, à l’Université du Québec à Chicoutimi, à l’Institut d’études européennes de l’Université libre de Bruxelles et a été professeur adjoint à l’Université de Moncton. Il est professeur agrégé et directeur du département de science politique et des relations internationales de l’Université Nazarbayev.

Extrait PDF

Éthique sur le champ de bataille dans un futur proche

Les soldats américains porteront les casques de réalité augmentée HoloLens Microsoft au combat

Microsoft a gagné un contrat de 480 millions de dollars pour fournir plus de 100 000 casques HoloLens à l’armée américaine, rapporte Bloomberg.

L’Armée envisage d’utiliser les casques pour les missions de combat et pour l’entraînement. La technologie sera considérablement adaptée pour intégrer la vision nocturne, la détection thermique, offrir une protection auditive, surveiller les commotions cérébrales et mesurer les signes vitaux tels que la respiration et la «disponibilité physique». La société de réalité augmentée Magic Leap a également soumissionné pour le contrat, selon Bloomberg.

HoloLens est déjà utilisé par les forces armées américaines et israéliennes pour l’entraînement, mais c’est la première fois qu’il est utilisé pour des combats réels. C’est un autre exemple de la manière dont la réalité augmentée est adoptée beaucoup plus avec enthousiasme par les organisations que par les consommateurs.

L’accord constitue une bonne nouvelle pour Microsoft, qui a dépassé Apple hier en tant que société la plus grande valeur au monde.

Cependant, il pourrait y avoir une résistance contre ce contrat … et il est tout aussi probable que cela vienne des employés de Microsoft eux-mêmes que des groupes externes. La solution ? Le mois dernier, Brad Smith, président de Microsoft, a annoncé que les membres du personnel mal à l’aise, seraient déplacés vers d’autres projets.

Magic Leap : la mystérieuse technologie de réalité mixte pourrait être prête dans les six mois

La menace des robots tueurs

L’intelligence artificielle connaît de nombreuses applications dans la sécurité et le domaine militaire. Sur le terrain, elle facilite les manœuvres et permet de sauver des vies en cas d’avaries. Elle accroît la performance des armées, en fournissant des alliés robots aux combattants. Selon certains experts, les armes létales automatiques (SALA) sont en train de créer la troisième révolution de la guerre, après la poudre à canon et l’arme nucléaire. On ne peut manquer de s’inquiéter du jour où seront opérationnelles des armées de robots capables de mener les hostilités de façon complètement autonome.

De nombreuses entreprises, dans le monde entier, mènent d’importantes recherches scientifiques dans le domaine de l’intelligence artificielle. Les résultats obtenus à ce jour sont excellents : l’intelligence artificielle a déjà appris à prédire le risque de développer un diabète au moyen d’une montre « intelligente » ou à distinguer, de par leur apparence, les nævus de certains types de cancers. Ce puissant outil, qui surpasse l’intelligence humaine par l’une de ses caractéristiques les plus importantes – la vitesse – intéresse également les militaires.

Grâce au développement des technologies informatiques, les systèmes de combat du futur deviendront plus autonomes que les systèmes actuels. D’une part, cette autonomisation constituera sans aucun doute une aide précieuse pour les combattants. D’autre part, elle apportera son lot de défis et de risques : course aux armements entre pays, absence de règles et de lois dans les zones de combat et irresponsabilité dans la prise de décisions. Aujourd’hui, de nombreux entrepreneurs, décideurs et scientifiques cherchent à interdire l’emploi de systèmes de combat autonomes, alors que les militaires assurent qu’au combat, la décision finale – tuer ou non – sera prise par un humain.

Nous voulons y croire mais, faut-il le rappeler, l’arme nucléaire – cette arme qui n’aurait jamais dû voir le jour et qui s’était heurtée, dès la phase embryonnaire de sa conception, à de nombreux opposants – a pourtant bel et bien été utilisée.

Les robots armés restent sous la responsabilité d’un humain

Un assistant virtuel

Comme dans toutes les autres sphères de l’activité humaine, l’intelligence artificielle peut grandement faciliter et accélérer le travail dans le domaine de la sécurité. Ainsi, des chercheurs de l’université de Grenade, en Espagne, développent actuellement un logiciel capable, à l’aide de réseaux neuronaux, de détecter presque instantanément et avec une très grande précision des armes légères – pistolets, mitraillettes, mitrailleuses – sur des images vidéo. Les systèmes de sécurité modernes comprennent un grand nombre de caméras de surveillance, dont les opérateurs ne peuvent tout simplement pas visionner chaque image. L’intelligence artificielle est donc très utile pour analyser ces images, détecter la présence d’armes et en informer les agents dans un temps record.

Par ailleurs, le Centre de renseignement géospatial de l’université du Missouri, aux États-Unis, a développé un système d’IA capable de localiser rapidement et avec précision des dispositifs de missiles antiaériens sur des images satellitaires et aériennes. Sa capacité de recherche est jusqu’à 85 fois plus rapide que celle des experts humains. Pour former le réseau neuronal qui sous-tend ce système, on a utilisé des photos représentant différents types de missiles antiaériens. Une fois le système entraîné, on l’a testé sur un jeu de photos : en seulement 42 minutes, il a trouvé 90 % des dispositifs de défense. Il a fallu à des experts 60 heures de travail pour résoudre le même problème, avec le même résultat.

Il existe également des applications plus complexes de l’intelligence artificielle. Le laboratoire de recherche de l’armée américaine, par exemple, développe un système informatique qui analyse la réaction humaine à une image donnée. Il sera utile aux analystes militaires, contraints de visionner et de systématiser des milliers de photos et des heures d’enregistrements vidéo.

Le principe du système est le suivant : l’intelligence artificielle suit de près les yeux et le visage de la personne et met en parallèle ses expressions faciales avec les images que cette personne regarde. Si une image attire l’attention de la personne (cela signifie que l’expression de son visage ou la direction de son regard change), le logiciel la déplace automatiquement dans un dossier thématique. Ainsi, lors des essais, on a montré à un soldat un ensemble d’images divisées en cinq catégories principales : bateaux, pandas, fruits rouges, papillons et lustres. On lui a demandé de ne compter que les images de la catégorie qui l’intéressait. Les images défilaient au rythme d’une par seconde. L’IA en a « conclu » que le combattant était intéressé par la catégorie des bateaux et a copié ces images dans un dossier distinct.

Sur le théâtre d’opérations

Mais l’intelligence artificielle peut aussi aider les militaires au combat. C’est ainsi qu’en Russie, on achève actuellement l’élaboration du chasseur de cinquième génération Su-57, qui pourra être mis en service d’ici à la fin de l’année. Le logiciel de l’ordinateur de bord de ce chasseur comporte des éléments d’IA. Ainsi, en vol, le chasseur analyse en permanence l’état de l’air, sa température, sa pression et de nombreux autres paramètres. Si le pilote essaye d’effectuer une manœuvre et si le système « estime » que cette action entraînera une chute, la commande du pilote sera ignorée. Lorsqu’un avion décroche en vrille, ce même système indique au pilote comment redresser le chasseur et en reprendre le contrôle.

Pendant ce temps, le Japon développe son propre chasseur de cinquième génération, dont le prototype, le X-2 Shinshin (« Âme » en japonais), a effectué son premier vol en avril 2016. Un vaste réseau de capteurs, qui analyseront l’état de chaque élément de l’avion et détermineront les dommages qu’il aura subis, permettra à celui-ci de « survivre ». Si, lors d’un combat, son aile ou son empennage est endommagé, son système de bord reconfigurera le contrôle de sorte que la maniabilité et la vitesse de l’avion restent pratiquement inchangées. L’ordinateur du chasseur japonais sera capable de prédire l’heure de la panne complète d’un élément endommagé, de sorte que le pilote pourra décider de poursuivre le combat ou de retourner à la base.

À ce titre, l’intelligence artificielle constitue une « aubaine » – si tant est que l’on puisse utiliser ce terme pour des armes et des systèmes de combat.

Un programme complexe capable de résoudre de manière optimale un problème particulier dix fois plus vite qu’un humain pourra non seulement faciliter le travail d’un avion de reconnaissance, d’un opérateur de drones ou d’un commandant de système de défense aérienne, mais aussi sauver des vies. Il pourra venir à la rescousse de personnes en détresse dans un sous-marin (extinction ponctuelle d’incendies dans les compartiments abandonnés par les humains), de pilotes d’avions ou de combattants de chars armés endommagés.

Les dirigeants des meilleures sociétés de robotique et d’IA appellent à l’interdiction des robots tueurs

Robots-tueurs

Sa rapidité d’analyse et sa capacité d’apprentissage rendent l’intelligence artificielle attrayante pour les systèmes de combat. Les militaires, bien qu’ils ne l’admettent toujours pas, sont probablement déjà tentés de créer des systèmes de combat capables de fonctionner sur le champ de bataille de manière entièrement autonome, c’est-à-dire étant aptes à identifier une cible, ouvrir le feu sur celle-ci, se déplacer et choisir les trajectoires optimales leur permettant de se mettre à l’abri.

Il y a quelques années, les autorités militaires des États-Unis, de Russie, d’Allemagne, de Chine et de plusieurs autres pays ont annoncé que la création de systèmes de combat entièrement autonomes n’était pas leur objectif. Dans le même temps, les militaires ont noté que de tels systèmes seront vraisemblablement créés.

L’an dernier, le département américain de la Défense a achevé d’élaborer la « Troisième stratégie de compensation » (Third Offset Strategy) et commencé à la mettre en œuvre. Ce document implique, entre autres, le développement actif d’innovations techniques et leur utilisation dans les travaux militaires futurs.

Le 1er septembre 2017, le président russe, Vladimir Poutine, a déclaré, lors d’une conférence publique prononcée dans une école de Yaroslavl : « L’IA représente l’avenir non seulement de la Russie, mais de toute l’humanité. Elle offre des possibilités colossales, accompagnées de menaces difficilement prévisibles aujourd’hui. Ceux qui prendront la tête dans ce domaine dirigeront le monde », a-t-il déclaré, avant d’ajouter qu’il est « fortement indésirable que quelqu’un obtienne un monopole. Donc, si nous sommes les leaders dans ce domaine, nous partagerons ces technologies avec le monde entier ». Peut-on en déduire pour autant que nous ne sommes pas au début d’une nouvelle ère de course aux armements ?

Sur Terre, un nombre croissant de zones sont protégées de manière fiable par des systèmes antiaériens et antimissiles, surveillées par des systèmes satellitaires et sans pilote, et patrouillées par des navires et des avions. Dans l’esprit des militaires, seuls les systèmes de combat dotés d’IA pourront, en cas de guerre, pénétrer ces zones fermées et y opérer avec une certaine liberté.

Il existe déjà aujourd’hui des systèmes de combat capables de détecter et de classer leurs cibles, et de commander le tir de missiles antiaériens, comme par exemple les systèmes de missiles sol-air S-400 en Russie. Le système américain d’information Aegis, qui contrôle l’armement des navires de guerre, fonctionne de la même façon. Le long de la zone démilitarisée, à la frontière avec la République populaire démocratique de Corée, la République de Corée a posté plusieurs robots militaires SGR-A1 chargés de la surveillance.

Éthique sur le champ de bataille dans un futur proche

L’ONU face aux SALA

Depuis mai 2014, l’ONU a engagé un débat international sur le développement des systèmes d’armes létales automatiques (SALA), dit « robots tueurs ». Les Hautes Parties contractantes à la Convention sur certaines armes classiques (CCAC) se sont dotées d’un nouveau mandat : « débattre des questions ayant trait aux technologies émergentes dans le domaine des SALA, à la lumière des objectifs et des buts de la Convention ».

Réuni pour la première fois en novembre 2017, un Groupe d’experts gouvernementaux (GEG), présidé par l’ambassadeur indien Amandeep Singh Gill, a été chargé d’examiner les technologies émergentes dans le domaine des SALA. L’une des orientations retenues dans le rapport de consensus de cette réunion est que la responsabilité pour le développement de tout système d’armement de conflit appartient aux États. « Les États doivent veiller à pouvoir rendre des comptes en cas d’actions mortelles appliquées par leurs forces dans un conflit armé », a déclaré l’ambassadeur Singh Gill, lors de la dernière réunion du GEG, à Genève (Suisse), le 9 avril 2018.

Izumi Nakamitsu, la Haute-Représentante pour les affaires de désarmement de l’ONU a remarqué, pour sa part, que ce nouveau type de technologies donne lieu à des méthodes et moyens de livrer la guerre « avec des conséquences incertaines, éventuellement indésirables » et a souligné la nécessité de « dégager un consensus sur un entendement commun quant aux limites possibles du degré d’autonomie dans l’utilisation de la force létale ».

En mode automatique, ils sont capables d’ouvrir le feu sur l’ennemi, sans toutefois tirer sur les gens aux mains levées. Aucun de ces systèmes n’est utilisé par les militaires en mode automatique.

Les derniers progrès accomplis dans le développement de l’intelligence artificielle permettent de créer des systèmes de combat capables de se déplacer. Ainsi, aux États-Unis, on développe actuellement des ailiers sans pilote, qui voleront derrière des chasseurs pilotés par des humains, et viseront, sur ordre, des cibles aériennes ou terrestres. Le système de conduite de tir de la future version du char russe T-14, développé sur la base de la plate-forme universelle à chenilles Armata, sera capable de détecter les cibles de manière autonome et de les bombarder jusqu’à destruction complète. En parallèle, la Russie travaille sur une famille de robots à chenilles qui pourront participer au combat avec des soldats humains.

Pour les armées, tous ces systèmes sont appelés à remplir plusieurs fonctions de base, et en premier lieu celle d’accroître l’efficacité de destruction des cibles ennemies et de préserver la vie de leurs propres soldats. Dans le même temps, il n’existe pas encore de normes internationales ni de documents juridiques qui réglementeraient l’utilisation de systèmes de combat dotés d’IA dans une guerre.

Ni les coutumes de la guerre, ni les Conventions de Genève ne décrivent les systèmes dotés d’IA qui peuvent être utilisés au combat et ceux qui ne le peuvent pas. Il n’existe pas non plus de législation internationale qui permettrait de déterminer les coupables de la défaillance d’un système autonome. Si un drone bombarde de manière autonome des civils, qui sera puni ? Son fabricant ? Le commandant de l’escadrille à laquelle il était affecté ? Le ministère de la Défense ? La chaîne de coupables potentiels est trop grande et, comme on le sait, lorsqu’il y a trop de coupables, personne n’est coupable.

En 2015, le Future of Life Institute a publié une lettre ouverte signée par plus de 16 000 personnes, alertant sur les menaces que ces systèmes de combat dotés d’IA font peser sur les civils, sur le risque d’une course aux armements et, au bout du compte, sur le danger d’une issue fatale pour l’humanité. Elle était signée, en particulier, par l’entrepreneur américain et fondateur de SpaceX et Tesla Elon Musk, l’astrophysicien britannique Stephen Hawking (1942-2018) et le philosophe américain Noam Chomsky. En août dernier, Elon Musk et une centaine de développeurs de systèmes de robotique et d’IA ont envoyé à l’ONU une pétition demandant l’interdiction totale du développement et des essais des armes offensives autonomes.

Ces experts estiment que la création d’armées de robots capables de mener de manière autonome des hostilités conduira inévitablement à l’émergence, chez leurs détenteurs, de sentiments de pouvoir absolu et d’impunité. En outre, lorsqu’un homme est en situation de conflit, il prend des décisions dans lesquelles interviennent, notamment, ses attitudes morales, sentiments et émotions. L’observation directe des souffrances d’autrui produit encore un effet dissuasif sur les soldats, même si, chez les militaires professionnels, la compassion et la sensibilité finissent par s’émousser. En cas d’introduction généralisée de systèmes de combat autonomes, dont les détachements ne pourront être conduits que du doigt sur l’écran d’une tablette depuis un autre continent, la guerre se transformera inévitablement en jeu, les victimes civiles et les soldats en chiffres sur l’écran.

Vasily Sychev (Fédération de Russie) Expert en armement et journaliste, écrit essentiellement pour les journaux La Gazette russe, Expert, Lenta.ru et Le Courrier de l’industrie militaire. Il dirige également les rubriques « Armement » et « Aviation » dans le journal web de vulgarisation scientifique N+1.

Le Courrier de l’UNESCO • juillet-septembre 2018