Skip to content

Les armes autonomes mortelles sont arrivées

Une nouvelle vidéo publiée par l’organisation à but non lucratif The Future of Life Institute (FLI) met en évidence les risques posés par les armes autonomes ou « robots tueurs » – et les mesures à prendre pour empêcher leur utilisation.

« Les armes autonomes mortelles sont arrivées. L’ère dans laquelle les algorithmes décident de qui vit et qui meurt est à nos portes. Nous devons agir maintenant pour interdire ces armes. » FLI.

Sa vidéo originale Slaughterbots, publiée en 2017, était un court métrage narratif de type Black Mirror montrant comment de petits quadcoptères équipés d’une intelligence artificielle et d’ogives explosives pouvaient devenir des armes de destruction massive. Initialement développés pour l’armée, les Slaughterbots finissent par être utilisés par des terroristes et des criminels.

Aujourd’hui, les technologies sont réunies et des drones autonomes létaux capables de localiser et d’attaquer des cibles sans supervision humaine ont déjà été utilisés en Libye.

LIRE AUSSI 🔖  La menace des robots tueurs

La nouvelle vidéo, intitulée Slaughterbots – if human : kill(), met les armes autonomes au diapason de l’actualité, en présentant des incidents fictifs basés sur les nouvelles technologies. On y voit une arme autonome dans une voiture garée qui tire sur des électeurs dans un bureau de vote, similaire à l’arme qui aurait été utilisée pour assassiner un scientifique nucléaire iranien l’année dernière. Nous assistons ensuite à un braquage de banque réalisé par des robots quadrupèdes armés de fusils d’assaut, comme le récent chien robot (non autonome) équipé d’un fusil de précision, à l’attaque d’un avion au sol par un drone semblable aux événements réels survenus en Arabie saoudite, et à l’attaque d’une boîte de nuit par des quadcoptères chargés d’explosifs, comme les versions développées par les Émirats arabes unis et présentées lors d’une récente foire aux armes.

LIRE AUSSI 🔖  Militarisation de l'intelligence artificielle

Dans la vidéo, des développeurs fictifs et des chefs militaires affirment qu’il s’agit d’une technologie purement militaire qui offre la perspective d’un changement de régime sans sacs mortuaires, et qu’il n’y a aucun risque qu’elle tombe entre de mauvaises mains. Il va sans dire que la question de savoir à quels États peut-on faire confiance en matière d’armes autonomes et comment empêcher qu’elles ne parviennent à des groupes militants reste sans réponse – ce qui conduit aux massacres décrits ci-dessus.

Selon le FLI, l’étape cruciale pour empêcher ce type de cauchemar est une mesure proposée par le Comité international de la Croix-Rouge (CICR). Celui-ci préconise une interdiction internationale, juridiquement contraignante, des armes autonomes qui utilisent l’intelligence artificielle pour identifier, sélectionner et tuer des personnes sans intervention humaine.

La Nouvelle-Zélande vient d’annoncer qu’elle fera pression en faveur d’une interdiction ; les États-Unis, la Russie et la Chine sont moins enclins à adopter une position ferme.

1 Comment »

  1. On peut faire des tas de conventions pour empêcher l’utilisation de tas d’arme: bombardiers, lance-roquette, fusil d’assaut, mines, etc…: Chaque époque a son arbalète.Le problème, c’est que s’interdire d’employer des armes efficaces, c’est donner un avantage à ceux qui ne respectent pas les conventions. Pour exemple, les gouvernements européens s’interdiraient le recours aux SALA, pourraient le payer chèrement en cas de conflit avec la Russie, la Turquie, Daech et autres technoguérillas. Quand on mène une guerre juste, la fin justifie les moyens.