Les dirigeants des meilleures sociétés de robotique et d’IA appellent à l’interdiction des robots tueurs
Les dirigeants des compagnies d‘intelligence artificielle et de robotique à travers le monde, y compris Elon Musk (Tesla, SpaceX, OpenAI), Demis Hassabis et Mustafa Suleyman (Google DeepMind), ont publié une lettre ouverte appelant les Nations Unies à interdire les armes autonomes, souvent appelées robots tueurs (systèmes d’armes létales autonomes – SALA*), alors que l’ONU retarde les négociations.
Les fondateurs et les PDG de près de 100 entreprises de 26 pays ont signé la lettre, qui met en garde :
« Les systèmes d’armes létales autonomes menacent de devenir la troisième révolution en matière de guerre. Une fois développées, elles permettront de mener des conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides à ce que les humains peuvent concevoir. »
En décembre 2016, 123 nations membres de l’ONU avaient accepté d’aller de l’avant avec des discussions officielles sur les armes autonomes, 19 membres demandant déjà une interdiction totale. Cependant, la prochaine étape des discussions, initialement prévue pour le 21 août 2017 – date de publication de la lettre ouverte – a été reportée au mois de novembre, d’après le magazine en ligne Fortune.
La lettre a été organisée et annoncée par Toby Walsh, un éminent chercheur en intelligence artificielle à l’Université de Nouvelle-Galles du Sud à Sydney (University of New South Wales ou UNSW), en Australie. Dans un courriel, il a noté que « malheureusement, l’ONU n’a pas commencé aujourd’hui ses délibérations formelles à propos des systèmes d’armes létales autonomes ».
« Il y a cependant une urgence réelle à prendre des mesures et d’empêcher une course aux armements très dangereuse », Walsh a ajouté : « Cette lettre ouverte témoigne d’une préoccupation claire et d’un solide soutien à l’industrie de la robotique et de l’intelligence artificielle. »
Cité dans le journal The Independent du Royaume-Uni, le professeur Walsh a expliqué, « Presque chaque technologie peut être utilisée à bon ou mauvais escient, et il en est de même pour l’intelligence artificielle. Elle peut aider à résoudre de nombreux problèmes urgents auxquels fait face la société aujourd’hui : l’inégalité et la pauvreté, les difficultés que présentent le changement climatique et la crise financière mondiale actuelle.
« Cependant, cette même technologie peut également être utilisée dans les armes autonomes afin d’industrialiser la guerre. Nous devons prendre des décisions aujourd’hui en choisissant lequel de ces avenirs nous souhaitons. »
La lettre ouverte comprend des signataires tels que :
• Elon Musk, fondateur de Tesla, SpaceX et OpenAI (USA)
• Demis Hassabis, fondateur et PDG de Google DeepMind (Royaume-Uni)
• Mustafa Suleyman, fondateur et responsable de l’Applied AI chez Google DeepMind (Royaume-Uni)
• Esben Østergaard, fondateur et CTO de Universal Robotics (Danemark)
• Jérôme Monceaux, fondateur d’Aldebaran Robotics, fabricant des robots Nao et Pepper (France)
• Jürgen Schmidhuber, expert en deep learning et fondateur de Nnaisense (Suisse)
• Yoshua Bengio, expert en deep learning et fondateur de Element AI (Canada)
En ce qui concerne les signataires, le communiqué de presse de la lettre a ajouté : « Leurs entreprises emploient des dizaines de milliers de chercheurs, de roboticiens et d’ingénieurs, valent des milliards de dollars et couvrent le globe du Nord au Sud, de l’Est à l’Ouest : l’Australie, le Canada, la Chine, la République tchèque, le Danemark, l’Estonie, la Finlande, la France, l’Allemagne, l‘Islande, l’Inde, l’Irlande, l’Italie, le Japon, le Mexique, les Pays-Bas, la Norvège, la Pologne, la Russie, Singapour, l’Afrique du Sud, l’Espagne, la Suisse, le Royaume-Uni, les Émirats arabes unis et les États-Unis. »
Bengio a expliqué pourquoi il a signé, en disant : « l’utilisation de l’IA dans les armes autonomes blesse mon sens de l’éthique ». Il a ajouté que le développement d’armes autonomes « conduirait probablement à une escalade très dangereuse » et que « cela nuirait au développement de bonnes applications d’intelligence artificielle ». Il a conclu sa déclaration en disant que « c’est une question qui doit être traitée par la communauté internationale, de même à ce qui a été fait dans le passé pour d’autres armes moralement répréhensible (biologiques, chimiques, nucléaires) ».
Stuart Russell, l’un des chercheurs les plus importants du monde en intelligence artificielle et fondateur de Bayesian Logic Inc., a ajouté :
« À moins que les gens ne souhaitent voir de nouvelles armes de destruction massive (ADM) – sous la forme de vastes essaims de micro-drones létaux – se répandant dans le monde entier, il est impératif d’intensifier et de soutenir les efforts des Nations Unies pour créer un traité interdisant les systèmes d’armes létales autonomes. Ceci est vital pour la sécurité nationale et internationale ».
Ryan Gariepy, fondateur et CTO de Clearpath Robotics a été le premier à signer la lettre. Pour le communiqué de presse, il a noté :
«Les systèmes d’armes autonomes sont à la pointe du développement en ce moment et ont un potentiel très réel pour causer des dommages importants aux personnes innocentes et une instabilité mondiale ».
La lettre ouverte se termine par des préoccupations similaires. Il est dit :
« Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes piratées pour se comporter de manière indésirable. Nous avons peu de temps pour agir. Une fois que cette boîte de Pandore sera ouverte, il sera difficile de la refermer. Nous implorons donc les hautes parties contractantes de trouver un moyen de nous protéger contre tous ces dangers ».
La lettre a été présentée à Melbourne, en Australie lors de la Conférence conjointe internationale sur l’intelligence artificielle (IJCAI), qui attire un nombre important des plus grands chercheurs du monde en matière d’intelligence artificielle. Il y a deux ans, lors de la dernière réunion de l’IJCAI, Walsh avait publié une autre lettre ouverte, qui appelait les pays à éviter de s’engager dans une course aux armes basées sur l’intelligence artificielle. Jusqu’à présent, cette lettre a été signée par plus de 20 000 personnes, dont plus de 3 100 chercheurs en intelligence artificielle/robotique.
The Independent, Fortune, University of New South Wales, UNSW, Future of Life Institute
* Julien Ancelin, « Les systèmes d’armes létaux autonomes (SALA) : Enjeux juridiques de l’émergence d’un moyen de combat déshumanisé », La Revue des droits de l’homme [En ligne], Actualités Droits-Libertés, mis en ligne le 25 octobre 2016, consulté le 02 septembre 2017. URL : http://revdh.revues.org/2543 ; DOI : 10.4000/revdh.2543
Systèmes d’armes létaux autonomes : Ministère de l’Europe et des Affaires étrangères. Mission permanente de la France auprès de la Conférence du désarmement à Genève
Enjeux et position de la France : « Les systèmes d’armes létaux autonomes (SALA) sont des armes potentiellement susceptibles d’identifier, d’engager et de neutraliser une cible sans intervention humaine. Bien que de tels systèmes n’existent pas, l’autonomie de ces systèmes d’armes serait susceptible de poser de nombreuses questions sur le plan moral, juridique ou encore opérationnel. C’est la raison pour laquelle un débat sur la manière d’appréhender ces armes, qui ne font pas encore partie de la réalité stratégique, est nécessaire. Il s’agit d’un débat d’ordre prospectif. Par ailleurs, l’autonomie, qui n’est pas synonyme d’automaticité, fait également naître de nombreux questionnements sur l’opportunité stratégique du développement et de l’utilisation de ces armes. Enfin, si les discussions sur la problématique des SALA ont lieu dans le cadre de la Convention de 1980 sur certaines armes classiques, il n’en existe pas, à ce jour, de définition communément agréée. Il s’agit de l’un des principaux enjeux actuels des débats sur les SALA. Les discussions sur les SALA au sein de la CCAC ont été lancées en 2013, sur initiative française. Compte-tenu de la nature prospective de ces systèmes et de la nécessité de s’accorder sur un périmètre commun de discussions, la France estime nécessaire de poursuivre les échanges au sein de la CCAC, si nécessaire dans le cadre d’un groupe d’experts gouvernementaux. La France a lors d’une intervention à Genève exposé les conditions suivantes pour qu’une arme soit identifiée comme un SALA : aucune forme de supervision humaine ne doit être possible, l’arme doit être mobile dans un espace terrestre, aérien ou marin de manière autonome, être capable de sélectionner une cible et de déclencher le tir d’une munition létale de manière autonome, être capable de s’adapter à son environnement et au comportement des agents qui l’entourent. »
2 Comments »