Militarisation de l’intelligence artificielle

Le développement technologique est devenu une course de rat. Dans la compétition pour diriger la course à la technologie émergente et le champ de bataille de la guerre futuriste, l’intelligence artificielle devient rapidement le centre des jeux de pouvoir mondiaux. Comme on l’a vu dans de nombreux pays, le développement du système d’armes autonomes (AWS) progresse rapidement et cette augmentation de la militarisation de l’intelligence artificielle semble être devenue une évolution extrêmement déstabilisante. Il soulève des problèmes de sécurité complexes non seulement pour les décideurs de chaque pays, mais également pour l’avenir de l’humanité.

La réalité actuelle est que l’intelligence artificielle nous conduit vers un nouveau champ de bataille de guerre algorithmique sans frontières ni limites, avec ou sans implication humaine, et impossible à comprendre et peut-être à contrôler à travers l’écosystème humain dans le cyberespace, l’espace géospatial et l’espace (CGS).

En conséquence, l’idée même de la militarisation de l’intelligence artificielle, dans laquelle un système d’armes qui, une fois activé dans le CGS, peut sélectionner et engager des cibles humaines et non humaines sans intervention supplémentaire d’un concepteur ou d’un opérateur humain, suscite une grande crainte.

La pensée d’une machine intelligente ou l’intelligence de la machine pour pouvoir effectuer n’importe quelle tâche de guerre projetée sans aucune implication ni intervention humaine – en utilisant uniquement l’interaction de ses capteurs intégrés, de la programmation informatique et des algorithmes dans l’environnement humain et l’écosystème – est en train de devenir une réalité qui ne peut plus être ignorée.

La militarisation de l’intelligence artificielle

Alors que l’intelligence artificielle, le machine learning et le deep learning évoluent et passent de la conception à la commercialisation, l’accélération rapide de la puissance de calcul, de la mémoire, des données volumineuses et de la communication à haut débit crée non seulement une frénésie d’innovation, d’investissement et d’application, mais intensifie également la quête pour les puces d’intelligence artificielle. Ces progrès et développements rapides et continus signifient que l’intelligence artificielle est en passe de révolutionner la guerre et que les pays vont sans aucun doute continuer à développer le système d’armes automatisé que l’intelligence artificielle rendra possible.

Lorsque les pays, individuellement et collectivement, accélèrent leurs efforts pour obtenir un avantage concurrentiel dans le domaine de la science et de la technologie, l’intensification de la militarisation de l’intelligence artificielle est inévitable. En conséquence, il est nécessaire de visualiser à quoi ressemblerait une guerre algorithmique de demain, car la construction de systèmes d’armes autonomes est une chose mais leur utilisation dans une guerre algorithmique avec d’autres nations et contre d’autres humains en est une autre.

La menace des robots tueurs

Alors que l’on signale déjà des systèmes algorithmiques complexes prenant en charge de plus en plus d’aspects de la guerre dans les CGS, la vérité est que la standardisation de l’intelligence artificielle est devenue une réalité. Comme on le voit dans le cyberespace, la guerre automatisée (cyberguerre) a déjà commencé – où tout le monde est la cible. Alors, quelle est la prochaine, la guerre virtuelle et la guerre spatiale ? Et qui et quelle sera la cible ?

Le développement rapide de la militarisation de l’intelligence artificielle est évident à tous les niveaux : navigation et utilisation de véhicules navals, aériens et terrestres sans équipage, production d’estimations de dommages collatéraux, déploiement de systèmes de missiles «fire-and-forget» et en utilisant des systèmes fixes pour tout automatiser, de l’entretien des systèmes et des équipements du personnel au déploiement de drones de surveillance, de robots, etc., en sont tous des exemples. Ainsi, lorsque les algorithmes prennent en charge de plus en plus d’aspects de la guerre, cela nous amène à une question importante : quelles utilisations de l’intelligence artificielle dans la guerre d’aujourd’hui et de demain devraient être autorisées, restreintes et totalement interdites ?

On pense que les systèmes d’armes autonomes offrent la possibilité de réduire les coûts d’exploitation des systèmes d’armes – notamment grâce à une utilisation plus efficace de la main-d’œuvre – et permettront probablement aux systèmes d’armes d’accroître leur vitesse, leur précision, leur persistance, leur portée et leur coordination sur le champ de bataille du CGS. Cependant, la nécessité de comprendre et d’évaluer les problèmes technologiques, juridiques, économiques, sociaux et de sécurité demeure.

Rôle des programmeurs et de la programmation

Face à ces défis complexes en matière de sécurité et à la profusion d’inconnues qui nous attendent, le rôle des programmeurs et des programmes, ainsi que l’intégrité des puces semi-conductrices, reste fondamental pour la sécurité de l’humanité. La raison derrière cela est que les programmeurs peuvent définir et déterminer la nature du système d’armes autonome (du moins au début) jusqu’à ce que l’intelligence artificielle commence à se programmer.

Cependant, si et quand un programmeur programme intentionnellement ou accidentellement une arme autonome pour agir en violation du droit international humanitaire (DIH) actuel et futur, comment l’homme contrôlera-t-il la militarisation de l’intelligence artificielle ? De plus, étant donné que le système d’armes autonome est centré sur le logiciel, à qui incombe la responsabilité des erreurs et de la manipulation de la conception et de l’utilisation de systèmes d’armes autonomes ? Cela nous amène au cœur de la question – quand et si un système autonome tue, qui est responsable du meurtre, que cela soit justifié ou non ?

Robots tueurs. Que seront les soldats de demain ?

Défis de la cybersécurité

En bref, les algorithmes ne sont nullement sécurisés – ils ne sont pas non plus à l’abri des bugs, des logiciels malveillants, des biais et de la manipulation. Et, le machine learning utilisant des machines pour former d’autres machines, que se passe-t-il en cas de malware ou de manipulation de training data (données de formation) ?

Alors que les risques de sécurité sont omniprésents, les appareils connectés augmentent la capacité de violation de la cybersécurité à partir d’emplacements distants. En raison de l’opacité du code, la sécurité est très complexe. Ainsi, lorsque l’intelligence artificielle entrera en guerre avec une autre intelligence artificielle (qu’il s’agisse de la cybersécurité, de la géo-sécurité ou de la sécurité de l’espace), les défis actuels en matière de cybersécurité augmenteront les risques pour l’avenir de l’humanité et de l’écosystème humain dans la CGS.

Bien qu’il semble que les systèmes d’armes autonomes soient là pour rester, la question à laquelle nous devons tous individuellement et collectivement répondre est de savoir si l’intelligence artificielle dirigera et déterminera notre stratégie pour la survie et la sécurité humaines, ou allons-nous ?

Conscient de cette réalité émergente, Risk Group a lancé le débat sur les systèmes d’armes autonomes avec Markus Wagner, auteur et professeur de droit associé à l’Université de Wollongong, en Australie.

Disclosure: Risk Group LLC is my company

Et après ?

Alors que les pays, individuellement et collectivement, redoublent d’efforts pour acquérir un avantage concurrentiel dans le domaine de la science et de la technologie, la poursuite de la militarisation de l’intelligence artificielle est inévitable. En conséquence, la mise en place d’un système d’armes autonome modifierait le sens même d’être humain et modifierait sans ambiguïté les fondements mêmes de la sécurité et du futur de l’humanité et de la paix.

Il est important de comprendre et d’évaluer si la course aux armements autonome ne peut être empêchée, ce qui pourrait mal tourner. Il est temps de reconnaître que le simple fait que la technologie puisse permettre le développement réussi d’un système d’armes autonome ne signifie pas que nous devrions le faire. Il n’est peut-être pas dans l’intérêt de l’humanité de militariser l’intelligence artificielle. Il est temps de faire une pause.

Forbes

Robots tueurs. Que seront les soldats de demain ?

« Robots tueurs », le terme est à la mode mais il fausse d’emblée toute réflexion sur le sujet. Car ce seront des robots soldats qui combattront peut-être dans le futur, non des exterminateurs de la race humaine. Or, qui dit soldat dit faiblesses et vertus au combat. Pour que ces machines soient moralement acceptables, il faut donc qu’elles puissent agir au moins aussi bien qu’un soldat humain, qu’elles puissent « raisonner » d’elles-mêmes sur le plan moral. En d’autres termes, ces robots doivent être dotés d’une éthique artificielle.

Les robots soldats, ces machines pleinement autonomes qui seront employées sur le champ de bataille, sortiront bientôt des industries d’armement. Ces robots peuvent-ils être la promesse de guerres plus propres ou au contraire dénuées de toute humanité ? Alors que les débats portent sur l’éventuel bannissement de cette technologie et sur la moralité de son emploi, le livre définit ce qui serait nécessaire à une telle machine pour qu’elle soit “acceptable” sur le champ de bataille.

Quelles seraient les conséquences sociologiques et tactiques de sa présence en zone de guerre ? L’analyse de la psychologie humaine au combat, ce que les hommes font mal et ce qu’ils font bien, permet de définir les formes que prendrait l’intelligence artificielle du robot, le rendant apte à prendre les bonnes décisions dans le feu de l’action.

Quels sont alors les objectifs d’une “éthique artificielle” qu’il faut réussir à programmer ? En décrivant le processus décisionnel de l’homme au combat lorsqu’il est amené à ouvrir le feu, le livre propose, à partir des techniques de programmation actuelles de la morale, un modèle d’éthique artificielle qui rendrait le robot moralement autonome.

Brice Erbland analyse la psychologie humaine au combat afin de mieux proposer ce que pourrait être la programmation d’une éthique artificielle pour les futurs robots de combat. Une approche originale qui n’est ni celle d’un philosophe, ni celle d’un roboticien, mais celle d’un soldat.

Table des matières

Conséquences de l’emploi de robots
Rupture sociologique de la guerre
Biais stratégique et conséquences tactiques
Émotions vs algorithmes
Faiblesses humaines au combat
Vertus humaines au combat
Objectifs d’une éthique artificielle
Programmation d’une éthique artificielle
Le processus décisionnel humain
Proposition d’architecture d’un module d’éthique artificielle
Quel test pour valider cette éthique ?
Que nous apprend la littérature ?

La menace des robots tueurs

L’intelligence artificielle connaît de nombreuses applications dans la sécurité et le domaine militaire. Sur le terrain, elle facilite les manœuvres et permet de sauver des vies en cas d’avaries. Elle accroît la performance des armées, en fournissant des alliés robots aux combattants. Selon certains experts, les armes létales automatiques (SALA) sont en train de créer la troisième révolution de la guerre, après la poudre à canon et l’arme nucléaire. On ne peut manquer de s’inquiéter du jour où seront opérationnelles des armées de robots capables de mener les hostilités de façon complètement autonome.

De nombreuses entreprises, dans le monde entier, mènent d’importantes recherches scientifiques dans le domaine de l’intelligence artificielle. Les résultats obtenus à ce jour sont excellents : l’intelligence artificielle a déjà appris à prédire le risque de développer un diabète au moyen d’une montre « intelligente » ou à distinguer, de par leur apparence, les nævus de certains types de cancers. Ce puissant outil, qui surpasse l’intelligence humaine par l’une de ses caractéristiques les plus importantes – la vitesse – intéresse également les militaires.

Grâce au développement des technologies informatiques, les systèmes de combat du futur deviendront plus autonomes que les systèmes actuels. D’une part, cette autonomisation constituera sans aucun doute une aide précieuse pour les combattants. D’autre part, elle apportera son lot de défis et de risques : course aux armements entre pays, absence de règles et de lois dans les zones de combat et irresponsabilité dans la prise de décisions. Aujourd’hui, de nombreux entrepreneurs, décideurs et scientifiques cherchent à interdire l’emploi de systèmes de combat autonomes, alors que les militaires assurent qu’au combat, la décision finale – tuer ou non – sera prise par un humain.

Nous voulons y croire mais, faut-il le rappeler, l’arme nucléaire – cette arme qui n’aurait jamais dû voir le jour et qui s’était heurtée, dès la phase embryonnaire de sa conception, à de nombreux opposants – a pourtant bel et bien été utilisée.

Les robots armés restent sous la responsabilité d’un humain

Un assistant virtuel

Comme dans toutes les autres sphères de l’activité humaine, l’intelligence artificielle peut grandement faciliter et accélérer le travail dans le domaine de la sécurité. Ainsi, des chercheurs de l’université de Grenade, en Espagne, développent actuellement un logiciel capable, à l’aide de réseaux neuronaux, de détecter presque instantanément et avec une très grande précision des armes légères – pistolets, mitraillettes, mitrailleuses – sur des images vidéo. Les systèmes de sécurité modernes comprennent un grand nombre de caméras de surveillance, dont les opérateurs ne peuvent tout simplement pas visionner chaque image. L’intelligence artificielle est donc très utile pour analyser ces images, détecter la présence d’armes et en informer les agents dans un temps record.

Par ailleurs, le Centre de renseignement géospatial de l’université du Missouri, aux États-Unis, a développé un système d’IA capable de localiser rapidement et avec précision des dispositifs de missiles antiaériens sur des images satellitaires et aériennes. Sa capacité de recherche est jusqu’à 85 fois plus rapide que celle des experts humains. Pour former le réseau neuronal qui sous-tend ce système, on a utilisé des photos représentant différents types de missiles antiaériens. Une fois le système entraîné, on l’a testé sur un jeu de photos : en seulement 42 minutes, il a trouvé 90 % des dispositifs de défense. Il a fallu à des experts 60 heures de travail pour résoudre le même problème, avec le même résultat.

Il existe également des applications plus complexes de l’intelligence artificielle. Le laboratoire de recherche de l’armée américaine, par exemple, développe un système informatique qui analyse la réaction humaine à une image donnée. Il sera utile aux analystes militaires, contraints de visionner et de systématiser des milliers de photos et des heures d’enregistrements vidéo.

Le principe du système est le suivant : l’intelligence artificielle suit de près les yeux et le visage de la personne et met en parallèle ses expressions faciales avec les images que cette personne regarde. Si une image attire l’attention de la personne (cela signifie que l’expression de son visage ou la direction de son regard change), le logiciel la déplace automatiquement dans un dossier thématique. Ainsi, lors des essais, on a montré à un soldat un ensemble d’images divisées en cinq catégories principales : bateaux, pandas, fruits rouges, papillons et lustres. On lui a demandé de ne compter que les images de la catégorie qui l’intéressait. Les images défilaient au rythme d’une par seconde. L’IA en a « conclu » que le combattant était intéressé par la catégorie des bateaux et a copié ces images dans un dossier distinct.

Sur le théâtre d’opérations

Mais l’intelligence artificielle peut aussi aider les militaires au combat. C’est ainsi qu’en Russie, on achève actuellement l’élaboration du chasseur de cinquième génération Su-57, qui pourra être mis en service d’ici à la fin de l’année. Le logiciel de l’ordinateur de bord de ce chasseur comporte des éléments d’IA. Ainsi, en vol, le chasseur analyse en permanence l’état de l’air, sa température, sa pression et de nombreux autres paramètres. Si le pilote essaye d’effectuer une manœuvre et si le système « estime » que cette action entraînera une chute, la commande du pilote sera ignorée. Lorsqu’un avion décroche en vrille, ce même système indique au pilote comment redresser le chasseur et en reprendre le contrôle.

Pendant ce temps, le Japon développe son propre chasseur de cinquième génération, dont le prototype, le X-2 Shinshin (« Âme » en japonais), a effectué son premier vol en avril 2016. Un vaste réseau de capteurs, qui analyseront l’état de chaque élément de l’avion et détermineront les dommages qu’il aura subis, permettra à celui-ci de « survivre ». Si, lors d’un combat, son aile ou son empennage est endommagé, son système de bord reconfigurera le contrôle de sorte que la maniabilité et la vitesse de l’avion restent pratiquement inchangées. L’ordinateur du chasseur japonais sera capable de prédire l’heure de la panne complète d’un élément endommagé, de sorte que le pilote pourra décider de poursuivre le combat ou de retourner à la base.

À ce titre, l’intelligence artificielle constitue une « aubaine » – si tant est que l’on puisse utiliser ce terme pour des armes et des systèmes de combat.

Un programme complexe capable de résoudre de manière optimale un problème particulier dix fois plus vite qu’un humain pourra non seulement faciliter le travail d’un avion de reconnaissance, d’un opérateur de drones ou d’un commandant de système de défense aérienne, mais aussi sauver des vies. Il pourra venir à la rescousse de personnes en détresse dans un sous-marin (extinction ponctuelle d’incendies dans les compartiments abandonnés par les humains), de pilotes d’avions ou de combattants de chars armés endommagés.

Les dirigeants des meilleures sociétés de robotique et d’IA appellent à l’interdiction des robots tueurs

Robots-tueurs

Sa rapidité d’analyse et sa capacité d’apprentissage rendent l’intelligence artificielle attrayante pour les systèmes de combat. Les militaires, bien qu’ils ne l’admettent toujours pas, sont probablement déjà tentés de créer des systèmes de combat capables de fonctionner sur le champ de bataille de manière entièrement autonome, c’est-à-dire étant aptes à identifier une cible, ouvrir le feu sur celle-ci, se déplacer et choisir les trajectoires optimales leur permettant de se mettre à l’abri.

Il y a quelques années, les autorités militaires des États-Unis, de Russie, d’Allemagne, de Chine et de plusieurs autres pays ont annoncé que la création de systèmes de combat entièrement autonomes n’était pas leur objectif. Dans le même temps, les militaires ont noté que de tels systèmes seront vraisemblablement créés.

L’an dernier, le département américain de la Défense a achevé d’élaborer la « Troisième stratégie de compensation » (Third Offset Strategy) et commencé à la mettre en œuvre. Ce document implique, entre autres, le développement actif d’innovations techniques et leur utilisation dans les travaux militaires futurs.

Le 1er septembre 2017, le président russe, Vladimir Poutine, a déclaré, lors d’une conférence publique prononcée dans une école de Yaroslavl : « L’IA représente l’avenir non seulement de la Russie, mais de toute l’humanité. Elle offre des possibilités colossales, accompagnées de menaces difficilement prévisibles aujourd’hui. Ceux qui prendront la tête dans ce domaine dirigeront le monde », a-t-il déclaré, avant d’ajouter qu’il est « fortement indésirable que quelqu’un obtienne un monopole. Donc, si nous sommes les leaders dans ce domaine, nous partagerons ces technologies avec le monde entier ». Peut-on en déduire pour autant que nous ne sommes pas au début d’une nouvelle ère de course aux armements ?

Sur Terre, un nombre croissant de zones sont protégées de manière fiable par des systèmes antiaériens et antimissiles, surveillées par des systèmes satellitaires et sans pilote, et patrouillées par des navires et des avions. Dans l’esprit des militaires, seuls les systèmes de combat dotés d’IA pourront, en cas de guerre, pénétrer ces zones fermées et y opérer avec une certaine liberté.

Il existe déjà aujourd’hui des systèmes de combat capables de détecter et de classer leurs cibles, et de commander le tir de missiles antiaériens, comme par exemple les systèmes de missiles sol-air S-400 en Russie. Le système américain d’information Aegis, qui contrôle l’armement des navires de guerre, fonctionne de la même façon. Le long de la zone démilitarisée, à la frontière avec la République populaire démocratique de Corée, la République de Corée a posté plusieurs robots militaires SGR-A1 chargés de la surveillance.

Éthique sur le champ de bataille dans un futur proche

L’ONU face aux SALA

Depuis mai 2014, l’ONU a engagé un débat international sur le développement des systèmes d’armes létales automatiques (SALA), dit « robots tueurs ». Les Hautes Parties contractantes à la Convention sur certaines armes classiques (CCAC) se sont dotées d’un nouveau mandat : « débattre des questions ayant trait aux technologies émergentes dans le domaine des SALA, à la lumière des objectifs et des buts de la Convention ».

Réuni pour la première fois en novembre 2017, un Groupe d’experts gouvernementaux (GEG), présidé par l’ambassadeur indien Amandeep Singh Gill, a été chargé d’examiner les technologies émergentes dans le domaine des SALA. L’une des orientations retenues dans le rapport de consensus de cette réunion est que la responsabilité pour le développement de tout système d’armement de conflit appartient aux États. « Les États doivent veiller à pouvoir rendre des comptes en cas d’actions mortelles appliquées par leurs forces dans un conflit armé », a déclaré l’ambassadeur Singh Gill, lors de la dernière réunion du GEG, à Genève (Suisse), le 9 avril 2018.

Izumi Nakamitsu, la Haute-Représentante pour les affaires de désarmement de l’ONU a remarqué, pour sa part, que ce nouveau type de technologies donne lieu à des méthodes et moyens de livrer la guerre « avec des conséquences incertaines, éventuellement indésirables » et a souligné la nécessité de « dégager un consensus sur un entendement commun quant aux limites possibles du degré d’autonomie dans l’utilisation de la force létale ».

En mode automatique, ils sont capables d’ouvrir le feu sur l’ennemi, sans toutefois tirer sur les gens aux mains levées. Aucun de ces systèmes n’est utilisé par les militaires en mode automatique.

Les derniers progrès accomplis dans le développement de l’intelligence artificielle permettent de créer des systèmes de combat capables de se déplacer. Ainsi, aux États-Unis, on développe actuellement des ailiers sans pilote, qui voleront derrière des chasseurs pilotés par des humains, et viseront, sur ordre, des cibles aériennes ou terrestres. Le système de conduite de tir de la future version du char russe T-14, développé sur la base de la plate-forme universelle à chenilles Armata, sera capable de détecter les cibles de manière autonome et de les bombarder jusqu’à destruction complète. En parallèle, la Russie travaille sur une famille de robots à chenilles qui pourront participer au combat avec des soldats humains.

Pour les armées, tous ces systèmes sont appelés à remplir plusieurs fonctions de base, et en premier lieu celle d’accroître l’efficacité de destruction des cibles ennemies et de préserver la vie de leurs propres soldats. Dans le même temps, il n’existe pas encore de normes internationales ni de documents juridiques qui réglementeraient l’utilisation de systèmes de combat dotés d’IA dans une guerre.

Ni les coutumes de la guerre, ni les Conventions de Genève ne décrivent les systèmes dotés d’IA qui peuvent être utilisés au combat et ceux qui ne le peuvent pas. Il n’existe pas non plus de législation internationale qui permettrait de déterminer les coupables de la défaillance d’un système autonome. Si un drone bombarde de manière autonome des civils, qui sera puni ? Son fabricant ? Le commandant de l’escadrille à laquelle il était affecté ? Le ministère de la Défense ? La chaîne de coupables potentiels est trop grande et, comme on le sait, lorsqu’il y a trop de coupables, personne n’est coupable.

En 2015, le Future of Life Institute a publié une lettre ouverte signée par plus de 16 000 personnes, alertant sur les menaces que ces systèmes de combat dotés d’IA font peser sur les civils, sur le risque d’une course aux armements et, au bout du compte, sur le danger d’une issue fatale pour l’humanité. Elle était signée, en particulier, par l’entrepreneur américain et fondateur de SpaceX et Tesla Elon Musk, l’astrophysicien britannique Stephen Hawking (1942-2018) et le philosophe américain Noam Chomsky. En août dernier, Elon Musk et une centaine de développeurs de systèmes de robotique et d’IA ont envoyé à l’ONU une pétition demandant l’interdiction totale du développement et des essais des armes offensives autonomes.

Ces experts estiment que la création d’armées de robots capables de mener de manière autonome des hostilités conduira inévitablement à l’émergence, chez leurs détenteurs, de sentiments de pouvoir absolu et d’impunité. En outre, lorsqu’un homme est en situation de conflit, il prend des décisions dans lesquelles interviennent, notamment, ses attitudes morales, sentiments et émotions. L’observation directe des souffrances d’autrui produit encore un effet dissuasif sur les soldats, même si, chez les militaires professionnels, la compassion et la sensibilité finissent par s’émousser. En cas d’introduction généralisée de systèmes de combat autonomes, dont les détachements ne pourront être conduits que du doigt sur l’écran d’une tablette depuis un autre continent, la guerre se transformera inévitablement en jeu, les victimes civiles et les soldats en chiffres sur l’écran.

Vasily Sychev (Fédération de Russie) Expert en armement et journaliste, écrit essentiellement pour les journaux La Gazette russe, Expert, Lenta.ru et Le Courrier de l’industrie militaire. Il dirige également les rubriques « Armement » et « Aviation » dans le journal web de vulgarisation scientifique N+1.

Le Courrier de l’UNESCO • juillet-septembre 2018

Le Pentagone lance son centre d’intelligence artificielle

Le Département américain de la défense (DoD) s’intéresse à l’intelligence artificielle. Le département, qui supervise tout ce qui concerne la sécurité nationale et les forces armées américaines, a eu l’idée de créer un centre axé sur l’intelligence artificielle depuis octobre 2016. Le 27 juin, l’idée est devenue réalité lorsque le secrétaire adjoint à la Défense, Patrick Shanahan, a publié une note établissant officiellement le Joint Artificial Intelligence Center (JAIC).

Le JAIC servira de centre d’intelligence artificielle pour l’armée, abritant environ 600 projets de l’IA du DoD. Selon une demande soumise par le DoD au Congrès en juin, le centre coûtera environ 1,7 milliard de dollars au cours des six prochaines années.

Le secrétaire adjoint à la Défense, Patrick M. Shanahan, a chargé le responsable des technologies de l’information du DoD de mettre en place le JAIC afin de permettre aux équipes du DoD de déployer rapidement de nouvelles capacités compatibles avec l’IA et d’expérimenter efficacement de nouveaux concepts opérationnels à l’appui des missions militaires et des fonctions commerciales du DoD, a déclaré la porte-parole du département de la Défense, Heather Babb.

Dans son mémo, Shanahan note que les progrès de l’IA modifieront probablement la nature de la guerre et que l’armée a besoin d’une nouvelle approche de l’IA qui lui permettra d’intégrer rapidement toute avancée dans ses opérations et sa «manière de combattre». Il pense que le centre d’intelligence artificielle de l’armée pourrait aider dans ces efforts en se concentrant sur quatre domaines :

– Aider les militaires à exécuter leurs initiatives de mission nationale (National Mission Initiatives NMIs). Ce sont des projets d’intelligence artificielle à grande échelle conçus pour répondre à des groupes de défis urgents et connexes.
– Création d’une fondation à l’échelle du DoD pour l’exécution de l’intelligence artificielle. Cela impliquerait de trouver un moyen de mettre à la disposition de l’ensemble du DoD tous les outils, données, technologies, experts et processus liés à l’IA rapidement et efficacement.
– Amélioration de la collaboration sur les projets d’intelligence artificielle au sein du DoD et avec des parties extérieures, telles que des alliés américains, des entreprises privées et des universitaires.
– Travailler avec le Bureau du secrétaire à la défense (Office of the Secretary of Defense OSD) pour déterminer comment gouverner et normaliser le développement et la livraison de l’intelligence artificielle.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

De nombreux grands noms de la recherche en intelligence artificielle du secteur privé et du monde universitaire ont pris position contre les armes autonomes, des machines qui utilisent l’intelligence artificielle pour décider d’essayer ou non de tuer une personne. Les signataires de la promesse ont juré de ne jamais travailler sur de tels projets; on a même désigné les armes autonomes comme “aussi répugnantes et déstabilisantes que les armes biologiques”.

En établissant un centre d’intelligence artificielle, le gouvernement des États-Unis exprime clairement sa position : non seulement l’intelligence artificielle est considérée comme un élément inévitable de l’avenir de la guerre, mais elle peut aussi être la meilleure dans sa mise en œuvre. Comme l’a écrit Shanahan dans un courriel adressé aux employés du DoD, « beaucoup de gens parlent de la menace de l’intelligence artificielle; nous voulons être la menace ».

FedScoop, Bulletin of the Atomic Scientists

Les robots ont remplacé les humains dans 25% des usines de munitions en Chine

La Chine a commencé à remplacer les travailleurs de ses usines de munitions par des robots. Cette avancée permettra de réduire le nombre d’accidents subis par les travailleurs humains, et a déjà augmenté la production de munitions dans le pays.

La Chine est un pays qui mène la charge quand il s’agit d’adopter la robotique et l’intelligence artificielle. L’année dernière, le pays a vu le premier robot dentiste opérer avec succès sur un patient, et il est prévu de construire un poste de police sans humains, alimenté par l’IA, dans une grande ville. Les deux développements montrent des signes de progrès de la Chine pour devenir un leader mondial de l’IA d’ici 2030.

Un robot réussit l’examen de licence médicale

Etre un leader dans l’intelligence artificielle, signifie également utiliser cette technologie sur le marché du travail pour remplacer les travailleurs humains. Récemment, la Chine l’a fait en utilisant l’automatisation pour augmenter son approvisionnement en bombes et en obus d’artillerie.

Dans une déclaration au South China Morning Post (SCMP), Xu Zhigang, chercheur à l’Institut d’automatisation de Shenyang de l’Académie chinoise des sciences, a déclaré que près de 25% des usines de munitions chinoises ont été remplacées par des “machines intelligentes”. Chose intéressante, la Chine ne s’est pas tournée vers l’IA simplement parce qu’elle veut mener l’adoption de l’IA. C’était plutôt parce que les usines manquaient de gens qui voulaient réellement travailler dans des environnements aussi dangereux.

“Quel que soit le salaire offert, les jeunes ne sont tout simplement pas intéressés à travailler dans une usine de munitions de l’armée de nos jours”, a déclaré Xu. Personne ne peut vraiment les blâmer d’être méfiants à l’égard du travail. Selon le SCMP, citant des «articles de recherche publiés dans des revues universitaires chinoises», un nombre important d’accidents s’est produit ces dernières années, certains entraînant des accidents du travail ou même la mort.

Les problèmes de sécurité étaient si grands que les 20 à 30 usines construites au cours des 60 dernières années sont situées dans des endroits reculés, ou dans des régions où la population est beaucoup plus faible.

“Une étincelle pourrait conduire à une énorme explosion et réduire l’usine à un cratère”, a déclaré Xu. “Le risque d’incendie était notre plus grand défi. Il planait sur ma tête comme une épée”.

Même avant que les accidents ne soient pris en compte, les travailleurs étaient exposés à des produits chimiques nocifs lors de l’assemblage des munitions, ce qui les obligeait à porter des masques et des gants. Inutile de dire que ce n’est pas le travail le plus invitant, et celui qui est probablement le mieux adapté pour l’automatisation.

Depuis l’introduction de l’automatisation dans les usines, l’IA – équipée de mains et d’yeux artificiels – a été presque 5 fois plus productive que les travailleurs humains et peut assembler diverses munitions, y compris des obus d’artillerie, des bombes guidées, et des roquettes avec le genre d’efficacité et de perfection avec lesquelles luttent les travailleurs humains. Ils ne se fatiguent pas non plus, ce qui est un plus pour toute industrie qui cherche à mettre en œuvre la robotique. Avec une productivité quelque peu limitée par l’approvisionnement en matières premières, Xu a déclaré que l’augmentation de la productivité tomberait probablement entre 100 et 200 pour cent “au minimum”.

“Les robots peuvent libérer les travailleurs des emplois risqués et répétitifs dans le processus de fabrication de bombes”, a déclaré le professeur Huang Dexian, du département d’automatisation de l’université Tsinghua, au SCMP. “Cela créera de nouveaux emplois tels que l’optimisation du contrôle, la maintenance du matériel et les mises à niveau techniques. Cela nous donnera une force de défense plus forte, plus saine et plus heureuse.”

Des projets Chinois à la Minority Report utiliseront l’IA pour prédire des crimes

Malgré les améliorations apportées par l’IA à la sécurité, il est juste de s’inquiéter de leur inclusion dans le processus de fabrication des munitions. Bien que Xu ait noté que la Chine n’était pas dans une situation où elle “se préparait à une guerre et remplissait ses arsenaux à une vitesse vertigineuse”, les nouvelles capacités de production du pays pourraient inciter d’autres pays à produire des armes à un rythme plus rapide ou les encourager à accélérer le développement de leurs propres projets d’IA par peur d’être dépassés. La Russie, par exemple, aurait construit un missile contrôlé par l’IA et prévoit de faire des véhicules (terrestres et aériens) sans pilote (UGV-UAV) à l’intelligence artificielle entièrement autonome. Les États-Unis, quant à eux, veulent utiliser l’IA pour renforcer leurs capacités de collecte de renseignements, et ont testé avec succès un F-16 autonome en avril dernier.

Il est vrai que l’automatisation peut améliorer la productivité et avoir des impacts positifs sur la société, mais les experts mettent en garde que nous devrions également nous méfier de la façon dont nous prenons l’automatisation sans plans appropriés. Jon Wolfsthal, qui était directeur du contrôle des armements au Conseil de sécurité nationale sous Barack Obama, a suggéré à la société de faire preuve de prudence, en disant que les avantages possibles … sont infinis, mais les risques aussi.

Les robots chinois vont tripler leur capacité de production de bombes et de munitions d’ici 2028

South China Morning Post

La Chine a dévoilé le premier réseau informatique infalsifiable au monde

Life 3.0 : Être humain à l’ère de l’intelligence artificielle

Life 3.0: Being Human in the Age of Artificial Intelligence

Nous sommes au début d’une nouvelle ère. Ce qui était autrefois de la science-fiction, devient réalité, car l’intelligence artificielle transforme la guerre, le crime, la justice, les emplois et la société, et même notre sens de ce que signifie être humain.

Plus que toute autre technologie, l’intelligence artificielle a le potentiel de révolutionner notre avenir collectif – et personne n’est mieux situé ou qualifié pour explorer cet avenir que Max Tegmark, un professeur du MIT et cofondateur de Future of Life Institute, dont le travail a contribué à intégrer la recherche sur la façon de garder l’intelligence artificielle bénéfique.

Dans ce nouvel ouvrage profondément étudié et d’une importance vitale, Tegmark nous conduit au cœur de la pensée de l’intelligence artificielle et de la condition humaine, en nous confrontant aux questions essentielles de notre temps.

Comment pouvons-nous accroître notre prospérité grâce à l’automatisation, sans laisser les gens dépourvues de revenu ou de but ? Quels conseils de carrière devrions-nous donner aux enfants d’aujourd’hui ? Comment pouvons-nous nous assurer que les futurs systèmes d’intelligence artificielle vont faire ce que nous voulons sans dysfonctionner ou être piraté ? Devrions-nous craindre une course aux armements pour des armes autonomes mortelles ? Est-ce que l’intelligence artificielle nous aidera à nous épanouir dans la vie comme jamais auparavant ou nous donnera plus de pouvoir que nous ne pouvons gérer ?

Life 3.0 donne les outils pour entrer dans ce qui peut être la conversation la plus importante de notre temps, nous guider à travers les questions les plus controversées autour de l’intelligence artificielle – de la super-intelligence au sens, à la conscience et aux limites physiques ultimes de la vie dans le cosmos.

Quel avenir voulez-vous?

Future of Life Institute, Nature doi:10.1038/548520a

Lire un extrait

Les dirigeants des meilleures sociétés de robotique et d’IA appellent à l’interdiction des robots tueurs

Les dirigeants des compagnies d‘intelligence artificielle et de robotique à travers le monde, y compris Elon Musk (Tesla, SpaceX, OpenAI), Demis Hassabis et Mustafa Suleyman (Google DeepMind), ont publié une lettre ouverte appelant les Nations Unies à interdire les armes autonomes, souvent appelées robots tueurs (systèmes d’armes létales autonomes – SALA*), alors que l’ONU retarde les négociations.

Les fondateurs et les PDG de près de 100 entreprises de 26 pays ont signé la lettre, qui met en garde :

« Les systèmes d’armes létales autonomes menacent de devenir la troisième révolution en matière de guerre. Une fois développées, elles permettront de mener des conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides à ce que les humains peuvent concevoir. »

En décembre 2016, 123 nations membres de l’ONU avaient accepté d’aller de l’avant avec des discussions officielles sur les armes autonomes, 19 membres demandant déjà une interdiction totale. Cependant, la prochaine étape des discussions, initialement prévue pour le 21 août 2017 – date de publication de la lettre ouverte – a été reportée au mois de novembre, d’après le magazine en ligne Fortune.

La lettre a été organisée et annoncée par Toby Walsh, un éminent chercheur en intelligence artificielle à l’Université de Nouvelle-Galles du Sud à Sydney (University of New South Wales ou UNSW), en Australie. Dans un courriel, il a noté que « malheureusement, l’ONU n’a pas commencé aujourd’hui ses délibérations formelles à propos des systèmes d’armes létales autonomes ».

« Il y a cependant une urgence réelle à prendre des mesures et d’empêcher une course aux armements très dangereuse », Walsh a ajouté : « Cette lettre ouverte témoigne d’une préoccupation claire et d’un solide soutien à l’industrie de la robotique et de l’intelligence artificielle. »

Cité dans le journal The Independent du Royaume-Uni, le professeur Walsh a expliqué, « Presque chaque technologie peut être utilisée à bon ou mauvais escient, et il en est de même pour l’intelligence artificielle. Elle peut aider à résoudre de nombreux problèmes urgents auxquels fait face la société aujourd’hui : l’inégalité et la pauvreté, les difficultés que présentent le changement climatique et la crise financière mondiale actuelle.

« Cependant, cette même technologie peut également être utilisée dans les armes autonomes afin d’industrialiser la guerre. Nous devons prendre des décisions aujourd’hui en choisissant lequel de ces avenirs nous souhaitons. »

La lettre ouverte comprend des signataires tels que :

• Elon Musk, fondateur de Tesla, SpaceX et OpenAI (USA)
• Demis Hassabis, fondateur et PDG de Google DeepMind (Royaume-Uni)
• Mustafa Suleyman, fondateur et responsable de l’Applied AI chez Google DeepMind (Royaume-Uni)
• Esben Østergaard, fondateur et CTO de Universal Robotics (Danemark)
• Jérôme Monceaux, fondateur d’Aldebaran Robotics, fabricant de
s robots Nao et Pepper (France)
• Jürgen Schmidhuber, expert en
deep learning et fondateur de Nnaisense (Suisse)
• Yoshua Bengio, expert en
deep learning et fondateur de Element AI (Canada)

En ce qui concerne les signataires, le communiqué de presse de la lettre a ajouté : « Leurs entreprises emploient des dizaines de milliers de chercheurs, de roboticiens et d’ingénieurs, valent des milliards de dollars et couvrent le globe du Nord au Sud, de l’Est à l’Ouest : l’Australie, le Canada, la Chine, la République tchèque, le Danemark, l’Estonie, la Finlande, la France, l’Allemagne, l‘Islande, l’Inde, l’Irlande, l’Italie, le Japon, le Mexique, les Pays-Bas, la Norvège, la Pologne, la Russie, Singapour, l’Afrique du Sud, l’Espagne, la Suisse, le Royaume-Uni, les Émirats arabes unis et les États-Unis. »

Bengio a expliqué pourquoi il a signé, en disant : « l’utilisation de l’IA dans les armes autonomes blesse mon sens de l’éthique ». Il a ajouté que le développement d’armes autonomes « conduirait probablement à une escalade très dangereuse » et que « cela nuirait au développement de bonnes applications d’intelligence artificielle ». Il a conclu sa déclaration en disant que « c’est une question qui doit être traitée par la communauté internationale, de même à ce qui a été fait dans le passé pour d’autres armes moralement répréhensible (biologiques, chimiques, nucléaires) ».

Stuart Russell, l’un des chercheurs les plus importants du monde en intelligence artificielle et fondateur de Bayesian Logic Inc., a ajouté :

« À moins que les gens ne souhaitent voir de nouvelles armes de destruction massive (ADM) – sous la forme de vastes essaims de micro-drones létaux – se répandant dans le monde entier, il est impératif d’intensifier et de soutenir les efforts des Nations Unies pour créer un traité interdisant les systèmes d’armes létales autonomes. Ceci est vital pour la sécurité nationale et internationale ».

Ryan Gariepy, fondateur et CTO de Clearpath Robotics a été le premier à signer la lettre. Pour le communiqué de presse, il a noté :

«Les systèmes d’armes autonomes sont à la pointe du développement en ce moment et ont un potentiel très réel pour causer des dommages importants aux personnes innocentes et une instabilité mondiale ».

La lettre ouverte se termine par des préoccupations similaires. Il est dit :

« Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes piratées pour se comporter de manière indésirable. Nous avons peu de temps pour agir. Une fois que cette boîte de Pandore sera ouverte, il sera difficile de la refermer. Nous implorons donc les hautes parties contractantes de trouver un moyen de nous protéger contre tous ces dangers ».

La lettre a été présentée à Melbourne, en Australie lors de la Conférence conjointe internationale sur l’intelligence artificielle (IJCAI), qui attire un nombre important des plus grands chercheurs du monde en matière d’intelligence artificielle. Il y a deux ans, lors de la dernière réunion de l’IJCAI, Walsh avait publié une autre lettre ouverte, qui appelait les pays à éviter de s’engager dans une course aux armes basées sur l’intelligence artificielle. Jusqu’à présent, cette lettre a été signée par plus de 20 000 personnes, dont plus de 3 100 chercheurs en intelligence artificielle/robotique.

The Independent, Fortune, University of New South Wales, UNSW, Future of Life Institute


* Julien Ancelin, « Les systèmes d’armes létaux autonomes (SALA) : Enjeux juridiques de l’émergence d’un moyen de combat déshumanisé », La Revue des droits de l’homme [En ligne], Actualités Droits-Libertés, mis en ligne le 25 octobre 2016, consulté le 02 septembre 2017. URL : http://revdh.revues.org/2543 ; DOI : 10.4000/revdh.2543

Systèmes d’armes létaux autonomes : Ministère de l’Europe et des Affaires étrangères. Mission permanente de la France auprès de la Conférence du désarmement à Genève
Enjeux et position de la France : “Les systèmes d’armes létaux autonomes (SALA) sont des armes potentiellement susceptibles d’identifier, d’engager et de neutraliser une cible sans intervention humaine. Bien que de tels systèmes n’existent pas, l’autonomie de ces systèmes d’armes serait susceptible de poser de nombreuses questions sur le plan moral, juridique ou encore opérationnel. C’est la raison pour laquelle un débat sur la manière d’appréhender ces armes, qui ne font pas encore partie de la réalité stratégique, est nécessaire. Il s’agit d’un débat d’ordre prospectif. Par ailleurs, l’autonomie, qui n’est pas synonyme d’automaticité, fait également naître de nombreux questionnements sur l’opportunité stratégique du développement et de l’utilisation de ces armes. Enfin, si les discussions sur la problématique des SALA ont lieu dans le cadre de la Convention de 1980 sur certaines armes classiques, il n’en existe pas, à ce jour, de définition communément agréée. Il s’agit de l’un des principaux enjeux actuels des débats sur les SALA. Les discussions sur les SALA au sein de la CCAC ont été lancées en 2013, sur initiative française. Compte-tenu de la nature prospective de ces systèmes et de la nécessité de s’accorder sur un périmètre commun de discussions, la France estime nécessaire de poursuivre les échanges au sein de la CCAC, si nécessaire dans le cadre d’un groupe d’experts gouvernementaux. La France a lors d’une intervention à Genève exposé les conditions suivantes pour qu’une arme soit identifiée comme un SALA : aucune forme de supervision humaine ne doit être possible, l’arme doit être mobile dans un espace terrestre, aérien ou marin de manière autonome, être capable de sélectionner une cible et de déclencher le tir d’une munition létale de manière autonome, être capable de s’adapter à son environnement et au comportement des agents qui l’entourent.”

L’Homme augmenté, réflexions sociologiques pour le militaire

Colin A. (dir.), mars 2016, « L’Homme augmenté, réflexions sociologiques pour le militaire », Études de l’IRSEM n°42. → Télécharger le PDF (77 pages)

Voir aussi → Éthique sur le champ de bataille dans un futur proche

Agnès COLIN est chargée d’étude à l’IRSEM depuis 2010, auprès du domaine Défense et société. Elle est diplômée d’un doctorat en Chimie-Physique de l’université Pierre et Marie Curie-Paris VI, a été ingénieure d’étude à la DGA puis chargée d’étude au Centre des Hautes Etudes de l’armement (CHEar) sur les nouvelles technologies et les enjeux sociétaux. Ses principales thématiques de recherche sont les aspects sociétaux des nouvelles technologies NBIC (Nanotechnologie, Biotechnologie, Science de l’Information et de la Cognition), ainsi que les questionnements éthiques, juridiques et philosophiques des technologies émergentes en vue d’augmenter les performances de l’homme en terrain de combat.

Cette étude collective a été dirigée par une chercheuse de l’IRSEM, notre regrettée collègue Agnès Colin. Agnès nous a malheureusement quittés en septembre 2015. Titulaire d’un doctorat en physique-chimie obtenu en 1984, elle avait été recrutée à la Délégation générale pour l’armement comme ingénieur cadre technico-commercial. Ses fonctions avaient plusieurs fois évolué au sein de la DGA où elle avait notamment occupé les postes de chef de la division Détection sous-marine-Sonar, d’ingénieur en guerre électronique puis de chargée d’études en réflexion stratégique de l’armement au CHEAr. Agnès avait rejoint l’IRSEM, en tant que chercheuse, dès sa création en 2010. Elle avait mené plusieurs projets de publication dont cette étude sur l’homme augmenté qui lui aura donné l’occasion de fédérer autour d’elle une équipe de chercheurs d’horizons divers. Agnès aurait été heureuse que cette étude paraisse, apportant ainsi une nouvelle fois sa contribution à la recherche stratégique en France. Il revient maintenant à l’IRSEM de prolonger les pistes ouvertes par les travaux originaux d’Agnès.

Sommaire :

Introduction : L’Homme augmenté, nouveaux enjeux pour la défense
Les technologies d’amélioration des capacités humaines, le contexte sociologique
L’éthique, place respective du médecin et du scientifique face à des impératifs militaires de commandement et d’opérationnalité
Le dopage sportif, quelles évolutions récentes et quelles conséquences pour les militaires ?
Le contexte sociologique des technologies augmentatrices, perception et acceptation sociale
Un regard de philosophie morale sur l’homme et le militaire augmentés : vers la fin du courage ?
Le cyborg, un regard historique

Introduction (extrait)

L’homme augmenté constitue un vaste champ de recherche sur lequel se cristallisent de nombreux travaux et avancées scientifiques, liés au développement des nouvelles technologies et de la convergence croissante entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives (NBIC). Ces techniques ont un intérêt certain dans le domaine médical pour « réparer » l’homme lors d’applications à finalité thérapeutique mais peuvent aussi conduire à des améliorations hors du champ médical. De tout temps, l’homme a eu le désir de pouvoir un jour dépasser ses limites biologiques en vue de la création d’une espèce plus performante ou de s’élever au-dessus de la condition de simple mortel (post-humain). Ce sujet fascine car les médias et les auteurs de science-fiction entretiennent régulièrement de nombreux mythes et imaginaires sur les attentes (le cyborg). Si le débat sur l’amélioration artificielle des performances humaines, dans le secteur civil et dans le monde académique, émerge aujourd’hui de manière plus flagrante, c’est en grande partie grâce aux progrès scientifiques sur les sciences du vivant et l’ingénierie à des échelles de plus en plus petites. Il est donc logique que ces avancées scientifiques et technologiques aient des répercussions sur l’homme et posent de nouveaux enjeux sociétaux afin de garantir les droits et la santé des individus. Depuis une dizaine d’années, de nombreux scientifiques, philosophes et sociologues se penchent sur la question du “human enhancement” ou de “l’homme augmenté” et discutent des enjeux de l’amélioration artificielle des capacités humaines. Cette problématique concerne aussi le monde militaire. Pour la défense, ces nouvelles techniques ouvrent en effet des perspectives pour le combattant qui peut améliorer ses capacités d’adaptation à l’environnement militaire, d’augmenter ses performances et son efficience dans des contextes d’opérations difficiles (Vincent, 2010). Ces questionnements représentent de nouveaux défis non seulement technologiques mais aussi de nouveaux défis idéologiques et sociétaux, comme le souligne Patrice Binder (Binder, 2012) pour le Conseil Général de l’Armement dans une étude sur les enjeux des neurosciences pour la défense. Du point de vue éthique, l’utilisation des nouvelles technologies à des fins non thérapeutiques pose de nouvelles interrogations sur le respect des valeurs morales et sur la santé du personnel. En France, il n’existe pas de cadre normatif adapté aux questions d’amélioration de l’individu. Cela est dû au fait que dans le monde médical, la problématique de l’éthique des nouvelles technologies n’est actuellement abordée que pour les utilisations thérapeutiques. La refonte de la loi de bioéthique de 2004 définit un cadre d’application pour les applications thérapeutiques. Mais pour l’utilisation de dispositifs à d’autres fins, rien n’est prévu pour l’instant dans la révision des lois de bioéthique. Pour la défense, comme le militaire doit respecter les mêmes lois de bioéthique que le civil, force est de constater qu’il n’existe pas actuellement de cadre législatif particulier ni réglementaire pour traiter ce sujet. Certes, le droit et certains codes de bonnes pratiques des instituts de recherche apportent des éclairages sur ces questions. C’est ainsi que le Service de santé des Armées s’oppose à tout comportement ou à toute action susceptible de nuire à la santé du militaire.

À ce jour, il convient d’être très prudent sur les possibles technologiques et les projections futuristes. Il semble que les progrès les plus importants dans les technosciences se situent dans les technologies de l’information et de la communication, dans la mise au point de complexes interfaces cerveau-machines, dans la robotique comme les prothèses et dans de nouvelles molécules dopantes qui peuvent agir directement sur la physiologie de l’homme. Mais c’est surtout grâce aux avancées notables et conséquentes des recherches dans les neurosciences et les techniques d’exploration du cerveau, que la demande d’amélioration des performances semble être la plus forte et est présente de manière significative dans les débats éthiques du secteur civil, et commence à l’être dans le secteur militaire en France. En complément des articles présentés dans cette étude, ce préambule a pour objet d’introduire cette problématique d’actualité qui ouvre de nouveaux champs de recherche. L’ensemble de ces interrogations concerne le secteur de la défense au sein duquel des dispositifs basés sur l’imagerie cérébrale et le décodage de l’activité cérébrale sont potentiellement appelés à connaître un essor au cours des prochaines années. Ces techniques pourraient ainsi être utilisées pour le recrutement du personnel, lors de la sélection pour certaines prises de risques ou situations demandant des connaissances spécifiques. Elles seraient aussi très utiles dans les expériences sur les interfaces cerveau-machines en vue de l’amélioration des performances des militaires au combat (Colin, 2012). Les travaux de recherche militaire les plus nombreux et les plus avancés dans ce domaine sont menés par la DARPA pour le compte de l’armée américaine (Moreno, 2006) et visent à corréler l’activité de neurones avec des tâches spécifiques (dans le but, entre autres, de détecter le mensonge ou mieux gérer la peur).

Est-ce que l’US Navy planifie d’implanter des micro-puces ?

Des représentants consultent Zoltan Istvan le candidat à la présidence.

  • Le transhumaniste Zoltan Istvan a rencontré des hauts fonctionnaires de l’US Navy
  • Ils ont demandé conseils pour les aider à élaborer des politiques sur les implants de micro-puces
  • M. Istvan croit que tous les enfants devraient avoir des implants afin qu’ils puissent être suivis

La plupart d’entre nous portent un dispositif de repérage chaque jour sous la forme de téléphones mobiles, mais certaines personnes vont plus loin en ayant des puces intégrées dans leur corps.

La plupart d’entre nous portent un dispositif de repérage chaque jour sous la forme de téléphones mobiles, mais certaines personnes vont plus loin en ayant des puces intégrées dans leur corps.

L’US Navy est maintenant si préoccupée quant à cette pratique qu’elle est en train d’élaborer une politique officielle pour l’aider à traiter avec le personnel ayant des puces implantées.

Les fonctionnaires ont consulté le candidat transhumaniste à la présidence américaine Zoltan Istvan, pour discuter des répercussions de la préparation des humains avec des micro-puces pour augmenter leurs capacités (discuter de la fusion des humains et des machines).


Éthique sur le champ de bataille dans un futur proche


La DARPA[1] travaille déjà sur des implants qui peuvent être implantés dans le cerveau des soldats afin de les rendre plus résistants à la guerre.

Mais d’après M. Istvan, l’armée est également préoccupée à propos des technologies non autorisées que leur personnel peut s’implanter.

« La Navy s’efforce de créer des politiques autour de soldats ou marins qui commencent leur service militaire avec des puces non autorisées intégrées en eux.

C’est tout à fait sensé étant donné que la technologie est devenue si petite, que les implants peuvent maintenant faire un large éventail de choses – traquer, effectuer des paiements, surveiller la circulation sanguine et la santé corporelle – et être totalement cachée dans les êtres humains.

Vous pouvez imaginer à quel point ce serait délicat si quelqu’un avait une puce implantée non autorisée sur une base nucléaire – des politiques doivent être créées et rapidement. »

La rencontre s’est tenue entre M. Istvan et des responsables du Chief of Naval Operations Strategic Studies Group (opérations navales des études stratégiques), qui recherche de nouveaux concepts de guerre.

Une lettre du Vice-Amiral James Wisecup, directeur du groupe, dit à M. Istvan : « Vos commentaires ont élargi notre compréhension du transhumanisme et de la fusion des hommes et des machines.

Vos perspectives personnelles furent intéressantes et opportunes alors que nous commençons notre processus de recherche. Vous avez eu un impact direct sur nos points de vue pour les futurs concepts. »

Istvan croit que la technologie pourrait être utilisée pour donner aux humains l’immortalité en augmentant nos corps avec la technologie.

Traduction Thomas Jousse

Lire la suite sur DailyMail

[1] DARPA projette de concevoir le modem cortical ; Des implants cérébraux conçus pour fondre et ne laisser aucune trace ; Un implant cérébral montre le potentiel de l’interface-neuronale (IND) pour le cerveau ; Un implant cérébral se connectera avec 1 million de neurones ; Un algorithme informatique créé pour encoder les souvenirs humains.