Skip to content

Militarisation de l’intelligence artificielle

Le développement technologique est devenu une course de rat. Dans la compétition pour diriger la course à la technologie émergente et le champ de bataille de la guerre futuriste, l’intelligence artificielle devient rapidement le centre des jeux de pouvoir mondiaux. Comme on l’a vu dans de nombreux pays, le développement du système d’armes autonomes (AWS) progresse rapidement et cette augmentation de la militarisation de l’intelligence artificielle semble être devenue une évolution extrêmement déstabilisante. Il soulève des problèmes de sécurité complexes non seulement pour les décideurs de chaque pays, mais également pour l’avenir de l’humanité.

La réalité actuelle est que l’intelligence artificielle nous conduit vers un nouveau champ de bataille de guerre algorithmique sans frontières ni limites, avec ou sans implication humaine, et impossible à comprendre et peut-être à contrôler à travers l’écosystème humain dans le cyberespace, l’espace géospatial et l’espace (CGS).

En conséquence, l’idée même de la militarisation de l’intelligence artificielle, dans laquelle un système d’armes qui, une fois activé dans le CGS, peut sélectionner et engager des cibles humaines et non humaines sans intervention supplémentaire d’un concepteur ou d’un opérateur humain, suscite une grande crainte.

La pensée d’une machine intelligente ou l’intelligence de la machine pour pouvoir effectuer n’importe quelle tâche de guerre projetée sans aucune implication ni intervention humaine – en utilisant uniquement l’interaction de ses capteurs intégrés, de la programmation informatique et des algorithmes dans l’environnement humain et l’écosystème – est en train de devenir une réalité qui ne peut plus être ignorée.

La militarisation de l’intelligence artificielle

Alors que l’intelligence artificielle, le machine learning et le deep learning évoluent et passent de la conception à la commercialisation, l’accélération rapide de la puissance de calcul, de la mémoire, des données volumineuses et de la communication à haut débit crée non seulement une frénésie d’innovation, d’investissement et d’application, mais intensifie également la quête pour les puces d’intelligence artificielle. Ces progrès et développements rapides et continus signifient que l’intelligence artificielle est en passe de révolutionner la guerre et que les pays vont sans aucun doute continuer à développer le système d’armes automatisé que l’intelligence artificielle rendra possible.

Lorsque les pays, individuellement et collectivement, accélèrent leurs efforts pour obtenir un avantage concurrentiel dans le domaine de la science et de la technologie, l’intensification de la militarisation de l’intelligence artificielle est inévitable. En conséquence, il est nécessaire de visualiser à quoi ressemblerait une guerre algorithmique de demain, car la construction de systèmes d’armes autonomes est une chose mais leur utilisation dans une guerre algorithmique avec d’autres nations et contre d’autres humains en est une autre.

La menace des robots tueurs

Alors que l’on signale déjà des systèmes algorithmiques complexes prenant en charge de plus en plus d’aspects de la guerre dans les CGS, la vérité est que la standardisation de l’intelligence artificielle est devenue une réalité. Comme on le voit dans le cyberespace, la guerre automatisée (cyberguerre) a déjà commencé – où tout le monde est la cible. Alors, quelle est la prochaine, la guerre virtuelle et la guerre spatiale ? Et qui et quelle sera la cible ?

LIRE AUSSI 🔖  Un algorithme informatique créé pour encoder les souvenirs humains

Le développement rapide de la militarisation de l’intelligence artificielle est évident à tous les niveaux : navigation et utilisation de véhicules navals, aériens et terrestres sans équipage, production d’estimations de dommages collatéraux, déploiement de systèmes de missiles «fire-and-forget» et en utilisant des systèmes fixes pour tout automatiser, de l’entretien des systèmes et des équipements du personnel au déploiement de drones de surveillance, de robots, etc., en sont tous des exemples. Ainsi, lorsque les algorithmes prennent en charge de plus en plus d’aspects de la guerre, cela nous amène à une question importante : quelles utilisations de l’intelligence artificielle dans la guerre d’aujourd’hui et de demain devraient être autorisées, restreintes et totalement interdites ?

On pense que les systèmes d’armes autonomes offrent la possibilité de réduire les coûts d’exploitation des systèmes d’armes – notamment grâce à une utilisation plus efficace de la main-d’œuvre – et permettront probablement aux systèmes d’armes d’accroître leur vitesse, leur précision, leur persistance, leur portée et leur coordination sur le champ de bataille du CGS. Cependant, la nécessité de comprendre et d’évaluer les problèmes technologiques, juridiques, économiques, sociaux et de sécurité demeure.

Rôle des programmeurs et de la programmation

Face à ces défis complexes en matière de sécurité et à la profusion d’inconnues qui nous attendent, le rôle des programmeurs et des programmes, ainsi que l’intégrité des puces semi-conductrices, reste fondamental pour la sécurité de l’humanité. La raison derrière cela est que les programmeurs peuvent définir et déterminer la nature du système d’armes autonome (du moins au début) jusqu’à ce que l’intelligence artificielle commence à se programmer.

Cependant, si et quand un programmeur programme intentionnellement ou accidentellement une arme autonome pour agir en violation du droit international humanitaire (DIH) actuel et futur, comment l’homme contrôlera-t-il la militarisation de l’intelligence artificielle ? De plus, étant donné que le système d’armes autonome est centré sur le logiciel, à qui incombe la responsabilité des erreurs et de la manipulation de la conception et de l’utilisation de systèmes d’armes autonomes ? Cela nous amène au cœur de la question – quand et si un système autonome tue, qui est responsable du meurtre, que cela soit justifié ou non ?

Robots tueurs. Que seront les soldats de demain ?

Défis de la cybersécurité

En bref, les algorithmes ne sont nullement sécurisés – ils ne sont pas non plus à l’abri des bugs, des logiciels malveillants, des biais et de la manipulation. Et, le machine learning utilisant des machines pour former d’autres machines, que se passe-t-il en cas de malware ou de manipulation de training data (données de formation) ?

LIRE AUSSI 🔖  Le plan de l'IARPA pour pirater le cerveau des hackers

Alors que les risques de sécurité sont omniprésents, les appareils connectés augmentent la capacité de violation de la cybersécurité à partir d’emplacements distants. En raison de l’opacité du code, la sécurité est très complexe. Ainsi, lorsque l’intelligence artificielle entrera en guerre avec une autre intelligence artificielle (qu’il s’agisse de la cybersécurité, de la géo-sécurité ou de la sécurité de l’espace), les défis actuels en matière de cybersécurité augmenteront les risques pour l’avenir de l’humanité et de l’écosystème humain dans la CGS.

Bien qu’il semble que les systèmes d’armes autonomes soient là pour rester, la question à laquelle nous devons tous individuellement et collectivement répondre est de savoir si l’intelligence artificielle dirigera et déterminera notre stratégie pour la survie et la sécurité humaines, ou allons-nous ?

Conscient de cette réalité émergente, Risk Group a lancé le débat sur les systèmes d’armes autonomes avec Markus Wagner, auteur et professeur de droit associé à l’Université de Wollongong, en Australie.

Disclosure: Risk Group LLC is my company

Et après ?

Alors que les pays, individuellement et collectivement, redoublent d’efforts pour acquérir un avantage concurrentiel dans le domaine de la science et de la technologie, la poursuite de la militarisation de l’intelligence artificielle est inévitable. En conséquence, la mise en place d’un système d’armes autonome modifierait le sens même d’être humain et modifierait sans ambiguïté les fondements mêmes de la sécurité et du futur de l’humanité et de la paix.

Il est important de comprendre et d’évaluer si la course aux armements autonome ne peut être empêchée, ce qui pourrait mal tourner. Il est temps de reconnaître que le simple fait que la technologie puisse permettre le développement réussi d’un système d’armes autonome ne signifie pas que nous devrions le faire. Il n’est peut-être pas dans l’intérêt de l’humanité de militariser l’intelligence artificielle. Il est temps de faire une pause.

Forbes

1 Comment »

  1. Il y a effectivement deux aspects de la cyberguerre qui devrait nous inquiéter:
    1° Quelles sont les capacités de piratage des engins téléopérés, notamment les drones militaires, par les supermalware?
    2° Quelles sont les connexions entre le développement d’intelligence artificielle et de supermalware?
    A trop vouloir jouer avec le feu, on finit toujours par se brûler…