Skip to content

Intelligence artificielle et guerre future

L’intelligence artificielle  transforme chaque aspect de la vie moderne. Son évolution rapide affecte tout, du travail quotidien à la manière dont les nations se préparent aux conflits. Certains experts prédisent que l’IA pourrait finir par dépasser l’intelligence humaine, tandis que d’autres soutiennent que cela n’arrivera jamais.

Contrairement au cerveau humain, les systèmes d’IA traitent d’énormes quantités de données à des vitesses remarquables, exécutant des commandes avec précision. Ses applications couvrent des secteurs tels que la santé, la finance, la fabrication et les transports.

Aujourd’hui, l’intégration de l’IA dans la guerre est une réalité, promettant des changements significatifs sur le champ de bataille et remettant en question les rôles traditionnels du commandement (Hoadley & Lucas, 2018). Cela est particulièrement vrai pour le corps des sous-officiers.

Cet article explore ces avancées et leurs implications pour les chefs militaires, en mettant l’accent sur la façon dont les sous-officiers doivent s’adapter pour diriger et former dans un environnement de plus en plus automatisé et technologiquement avancé.

L’impact de l’IA sur le corps des sous-officiers : développer les leaders de demain

L’évolution des technologies de guerre basées sur l’IA exige une transformation dans les approches de commandement des sous-officiers. Ce changement implique de développer la capacité de diriger des équipes intégrant des soldats humains et des systèmes autonomes.

Par exemple, gérer une unité équipée de drones alimentés par l’IA et de véhicules de soutien robotisés requiert une expertise tactique ainsi que la capacité de superviser et de résoudre en temps réel des systèmes complexes. Les chefs doivent s’adapter en favorisant la collaboration entre humains et machines, tout en maintenant des normes éthiques.

Former les soldats à l’intégration de l’IA

Des équipements avancés comme le système intégré d’augmentation visuelle, les exosquelettes et les robots autonomes exigent un mélange de compétences techniques et de conscience situationnelle.

Par exemple, les chiens robots équipés d’IA pour la reconnaissance offrent de nouvelles capacités, mais l’Armée doit former les soldats à interpréter et exploiter les données qu’ils fournissent. Les sous-officiers sont essentiels pour combler l’écart entre les nouvelles technologies et leur application pratique sur le champ de bataille, garantissant que les unités restent cohérentes et efficaces (Department of the Army [DA], 2020).

En tant que leaders éthiques, les sous-officiers doivent guider leurs soldats dans la compréhension des limites des technologies d’IA, en veillant à ce que le jugement humain reste central dans les décisions critiques. (Photo de l’U.S. Army par Chris Estrada)

Équilibrer technologie et leadership éthique

Bien que les systèmes d’IA améliorent la précision et l’efficacité, ils posent également des défis éthiques. Les chefs doivent gérer avec soin les décisions impliquant des armes autonomes ou des systèmes de surveillance, afin de garantir le respect des lois internationales et des normes éthiques. En tant que leaders éthiques, les sous-officiers doivent guider leurs soldats dans la compréhension des limites de l’IA, en maintenant le jugement humain au cœur des choix critiques.

À mesure que l’IA se développe, la peur ou le soutien à cette technologie croît également. Beaucoup croient que les robots atteindront une intelligence supérieure et renverseront ou détruiront les humains, comme dans les films de science-fiction tels que Terminator ou I, Robot.

L’idée de « singularité technologique » (où les robots deviennent surhumains et bouleversent la civilisation) et les inquiétudes liées au transhumanisme (l’idée que les humains se transformeront grâce à des technologies qui améliorent le corps et l’esprit) reflètent ces peurs. Bien que ces films aient marqué la culture, la priorité de l’Armée doit rester une intégration responsable et éthique de l’IA dans ses opérations.

L’IA peut offrir de la sécurité et nous permettre d’accomplir de nombreuses tâches quotidiennes plus efficacement. Elle peut exécuter des fonctions routinières et traiter des données sans faille. Pourtant, elle ne peut pas prendre de décisions fondées sur le jugement. C’est un outil puissant qui pourrait transformer la vie future, mais il restera contrôlé par une minorité d’élites.

Les controverses autour de l’IA sont complexes, et sa régulation sera contraignante. Toutefois, elle deviendra la machine la plus précieuse et la plus productive façonnant l’avenir.

LIRE AUSSI 🔖  Rencontrez le nouveau géant militaire américain : Amazon

Rendre la technologie de l’IA accessible

La guerre moderne combine technologie de l’information, progrès technologiques et nouvelles tactiques. C’est aussi la mobilisation industrielle d’une nation, sa capacité productive et son mode de gestion.

Cela signifie qu’une guerre moderne vise à préserver les forces militaires pour continuer le combat, à utiliser les ressources nationales pour détruire l’ennemi et à cibler les infrastructures civiles afin d’affaiblir la capacité d’un pays à combattre et à opérer dans les airs, sur terre et en mer.

On peut aussi définir une guerre moderne comme une « guerre totale », dans laquelle un belligérant mobilise entièrement toutes ses ressources et sa population. L’IA et l’autonomie seront les changements les plus significatifs à émerger.

Certaines des technologies d’IA les plus avancées aujourd’hui, comme les systèmes Phalanx, Iron Dome et C-RAM, peuvent sembler extrêmement complexes. Cependant, leurs implications stratégiques sont plus importantes que leurs détails techniques. Par exemple, le système Phalanx détecte et neutralise automatiquement les menaces de missiles plus vite que les temps de réaction humains, et l’Iron Dome intercepte les roquettes entrantes avec une précision remarquable.

Pour les sous-officiers, l’essentiel n’est pas de maîtriser le fonctionnement interne de ces outils, mais de savoir les intégrer aux opérations pour réussir.

Se concentrer sur l’impact opérationnel

Simplifier la discussion autour des technologies d’IA aide les chefs à se concentrer sur leur impact pratique. Les robots logistiques autonomes, par exemple, peuvent réduire la charge physique des soldats, leur permettant de se consacrer à des responsabilités plus importantes (Hoadley & Lucas, 2018). En reliant ces technologies à la préparation opérationnelle et au bien-être des soldats, les sous-officiers peuvent mieux comprendre et défendre leur utilisation.

Le rôle irremplaçable du leadership humain

Malgré le potentiel de l’IA, l’élément humain reste critique dans la guerre. Les machines ne peuvent pas reproduire la pensée critique, l’adaptabilité et l’empathie. Les sous-officiers sont l’épine dorsale de la cohésion, du moral et de la discipline des unités — des qualités qu’aucun système d’IA ne peut remplacer. Les chefs doivent s’assurer que la technologie améliore les capacités de leurs soldats sans diminuer l’esprit humain qui définit le service militaire (DA, 2019).

Ces changements exigent une transformation fondamentale de la philosophie de commandement des sous-officiers. La capacité à diriger dans un environnement multidomaine où soldats humains et systèmes autonomes travaillent ensemble de manière fluide sera essentielle. Les sous-officiers doivent maîtriser à la fois l’intégration tactique de ces technologies et leurs implications éthiques sur le champ de bataille.

Préserver le bien-être des soldats

Les systèmes d’IA peuvent réduire les risques physiques pour les soldats, mais ils introduisent aussi de nouveaux défis, comme les effets psychologiques de travailler aux côtés de systèmes autonomes. Les sous-officiers doivent traiter ces problèmes de manière proactive, en favorisant la communication ouverte et en apportant du mentorat pour aider les soldats à naviguer dans cette nouvelle ère de guerre.

En tant qu’épine dorsale de l’Armée, les sous-officiers sont particulièrement bien placés pour combler le fossé entre les technologies avancées et les soldats qui en dépendent. Ils doivent veiller à ce que l’IA complète les efforts humains plutôt que de les remplacer, et continuer à prioriser le bien-être et la cohésion des soldats (Hoadley & Lucas, 2018).

Préparer les sous-officiers à utiliser l’IA de manière responsable

À mesure que l’IA devient plus accessible, enseigner aux sous-officiers comment l’utiliser efficacement et éthiquement n’est plus optionnel. Que ce soit sur le champ de bataille ou dans des environnements académiques comme la Sergeants Major Academy, les sous-officiers rencontrent déjà des outils d’IA sans directives claires.

Par exemple, certaines écoles autorisent leurs étudiants à utiliser l’IA pour la recherche et le brainstorming mais pas pour produire des évaluations, et beaucoup apprennent à gérer ces limites une fois les politiques mises en place. Ce vide d’information reflète ce qui se passe dans les unités de l’Armée. Parfois, les sous-officiers doivent diriger dans un environnement en rapide évolution sans formation ni compétences suffisantes.

LIRE AUSSI 🔖  Des soldats américains avec des drones de reconnaissance de poche

L’Armée doit investir dans la culture numérique de l’IA via l’éducation militaire professionnelle, la formation fonctionnelle et les programmes de développement numérique des leaders pour combler ce fossé. Plus important encore, les sous-officiers doivent rechercher eux-mêmes des opportunités de formation, que ce soit à travers des cours approuvés par l’Armée, des partenariats avec des institutions civiles ou l’apprentissage informel entre pairs (DA, 2020).

L’Armée devrait renforcer l’éducation technique des sous-officiers en intégrant la formation sur l’IA et la robotique dans les programmes de développement, afin de préparer les chefs aux défis liés à l’intégration de ces technologies dans leurs unités. (Photo de l’U.S. Army par Spc. Adeline Witherspoon)

Recommandations pour l’avenir

  • Concentrer la formation sur les tâches fastidieuses, dangereuses et sales : l’IA doit être déployée pour exécuter les tâches pénibles, dangereuses ou logistiques, permettant aux soldats de se concentrer sur des responsabilités plus importantes (Hoadley & Lucas, 2018).
  • Réviser les règles d’engagement des systèmes autonomes : des accords internationaux doivent garantir que les systèmes autonomes opèrent dans des limites éthiques et légales claires, avec des humains conservant le contrôle des décisions létales (Altmann et al., 2013).
  • Renforcer l’éducation technique des sous-officiers : intégrer la formation à l’IA et à la robotique dans les programmes de développement pour préparer les chefs aux défis de l’intégration de ces technologies (DA, 2020).
  • Renforcer la collaboration homme-machine : promouvoir une culture de commandement qui valorise le travail d’équipe entre soldats et systèmes d’IA, en insistant sur la confiance, la responsabilité et l’adaptabilité.

Conclusion

L’essor de l’IA et des systèmes autonomes transforme indéniablement la guerre moderne, offrant des opportunités inédites mais aussi des défis majeurs pour l’armée. Ces avancées promettent une efficacité opérationnelle accrue, une meilleure précision et une réduction des risques pour la vie humaine. Cependant, elles soulèvent aussi des préoccupations éthiques, des obstacles techniques et des risques potentiels pour le commandement et la prise de décision (Altmann et al., 2013).

Malgré les capacités de l’IA, l’élément humain de la guerre reste indispensable. La pensée critique, l’adaptabilité et le jugement moral continueront de définir des opérations militaires efficaces.

L’avenir de l’Armée dépendra de chefs capables d’embrasser l’innovation sans perdre de vue les valeurs et principes qui définissent le service militaire. En s’adaptant à ces avancées et en préparant leurs unités à un champ de bataille piloté par la technologie, les sous-officiers peuvent s’assurer que l’Armée reste pragmatique, éthique et prête à relever les défis de demain. L’IA peut changer les outils de la guerre, mais l’esprit humain déterminera ultimement son issue.


Références

Altmann, J., Asaro, P., Sharkey, N., & Sparrow, R. (2013). Armed military robots: Editorial. Ethics and Information Technology, 15(1), 73–76. https://doi.org/10.1007/s10676-013-9318-1

Department of the Army. (2019). Army leadership and the profession (ADP 6-22). https://armypubs.army.mil/ProductMaps/PubForm/Details.aspx?PUB_ID=1007609

Department of the Army. (2020). U.S. Army Noncommissioned Officer Professional Development Guide (DA Pam 600-25). https://armypubs.army.mil/ProductMaps/PubForm/Details.aspx?PUB_ID=1027321

Hoadley, D. S., & Lucas, N. J. (2018). Artificial intelligence and national security. Congressional Research Service. https://crsreports.congress.gov/product/pdf/R/R45178

Natale, S., & Ballatore, A. (2017). Imagining the thinking machine: Technological myths and the rise of artificial intelligence. Convergence, 26(1), 3–18. https://doi.org/10.1177/1354856517715164

Auteur

Le Command Sgt. Maj. Eduardo I. Carranza est sergent-major commandant du 4-410 Brigade Support Battalion, 4th Cavalry Multi-Functional Training Brigade, First Army Division East. Il a précédemment servi comme sergent-major de la 953rd Theater Petroleum Center (TPC) Detachment, Fort Bragg, Caroline du Nord, et comme sergent-major du Petroleum and Water Department, Fort Lee, Virginie. Il est diplômé du Sergeants Major Academy (cours résident, Classe 70) et détient un master en études de défense et stratégiques de l’Université du Texas à El Paso.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

En savoir plus sur Intelligence Artificielle et Transhumanisme

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture