Skip to content

Palantir présente une IA capable de faire la guerre

Palantir affirme que sa plateforme d’intelligence artificielle (Artificial Intelligence Platform – AIP) intégrera l’IA dans la prise de décision militaire d’une manière légale et éthique.

Palantir, la société du milliardaire Peter Thiel, lance Artificial Intelligence Platform (AIP), un logiciel destiné à faire fonctionner de grands modèles de langage comme GPT-4 et des alternatives sur des réseaux privés. Dans l’une de ses vidéos de présentation, Palantir montre comment une armée pourrait utiliser l’AIP pour mener une guerre. Dans la vidéo, l’opérateur utilise un chatbot de type ChatGPT pour ordonner la reconnaissance par drone, générer plusieurs plans d’attaque et organiser le brouillage des communications ennemies.

Dans le scénario de Palantir, un « opérateur militaire chargé de surveiller les activités en Europe de l’Est » reçoit une alerte de l’AIP indiquant qu’un ennemi rassemble du matériel militaire à proximité de forces amies. L’opérateur demande alors au chatbot de lui montrer plus de détails, obtient un peu plus d’informations, puis demande à l’IA de deviner quelles sont les unités en question.

« Ils demandent quelles sont les unités ennemies présentes dans la région et s’appuient sur l’IA pour élaborer une formation d’unités probable », explique la vidéo. Après avoir obtenu la meilleure estimation de l’IA sur ce qui se passe, l’opérateur demande à l’IA de prendre de meilleures photos. Celle-ci lance un drone Reaper MQ-9 pour prendre des photos et l’opérateur découvre la présence d’un char T-80, un véhicule russe de l’ère soviétique, à proximité des forces amies.

L’opérateur demande ensuite aux robots ce qu’ils doivent faire. « L’opérateur utilise l’AIP pour générer trois plans d’action possibles afin de cibler l’équipement ennemi », explique la vidéo. « Ensuite, il utilise l’AIP pour envoyer automatiquement ces options à la chaîne de commandement. Les options comprennent l’attaque du char avec un F-16, de l’artillerie à longue portée ou des missiles Javelin. Selon la vidéo, l’IA indiquera même à chacun si les troupes à proximité disposent de suffisamment de Javelins pour mener à bien la mission et automatisera les systèmes de brouillage.

Bien qu’il y ait un « humain dans la boucle » dans la démonstration de l’AIP, il semble qu’il ne fasse guère plus que demander au chatbot ce qu’il doit faire et approuver ensuite ses actions. La guerre des drones a déjà rendu la guerre abstraite, permettant aux gens de tuer plus facilement sur de vastes distances en appuyant sur un bouton. Les conséquences de ces systèmes sont bien documentées. Dans la vision de Palantir de l’avenir de la guerre, d’autres systèmes seraient automatisés et abstraits.

Palantir ne vend pas non plus une IA ou un grand modèle de langage (LLM) spécifique à l’armée, mais propose d’intégrer des systèmes existants dans un environnement contrôlé. La démonstration de l’AIP montre que le logiciel prend en charge différents LLM libres, ainsi que plusieurs modules d’extension personnalisés.

Même les systèmes d’IA les plus perfectionnés du marché présentent de nombreux problèmes connus qui peuvent rendre cauchemardesque le fait de leur demander ce qu’il faut faire dans une zone de guerre. Par exemple, ils sont enclins à inventer des choses ou à « halluciner ».

GPT-NeoX-20B en particulier est une alternative open-source à GPT-3, une version précédente du modèle de langage d’OpenAI, créée par une startup appelée EleutherAI. L’un des modèles open-source d’EleutherAI, a récemment convaincu un Belge qui lui avait parlé pendant six semaines de se suicider.

Ce que Palantir offre, c’est l’illusion de la sécurité et du contrôle pour le Pentagone alors qu’il commence à adopter l’IA. « Les LLM et les algorithmes doivent être contrôlés dans ce contexte hautement réglementé et sensible afin de s’assurer qu’ils sont utilisés de manière légale et éthique ».

Selon Palantir, ce contrôle repose sur trois piliers. Le premier est que l’AIP sera en mesure de déployer ces systèmes dans des réseaux classifiés et des « dispositifs à la périphérie tactique ». Elle affirme qu’elle sera en mesure d’analyser les données classifiées et en temps réel de manière responsable, légale et éthique.

LIRE AUSSI 🔖  L’US Navy aurait expérimenté une arme de modification de l'espace-temps

Selon la vidéo, les utilisateurs pourront alors contrôler ce que chaque LLM et IA du système soutenu par Palantir peut faire. « Les caractéristiques de sécurité de l’AIP indiquent ce que les LLM et l’IA peuvent et ne peuvent pas voir, et ce qu’ils peuvent et ne peuvent pas faire », explique la vidéo. « Au fur et à mesure que les opérateurs agissent, l’AIP génère un enregistrement numérique sécurisé des opérations. Ces capacités sont cruciales pour atténuer les risques juridiques, réglementaires et éthiques importants dans les environnements sensibles et classifiés.

La moitié de la vidéo est un cas d’utilisation de l’IA dans l’armée, l’autre moitié est une vue de l’arrière-plan du système. Il s’agit d’une visite des garde-fous que l’AIP est censé mettre en place autour de ces LLM pour les sécuriser et contrôler qui a accès à quel type d’information.

Ce que l’AIP ne fait pas, c’est expliquer comment elle envisage de traiter les divers problèmes pernicieux des LLM et quelles pourraient en être les conséquences dans un contexte militaire. L’AIP ne semble pas proposer de solutions à ces problèmes au-delà des « cadres » et des « garde-fous » dont elle promet qu’ils rendront l’utilisation de l’IA militaire « éthique » et « légale ».

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.