Skip to content

Google Brain et Kaggle veulent préparer des systèmes d’IA pour les cyberattaques super-intelligentes

La meilleure défense contre l’IA malveillante est l’intelligence artificielle

Une nouvelle compétition annonce ce qui risque de devenir l’avenir de la cybersécurité et de la cyberguerre, avec des algorithmes d’IA offensifs et défensifs en pleine guerre.

Google Brain et la plate-forme de science des données Kaggle ont annoncé un « AI Fight Club » pour former des systèmes d’apprentissage machine (machine learning) sur la façon de lutter contre l’intelligence artificielle malveillante. Au fur et à mesure que les systèmes informatiques deviennent plus intelligents, les cyberattaques deviennent plus difficiles à défendre et ce concours pourrait contribuer à éclairer les vulnérabilités imprévues.

Lorsque l’intelligence artificielle est discutée aujourd’hui, la plupart des gens se réfèrent à des algorithmes d’apprentissage automatique ou à des systèmes d’apprentissage en profondeur (deep learning). Bien que l’intelligence artificielle ait progressivement progressé au cours des années, le principe derrière ces technologies reste le même. Quelqu’un forme un système pour recevoir certaines données et lui demande de produire un résultat spécifié – il appartient à la machine de développer son propre algorithme pour atteindre ce résultat.

Bien que nous avons pu créer des systèmes très intelligents, ils ne sont pas infaillibles.

La plate-forme de compétition sur les sciences des données, Kaggle, veut préparer des systèmes d’intelligence artificielle pour les cyberattaques super-intelligentes, et ils le font en mettant l’intelligence artificielle contre l’intelligence artificielle dans un concours baptisé « Competition on Adversarial Attacks and Defenses » (compétition sur les attaques et défenses adverses). La bataille est organisée par Google Brain et fera partie de la Neural Information Processing Systems (NIPS) Foundation’s 2017 Competition Track plus tard cette année. (Fondation des systèmes de traitement des informations neurales – NIPS, conférence scientifique en intelligence artificielle et neurosciences computationnelles).

Ce AI Fight Club mettra en vedette trois défis contradictoires. La première (attaque contradictoire non ciblée) implique l’obtention d’algorithmes pour confondre un système d’apprentissage machine (machine learning) afin qu’il ne fonctionne pas correctement. Une autre bataille (attaque adversaire ciblée) nécessite de former une intelligence artificielle pour obliger une autre à classer les données de manière incorrecte. Le troisième défi (défense contre les attaques contradictoires) vise à renforcer les défenses d’un système intelligent.

« C’est une idée géniale de catalyser la recherche sur les réseaux de neurones en colère et la conception de réseaux de neurones profonds qui ne peuvent pas être trompés », a déclaré Jeff Clune à MIT Technology Review, un professeur assistant de l’Université du Wyoming dont le travail implique d’étudier les limites des systèmes d’apprentissage machine.

L’IA est plus répandue que ce que la plupart des gens pensent, et à mesure que les systèmes informatiques deviennent plus avancés, l’utilisation des algorithmes d’apprentissage machine (machine learning) est devenue plus fréquente. Le problème est que la même technologie intelligente peut être utilisée pour saper ces systèmes.

« La sécurité informatique évolue vers le machine learning », a déclaré le chercheur de Google Brain, Ian Goodfellow, au MIT Technology Review. « Les méchants utiliseront le machine learning pour automatiser leurs attaques, et nous utiliserons le machine learning pour se défendre. »

« Le machine learning de l’adversaire est plus difficile à étudier que le machine learning classique », a expliqué Goodfellow. « Il est difficile de dire si votre attaque est forte ou si votre défense est en fait faible ».

Le concours de Kaggle pourrait faire la lumière sur les nouvelles vulnérabilités de l’intelligence artificielle qui doivent être prises en compte dans les réglementations futurs et, en continuant à approfondir le développement de l’intelligence artificielle, nous pouvons faire en sorte que la technologie ne soit pas utilisée pour des moyens néfastes à l’avenir.

MIT Tech Review, Kaggle

Laisser un commentaire

Shares