Google DeepMind et FHI collaborent pour présenter un système de neutralisation de l’IA
Safely Interruptible Agents (agents interruptibles en toute sécurité) Télécharger le PDF de l’étude.
Les Universitaires d’ Oxford font équipe avec Google DeepMind pour rendre l’intelligence artificielle plus sûre. Laurent Orseau, de Google DeepMind, et Stuart Armstrong, du Future of Humanity Institute à l’Université d’Oxford, présenteront leurs travaux de recherche sur le renforcement de l’apprentissage de l’agent d’interruptibilité à l’AUI 2016. La conférence, l’une des plus prestigieuses dans le domaine du machine learning, se tiendra à New York à partir du 25-29 juin. Le document qui a résulté de cette recherche collaborative sera publié dans le compte rendu de la 32e Conférence sur l’incertitude dans l’intelligence artificielle (UAI).
La recherche d’Orseau et Armstrong explore une méthode pour faire en sorte que l’apprentissage par renforcement de la machine (un agent) peut être interrompu à plusieurs reprises en toute sécurité par des surveillants humains ou automatiques : inclure un mécanisme d’urgence. Cela garantit que les agents n’«apprennent» pas de ces interruptions et ne prennent pas de mesures pour éviter ou manipuler les interruptions : s’assurer que la machine n’apprendra pas à planifier autour de ce mécanisme.
Lire la suite du Communiqué de presse
Le Directeur de l’IARPA (Director of the Intelligence Advanced Research Projects Activity), Jason Matheny, un ancien chercheur à FHI, discute des prévisions et des risques des nouvelles technologies.