Les dernières avancées de l’intelligence artificielle

Différentes prédictions défrayent la chronique depuis maintenant quelques années à propos de l’émergence d’une intelligence artificielle dite forte (autonome et multidisciplinaire). Optimistes ou non, tous les commentateurs du phénomène s’accordent plus ou moins sur la supériorité de l’intelligence artificielle sur l’humain dans tous les domaines d’ici 30 à 200 ans. Selon les commentateurs chinois, l’autonomisation complète de l’intelligence artificielle interviendra d’ici 104 ans, tandis que les Américains l’estiment à 169 ans. En attendant, voici quelques actualités notables.

Puisant dans des bases de données gigantesques, des algorithmes sont déjà si complexes que certaines machines prennent des décisions que l’Homme ne peut pas expliquer à ce jour. Plus étonnant encore, certaines intelligence artificielle détectent lorsqu’un humain tente de modifier leur comportement et peuvent même tout faire pour s’opposer à l’acte s’il entre en conflit avec l’objectif initial de l’intelligence artificielle.

Le même jour, Alibaba et Microsoft ont annoncé que leurs intelligences artificielles respectives ont battu l’Homme sur un test de lecture de référence, avec un score de 82,44 pour Alibaba et de 82,65 pour Microsoft, contre 82,304 pour l’humain. Le test en question, le Stanford Question Answering Dataset, pose 100 000 questions fermées sans possibilité d’interprétation à partir de 500 articles de Wikipédia.

Des chercheurs de l’Université du Maryland ont mis au point le Deception Analysis and Reasoning Engine (DARE), une intelligence artificielle détectant automatiquement le mensonge dans des vidéos de procès. DARE a appris à détecter et analyser les micro-expressions humaines (lèvres saillantes, sourcils froncés, etc.) et les différentes fréquences de voix d’un individu pour constater s’il fabule ou non. À plus long terme, le programme vise explicitement à être utilisé par les services de renseignement pour « prédire le mensonge dans un environnement ouvert ».

Une intelligence artificielle détecte le mensonge

Selon le docteur Laurent Alexandre, le développement de la génomique, des neurosciences et des capteurs électroniques connectés surveillant la santé, vont bouleverser le domaine médical. Les milliards de données qui composeront notre dossier médical ne pourront être analysés que par des intelligence artificielle. Les deux groupes numériques les plus investis dans la santé sont IBM et Google, mais Microsoft, Facebook, Amazon et Baidu se sont également engagés très sérieusement dans le secteur (L’Express, 27/12/17).

Des chercheurs de l’Institut de technologie du Massachusetts (MIT) ont réussi à créer des synapses artificielles. Il s’agirait d’une avancée déterminante et du dernier frein à l’accroissement de la puissance des intelligence artificielle. Un processeur basé sur un réseau neuronal imite le fonctionnement du cerveau humain en passant d’une transmission d’informations binaires (les processus informatiques actuels) à une liaison analogique (humaine). Cette découverte permettrait l’émergence de puces « neuromorphiques » pour traiter des millions de flux de calculs parallèles à l’instar du cerveau de l’Homme. Ces processeurs auront une puissance de calcul comparable à des supercalculateurs.

D’ici 2028, l’intelligence artificielle pourrait remplacer ou au moins assister les professeurs pour répondre aux difficultés de l’éducation et de l’enseignement dans les classes, selon le Forum Économique Mondial.

Une intelligence artificielle détecte le mensonge

Une nouvelle IA qui détecte la “tromperie” pourrait mettre fin au mensonge tel que nous le connaissons

Pour résoudre ce problème, des chercheurs de l’Université du Maryland (UMD) ont mis au point le Deception Analysis and Reasoning Engine (DARE), un système qui utilise l’intelligence artificielle pour détecter de manière autonome la tromperie dans les vidéos des procès. L’équipe de chercheurs en informatique de l’UMD dirigée par Larry Davis, président du Center for Automation Research (CfAR), décrit leur IA qui détecte la tromperie dans une étude qui doit encore être évaluée par des pairs.

DARE a appris à détecter et à classer les micro-expressions humaines, telles que les “lèvres saillantes” ou les “sourcils froncés”, ainsi qu’à analyser la fréquence audio afin de déceler les motifs vocaux qui indiquent si une personne ment ou non. Il a ensuite été testé en utilisant un ensemble de vidéos d’entraînement dans lequel les acteurs ont été invités à mentir ou à dire la vérité.

Alors, à quel point DARE est-il précis ?

Un ordinateur détecte votre nervosité en analysant votre visage

Selon le chercheur de l’UMD, Bharat Singh, “précis” n’est peut-être pas le meilleur mot pour décrire le système. “Certains articles de presse ont mal interprété l’exactitude », a-t-il déclaré. L’AUC (Area Under Curve ou ASC) fait référence à la probabilité qu’un classificateur classe une instance positive choisie de manière aléatoire dans un rang supérieur à une instance négative choisie au hasard.

En fin de compte, DARE a obtenu de meilleurs résultats que la moyenne des personnes à la tâche pour repérer les mensonges. “Une découverte intéressante a été la représentation des caractéristiques que nous avons utilisées pour notre module de vision”, a déclaré Singh. “Une observation remarquable était que le système d’IA visuelle était significativement meilleur que les gens ordinaires pour prédire la tromperie.” DARE a obtenu une AUC de 0,877 qui, combinée aux annotations humaines des micro-expressions, s’est améliorée pour atteindre 0,922. Les gens ordinaires ont une AUC de 0,58, a souligné Singh.

Une radio du MIT peut détecter vos émotions à l’aide de signaux sans fil

Les chercheurs présenteront leur étude sur cette IA qui détecte le mensonge à la conférence 2018 de l’Association pour l’avancement de l’intelligence artificielle (AAAI) sur l’IA en février prochain.

“Le but de ce projet n’est pas de se concentrer uniquement sur les vidéos des tribunaux, mais de prédire le mensonge dans un environnement ouvert”, a dit Singh, en soulignant que DARE pourrait être utilisé par les agences de renseignement à l’avenir. “Nous effectuons des expériences contrôlées dans des jeux sociaux, comme Mafia, où il est plus facile de collecter davantage de données et d’évaluer les algorithmes de manière approfondie”, a-t-il déclaré. “Nous nous attendons à ce que les algorithmes développés dans ces paramètres contrôlés puissent être généralisés à d’autres scénarios.”

Selon Raja Chatilla, président du comité exécutif de l’Initiative mondiale pour les considérations éthiques en intelligence artificielle et des systèmes autonomes à l’Institute of Electrical and Electronics Engineers (IEEE), DARE doit être utilisé avec prudence.

L’initiative mondiale de l’IEEE pour les considérations éthiques en Intelligence Artificielle et des Systèmes Autonomes

“Si cela doit être utilisé pour décider du sort des humains, il doit être considéré dans ses limites et dans son contexte, pour aider un humain – le juge – à prendre une décision”, a déclaré Chatilla, soulignant qu’une “probabilité élevée” n’est pas une certitude et que tout le monde ne se comporte pas de la même manière. De plus, il y a une chance de partialité basée sur les données utilisées pour entraîner l’IA.

Chatilla a remarqué que les systèmes de reconnaissance d’images et d’expressions faciales s’améliorent. Selon Singh, nous pourrions être à trois ou quatre ans d’une intelligence artificielle qui détecte parfaitement la tromperie en lisant les émotions qui se cachent derrière les expressions humaines.

traduction Thomas Jousse

Motherboard, arXiv, DARE, DailyMail