Skip to content

Vers une intelligence artificielle forte ?

En 1997, la victoire de l’ordinateur Deep Blue sur le joueur d’échecs Gary Kasparov avait déjà été interprétée comme une défaite de l’humanité face aux machines ; celle du programme Watson au jeu Jeopardy en 2011 était venue enfoncer le clou. L’affrontement récent entre le programme informatique AlphaGo de DeepMind, intelligence artficielle de Google, et le champion sud-coréen et numéro trois mondial du jeu de go, Lee Sedol, a logiquelent été décrit comme une étape supplémentaire du même drame menant inexorablement à l’avènement d’une intelligence artificielle (IA) forte susceptible d’égaler l’être humain et de le dépasser dans toutes ses activités. Dernier jeu classique à résister à la machine, le go implique la maîtrise de paramètres nombreux et une puissance de calcul bien supérieure au jeu d’échecs : le nombre de combinaisons à explorer s’élève à 10170, contre 10120 aux échecs [1].

Plus encore que sa puissance, le mode d’apprentissage d’AlphaGo a retenu l’attention des commentateurs : ni force brute ni même apprentissage statistique, mais une utilisation du deep learning permettant à la machine de s’entraîner elle-même [2]. Sans contester ici l’indéniable succès technique que représente cette performance, on peut toutefois rappeler que le jeu de go constitue, malgré sa complexité, un environnement totalement contrôlé, donc adapté à l’automatisation, comme l’était d’ailleurs, d’une autre manière, le jeu Jeopardy favorisant le recours aux bases de données. D’une certaine façon, on pourrait presque s’étonner du temps qu’auront demandé de telles percées en se souvenant que les chercheurs Herbert Simon et Allen Newell prévoyaient, en 1958, un ordinateur champion du monde d’échecs dès le début des années 1970 [3]. Les nombreux obstacles techniques surmontés peu à peu pour la modélisation de seules tâches formelles ont montré, depuis, combien ces pronostics pouvaient être optimistes.

À rebours des craintes comme des prévisions grandioses [4], c’est plutôt ainsi la complexité de la tâche à laquelle s’attelle l’intelligence artificielle qui doit être soulignée. Les singularistes qui, tablant sur la loi de Moore (doublement tous les 18 mois du nombre de microprocesseurs sur une puce de silicium), prévoient le dépassement des capacités humaines à l’horizon 2030, omettent en premier lieu un certain nombre de contraintes [5] physiques et techniques. La miniaturisation s’approche actuellement du niveau atomique où prévalent des phénomènes d’indétermination quantique, et les solutions techniques esquissées peuvent s’avèrerer aussi coûteuses et longues à industrialiser que limitées [6].

LIRE AUSSI 🔖  IA : la productivité humaine passe à la vitesse supérieure sur le lieu de travail

Au-delà, les résultats apportés par les neurosciences lors des 15 dernières années ont enrichi notre compréhension du fonctionnement cérébral et de sa complexité. En faisant abstraction des bases chimiques du cerveau, on peut estimer ses capacités de calcul à 1,075×1021 flops, un million de fois supérieures au plus puissant calculateur existant ; une puissance qui pourrait ne devenir accessible qu’à l’horizon d’un siècle [7].

La difficulté s’accroît encore lorsqu’on ne considère plus la seule capacité de calcul mais l’exécution de tâches plus ou moins déterminées. Si la modélisation de capacités précises (reconnaissance, mobilité, etc.) a fait ces dernières années des progrès indéniables et permet la mise en place de briques intelligentes dans de nombreuses activités [8] ainsi qu’un accroissement des mouvements d’automatisation et de robotisation [9], si l’imitation de la structure cérébrale jusque dans sa matérialité fournit elle aussi des pistes stimulantes [10], la capacité d’interaction d’une machine, fût-ce pour mener une simple conversation, reste limitée.

L’intelligence artificielle organisée par domaines

Mills Michael, « Artificial Intelligence in Law: The State of Play in 2015? », LegalIT Insider, 3 novembre 2015

Mills Michael, « Artificial Intelligence in Law: The State of Play in 2015? », LegalIT Insider, 3 novembre 2015

L’intelligence artificielle organisée par tâches 

Ezratty Olivier, « Les avancées de l’intelligence artificielle - 1 », Opinions libres, 6 mars 2016

Ezratty Olivier, « Les avancées de l’intelligence artificielle – 1 », Opinions libres, 6 mars 2016

 

Ezratty Olivier, « Les avancées de l’intelligence artificielle - 1 », Opinions libres, 6 mars 2016

Ezratty Olivier, « Les avancées de l’intelligence artificielle – 1 », Opinions libres, 6 mars 2016

Les remises en cause des a priori des recherches en cours, enfin, et en particulier des modèles symboliques ou connexionnistes de l’intelligence qui les sous-tendent, sont anciennes. Dès les années 1990, Terry Winograd invitait la communauté des chercheurs à interroger le concept d’intelligence, inséparable selon lui de l’engagement dans un monde, d’une contextualité [11]. Selon Alain Cardon [12], une intelligence artificielle forte est inséparable de la modélisation d’une psyché, dans ses dimensions à la fois affective et sensible. Mais l’opportunité de donner des défauts humains aux machines pour simuler chez elles une intelligence proche de la nôtre doit elle-même être questionnée : quel est finalement l’intérêt d’une telle machine qui n’en est plus une ?

Forestier Florian, Docteur en philosophie, chercheur associé à Paris IV, Futuribles

LIRE AUSSI 🔖  Des synapses artificielles sont capables d'apprendre de manière autonome

Notes

[1] « Jeu de go : première victoire de Lee Sedol contre l’intelligence artificielle de Google », Le Monde, 13 mars 2016.

[2] « Chaque réseau est composé de 12 couches contenant chacune des millions de connexions neuronales. Les “réseaux politiques” ont été entraînés avec une base de données de 30 millions de coups provenant de parties jouées par des experts jusqu’à ce qu’ils puissent prédire un mouvement 57 % du temps. Mais pour qu’AlphaGo puisse développer ses propres stratégies de jeu, DeepMind a eu recours à un apprentissage renforcé en lui faisant jouer des milliers de parties contre lui-même. Puis, les réseaux politiques ont été utilisés pour entraîner les réseaux de valeur, toujours par apprentissage renforcé », in Zaffagni Marc, « AlphaGo, de Google : la victoire de l’intelligence artificielle au go », Futura-Sciences, 28 janvier 2016.

[3] Ezratty Olivier, « Intelligence artificielle : quelles sont les avancées ? », FrenchWeb.fr, 15 mars 2016.

[4] « Les 37 projets d’Elon Musk contre les dangers de l’intelligence artificielle », Le Monde, 6 juillet 2015.

[5] Dettmers Tim, « The Brain Vs Deep Learning Part I: Computational Complexity — Or Why the Singularity Is Nowhere Near », blog Tim Dettmers, 27 juillet 2015 ; Gévaudan Camille, « Microprocesseurs : la loi de Moore patine, et c’est tant mieux », Libération, 17 février 2016.

[6] Sur ce point, voir le dossier: « After Moore’s Law. The Future of Computing », The Economist, 12 mars 2016 ; voir en particulier, concernant l’inefficacité des ordinateurs comparés aux cerveaux en termes de traitement des informations : « Technology Quarterly After Moore’s Law ».

[7] Dettmers Tim, op. cit.

[8] « À terme tous les domaines pourraient ainsi être impactés par l’intelligence artificielle. Pas tous les domaines […] mais chaque domaine », in Richardin Anaïs, « On est loin d’avoir une intelligence artificielle qui dépasse l’homme », Maddyness, 18 mars 2016.

[9] Buffard Cécile, « Les robots, meilleurs amis de l’homme ? Entretiens croisés Serge Tisseron, Florian Forestier et Alain Bensoussan », Pointsdevente.fr, 6 décembre 2015.

[10] Ezratty Olivier, op. cit.

[11] Winograd Terry, « Heidegger et la conception des systèmes informatiques », Intellectica, vol. 2, n° 17, 1993, p. 51-78 ; Forestier Florian, « La main invisible », NonFiction, 20 septembre 2011.

[12] « Alain Cardon, chercheur en intelligence artificielle » (propos recueillis par Jean-Paul Baquiast et Christophe Jacquemin), Automates intelligents, 2 avril 2001.