Skip to content

Intelligence artificielle : entre mythe et réalité

Les machines risquent-elles de devenir plus intelligentes que les hommes ?

Non, répond Jean-Gabriel Ganascia : il s’agit là d’un mythe inspiré par la science-fiction. Il rappelle les grandes étapes de ce domaine de recherche, les prouesses techniques actuelles et les questions éthiques qui requièrent des réponses de plus en plus urgentes.

L’intelligence artificielle est une discipline scientifique qui a vu officiellement le jour en 1956, au Dartmouth College, à Hanovre, aux États-Unis, lors d’une école d’été organisée par quatre chercheurs américains : John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon. Depuis, le terme « intelligence artificielle », qui à l’origine avait sans doute été inventé pour frapper les esprits, a fait fortune, puisqu’il est devenu très populaire au point qu’aujourd’hui plus personne ne l’ignore, que cette composante de l’informatique a pris de plus en plus d’ampleur au fil du temps et que les technologies qui en sont issues ont grandement contribué à changer le monde pendant les soixante dernières années.

Cependant, le succès du terme « intelligence artificielle » repose parfois sur un malentendu lorsqu’il désigne une entité artificielle douée d’intelligence et qui, de ce fait, rivaliserait avec les êtres humains.

Cette idée, qui renvoie à des mythes et des légendes anciennes, comme celle du Golem, a récemment été réactivée par des personnalités du monde contemporain comme le physicien britannique Stephen Hawking (1942-2018), l’entrepreneur américain Elon Musk, le futuriste américain Ray Kurzweil ou encore par les tenants de ce que l’on appelle aujourd’hui l’« IA forte » ou l’« IA générale ». Nous ne ferons toutefois pas plus état, ici, de cette acception seconde, car elle atteste uniquement d’un imaginaire foisonnant, inspiré plus par la science-fiction que par une réalité scientifique tangible confirmée par des expérimentations et des observations empiriques.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Pour John McCarthy et Marvin Minsky, comme pour les autres promoteurs de l’école d’été du Dartmouth College, l’intelligence artificielle visait initialement à la simulation, par des machines, de chacune des différentes facultés de l’intelligence, qu’il s’agisse de l’intelligence humaine, animale, végétale, sociale ou phylogénétique.

Plus précisément, cette discipline scientifique reposait sur la conjecture selon laquelle toutes les fonctions cognitives, en particulier l’apprentissage, le raisonnement, le calcul, la perception, la mémorisation, voire même la découverte scientifique ou la créativité artistique, peuvent être décrites, avec une précision telle qu’il serait possible de programmer un ordinateur pour les reproduire. Depuis plus de soixante ans que l’intelligence artificielle existe, rien n’a permis ni de démentir, ni de démontrer irréfutablement cette conjecture qui demeure à la fois ouverte et féconde.

Une histoire en dents de scie

Au cours de sa courte existence, l’intelligence artificielle a connu de nombreuses évolutions. On peut les résumer en six étapes.

Le temps des prophètes

Tout d’abord, dans l’euphorie des origines et des premiers succès, les chercheurs s’étaient laissé aller à des déclarations un peu inconsidérées qu’on leur a beaucoup reprochées par la suite.

C’est ainsi qu’en 1958, l’Américain Herbert Simon, qui deviendrait par la suite prix Nobel d’économie, avait déclaré que d’ici à dix ans les machines seraient championnes du monde aux échecs, si elles n’étaient pas exclues des compétitions internationales.

Les années sombres

Au milieu des années 1960, les progrès tardaient à se faire sentir. Un enfant de dix ans avait battu un ordinateur au jeu d’échecs en 1965 ; un rapport commandé par le Sénat américain faisait état, en 1966, des limitations intrinsèques de la traduction automatique. L’IA eut alors mauvaise presse pendant une dizaine d’années.

L’IA sémantique

Les travaux ne s’interrompirent pas pour autant, mais on axa les recherches dans de nouvelles directions. On s’intéressa à la psychologie de la mémoire, aux mécanismes de compréhension, que l’on chercha à simuler sur un ordinateur, et au rôle de la connaissance dans le raisonnement. C’est ce qui donna naissance aux techniques de représentation sémantique des connaissances, qui se développèrent considérablement dans le milieu des années 1970, et conduisit aussi à développer des systèmes dits experts, parce qu’ils recouraient au savoir d’hommes de métiers pour reproduire leurs raisonnements. Ces derniers suscitèrent d’énormes espoirs au début des années 1980 avec de multiples applications, par exemple pour le diagnostic médical.

Science des données, Machine Learning et Deep Learning

Néo-Connexionnisme et apprentissage machine

Le perfectionnement des techniques conduisit à l’élaboration d’algorithmes d’apprentissage machine (machine learning), qui permirent aux ordinateurs d’accumuler des connaissances et de se reprogrammer automatiquement à partir de leurs propres expériences.

Cela donna naissance à des applications industrielles (identification d’empreintes digitales, reconnaissance de la parole, etc.), où des techniques issues de l’intelligence artificielle, de l’informatique, de la vie artificielle et d’autres disciplines se côtoyaient pour donner des systèmes hybrides.

De l’intelligence artificielle aux interfaces homme-machine

À partir de la fin des années 1990, on coupla l’intelligence artificielle à la robotique et aux interfaces homme-machine, de façon à produire des agents intelligents qui suggèrent la présence d’affects et d’émotions. Cela donna naissance, entre autres, au calcul des émotions (affective computing), qui évalue les réactions d’un sujet ressentant des émotions et les reproduit sur une machine, et surtout au perfectionnement des agents conversationnels (chatbots).

Renaissance de l’intelligence artificielle

Depuis 2010, la puissance des machines permet d’exploiter des données de masse (big data) avec des techniques d’apprentissage profond (deep learning), qui se fondent sur le recours à des réseaux de neurones formels. Des applications très fructueuses dans de nombreux domaines (reconnaissance de la parole, des images, compréhension du langage naturel, voiture autonome, etc.) conduisent à parler d’une renaissance de l’intelligence artificielle.

Intelligence Artificielle : dimensions socio-économiques, politiques et éthiques

Applications

Beaucoup de réalisations mettant à profit des techniques d’IA dépassent les facultés humaines : une machine a vaincu, au jeu d’échecs, le champion du monde en titre en 1997 et, plus récemment, en 2016, d’autres l’ont emporté sur l’un des meilleurs joueurs au monde au jeu de go et sur d’excellents joueurs de poker ; des ordinateurs démontrent ou aident à démontrer des théorèmes mathématiques ; on construit automatiquement des connaissances à partir de masses immenses de données dont le volume se compte en téraoctets (10 12 octets), voire en pétaoctets (10 15 octets), avec les techniques d’apprentissage machine.

Grâce à ces dernières, des automates reconnaissent la parole articulée et la transcrivent, comme les secrétaires dactylographes d’antan, et d’autres identifient avec précision des visages ou des empreintes digitales parmi des dizaines de millions et comprennent des textes écrits en langage naturel. Toujours grâce à ces techniques d’apprentissage machine, des voitures se conduisent seules ; des machines diagnostiquent mieux que des médecins dermatologues des mélanomes à partir de photographies de grains de beauté prises sur la peau avec des téléphones portables ; des robots font la guerre à la place des hommes  ; et des chaînes de fabrication dans les usines s’automatisent toujours plus.

Par ailleurs, les scientifiques utilisent ces techniques pour déterminer la fonction de certaines macromolécules biologiques, en particulier de protéines et de génomes, à partir de la séquence de leurs constituants – acides aminées pour les protéines, bases pour les génomes. Plus généralement, toutes les sciences subissent une rupture épistémologique majeure avec les expérimentations dites in silico, parce qu’elles s’effectuent à partir de données massives, grâce à des processeurs puissants dont le cœur est fait de silicium, et qu’elles s’opposent en cela aux expérimentations in vivo, sur le vivant, et, surtout, in vitro, c’est-à-dire dans des éprouvettes de verre.

Ces applications de l’intelligence artificielle affectent presque tous les domaines d’activités, en particulier dans les secteurs de l’industrie, de la banque, des assurances, de la santé, de la défense : en effet, de nombreuses tâches routinières sont désormais susceptibles d’être automatisées, ce qui transforme bien des métiers et éventuellement en supprime certains.

L’initiative mondiale de l’IEEE pour les considérations éthiques en Intelligence Artificielle et des Systèmes Autonomes

Quels risques éthiques ?

Avec l’intelligence artificielle, non seulement, la plupart des dimensions de l’intelligence – sauf peut-être l’humour – font l’objet d’analyses et de reconstructions rationnelles avec des ordinateurs, mais de plus les machines outrepassent nos facultés cognitives dans la plupart des domaines, ce qui fait craindre à certains des risques éthiques. Ces risques sont de trois ordres : la raréfaction du travail, qui serait exécuté par des machines à la place des hommes ; les conséquences pour l’autonomie de l’individu, en particulier pour sa liberté et sa sécurité ; le dépassement de l’humanité qui disparaîtrait au profit de machines plus « intelligentes ».

Or, un examen de détail montre que le travail ne disparaît pas, bien au contraire, mais qu’il se transforme et fait appel à de nouvelles compétences. De même, l’autonomie de l’individu et sa liberté ne sont pas inéluctablement remises en cause par le développement de l’intelligence artificielle, à condition toutefois de demeurer vigilants face aux intrusions de la technologie dans la vie privée.

Enfin, contrairement à ce que certains prétendent, les machines ne constituent aucunement un risque existentiel pour l’humanité, car leur autonomie n’est que d’ordre technique, en cela qu’elle ne correspond qu’à des chaînes de causalités matérielles qui vont de la prise d’information à la décision ; en revanche, les machines n’ont pas d’autonomie morale, car, même s’il arrive qu’elles nous déroutent et nous fourvoient dans le temps de l’action, elles n’ont pas de volonté propre et restent asservies aux objectifs que nous leur avons fixés.

Professeur d’informatique à Sorbonne Université, Jean-Gabriel Ganascia (France) est également chercheur au LIP6, EurAI fellow, membre de l’Institut Universitaire de France et président du comité d’éthique du CNRS. Ses activités de recherche portent actuellement sur l’apprentissage machine, la fusion symbolique de données, l’éthique computationnelle, l’éthique des ordinateurs et les humanités numériques.

Le Courrier de l’UNESCO • juillet-septembre 2018

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Shares