Intelligence artificielle : entre mythe et réalité

Les machines risquent-elles de devenir plus intelligentes que les hommes ?

Non, répond Jean-Gabriel Ganascia : il s’agit là d’un mythe inspiré par la science-fiction. Il rappelle les grandes étapes de ce domaine de recherche, les prouesses techniques actuelles et les questions éthiques qui requièrent des réponses de plus en plus urgentes.

L’intelligence artificielle est une discipline scientifique qui a vu officiellement le jour en 1956, au Dartmouth College, à Hanovre, aux États-Unis, lors d’une école d’été organisée par quatre chercheurs américains : John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon. Depuis, le terme « intelligence artificielle », qui à l’origine avait sans doute été inventé pour frapper les esprits, a fait fortune, puisqu’il est devenu très populaire au point qu’aujourd’hui plus personne ne l’ignore, que cette composante de l’informatique a pris de plus en plus d’ampleur au fil du temps et que les technologies qui en sont issues ont grandement contribué à changer le monde pendant les soixante dernières années.

Cependant, le succès du terme « intelligence artificielle » repose parfois sur un malentendu lorsqu’il désigne une entité artificielle douée d’intelligence et qui, de ce fait, rivaliserait avec les êtres humains.

Cette idée, qui renvoie à des mythes et des légendes anciennes, comme celle du Golem, a récemment été réactivée par des personnalités du monde contemporain comme le physicien britannique Stephen Hawking (1942-2018), l’entrepreneur américain Elon Musk, le futuriste américain Ray Kurzweil ou encore par les tenants de ce que l’on appelle aujourd’hui l’« IA forte » ou l’« IA générale ». Nous ne ferons toutefois pas plus état, ici, de cette acception seconde, car elle atteste uniquement d’un imaginaire foisonnant, inspiré plus par la science-fiction que par une réalité scientifique tangible confirmée par des expérimentations et des observations empiriques.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Pour John McCarthy et Marvin Minsky, comme pour les autres promoteurs de l’école d’été du Dartmouth College, l’intelligence artificielle visait initialement à la simulation, par des machines, de chacune des différentes facultés de l’intelligence, qu’il s’agisse de l’intelligence humaine, animale, végétale, sociale ou phylogénétique.

Plus précisément, cette discipline scientifique reposait sur la conjecture selon laquelle toutes les fonctions cognitives, en particulier l’apprentissage, le raisonnement, le calcul, la perception, la mémorisation, voire même la découverte scientifique ou la créativité artistique, peuvent être décrites, avec une précision telle qu’il serait possible de programmer un ordinateur pour les reproduire. Depuis plus de soixante ans que l’intelligence artificielle existe, rien n’a permis ni de démentir, ni de démontrer irréfutablement cette conjecture qui demeure à la fois ouverte et féconde.

Une histoire en dents de scie

Au cours de sa courte existence, l’intelligence artificielle a connu de nombreuses évolutions. On peut les résumer en six étapes.

Le temps des prophètes

Tout d’abord, dans l’euphorie des origines et des premiers succès, les chercheurs s’étaient laissé aller à des déclarations un peu inconsidérées qu’on leur a beaucoup reprochées par la suite.

C’est ainsi qu’en 1958, l’Américain Herbert Simon, qui deviendrait par la suite prix Nobel d’économie, avait déclaré que d’ici à dix ans les machines seraient championnes du monde aux échecs, si elles n’étaient pas exclues des compétitions internationales.

Les années sombres

Au milieu des années 1960, les progrès tardaient à se faire sentir. Un enfant de dix ans avait battu un ordinateur au jeu d’échecs en 1965 ; un rapport commandé par le Sénat américain faisait état, en 1966, des limitations intrinsèques de la traduction automatique. L’IA eut alors mauvaise presse pendant une dizaine d’années.

L’IA sémantique

Les travaux ne s’interrompirent pas pour autant, mais on axa les recherches dans de nouvelles directions. On s’intéressa à la psychologie de la mémoire, aux mécanismes de compréhension, que l’on chercha à simuler sur un ordinateur, et au rôle de la connaissance dans le raisonnement. C’est ce qui donna naissance aux techniques de représentation sémantique des connaissances, qui se développèrent considérablement dans le milieu des années 1970, et conduisit aussi à développer des systèmes dits experts, parce qu’ils recouraient au savoir d’hommes de métiers pour reproduire leurs raisonnements. Ces derniers suscitèrent d’énormes espoirs au début des années 1980 avec de multiples applications, par exemple pour le diagnostic médical.

Science des données, Machine Learning et Deep Learning

Néo-Connexionnisme et apprentissage machine

Le perfectionnement des techniques conduisit à l’élaboration d’algorithmes d’apprentissage machine (machine learning), qui permirent aux ordinateurs d’accumuler des connaissances et de se reprogrammer automatiquement à partir de leurs propres expériences.

Cela donna naissance à des applications industrielles (identification d’empreintes digitales, reconnaissance de la parole, etc.), où des techniques issues de l’intelligence artificielle, de l’informatique, de la vie artificielle et d’autres disciplines se côtoyaient pour donner des systèmes hybrides.

De l’intelligence artificielle aux interfaces homme-machine

À partir de la fin des années 1990, on coupla l’intelligence artificielle à la robotique et aux interfaces homme-machine, de façon à produire des agents intelligents qui suggèrent la présence d’affects et d’émotions. Cela donna naissance, entre autres, au calcul des émotions (affective computing), qui évalue les réactions d’un sujet ressentant des émotions et les reproduit sur une machine, et surtout au perfectionnement des agents conversationnels (chatbots).

Renaissance de l’intelligence artificielle

Depuis 2010, la puissance des machines permet d’exploiter des données de masse (big data) avec des techniques d’apprentissage profond (deep learning), qui se fondent sur le recours à des réseaux de neurones formels. Des applications très fructueuses dans de nombreux domaines (reconnaissance de la parole, des images, compréhension du langage naturel, voiture autonome, etc.) conduisent à parler d’une renaissance de l’intelligence artificielle.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Applications

Beaucoup de réalisations mettant à profit des techniques d’IA dépassent les facultés humaines : une machine a vaincu, au jeu d’échecs, le champion du monde en titre en 1997 et, plus récemment, en 2016, d’autres l’ont emporté sur l’un des meilleurs joueurs au monde au jeu de go et sur d’excellents joueurs de poker ; des ordinateurs démontrent ou aident à démontrer des théorèmes mathématiques ; on construit automatiquement des connaissances à partir de masses immenses de données dont le volume se compte en téraoctets (10 12 octets), voire en pétaoctets (10 15 octets), avec les techniques d’apprentissage machine.

Grâce à ces dernières, des automates reconnaissent la parole articulée et la transcrivent, comme les secrétaires dactylographes d’antan, et d’autres identifient avec précision des visages ou des empreintes digitales parmi des dizaines de millions et comprennent des textes écrits en langage naturel. Toujours grâce à ces techniques d’apprentissage machine, des voitures se conduisent seules ; des machines diagnostiquent mieux que des médecins dermatologues des mélanomes à partir de photographies de grains de beauté prises sur la peau avec des téléphones portables ; des robots font la guerre à la place des hommes  ; et des chaînes de fabrication dans les usines s’automatisent toujours plus.

Par ailleurs, les scientifiques utilisent ces techniques pour déterminer la fonction de certaines macromolécules biologiques, en particulier de protéines et de génomes, à partir de la séquence de leurs constituants – acides aminées pour les protéines, bases pour les génomes. Plus généralement, toutes les sciences subissent une rupture épistémologique majeure avec les expérimentations dites in silico, parce qu’elles s’effectuent à partir de données massives, grâce à des processeurs puissants dont le cœur est fait de silicium, et qu’elles s’opposent en cela aux expérimentations in vivo, sur le vivant, et, surtout, in vitro, c’est-à-dire dans des éprouvettes de verre.

Ces applications de l’intelligence artificielle affectent presque tous les domaines d’activités, en particulier dans les secteurs de l’industrie, de la banque, des assurances, de la santé, de la défense : en effet, de nombreuses tâches routinières sont désormais susceptibles d’être automatisées, ce qui transforme bien des métiers et éventuellement en supprime certains.

L’initiative mondiale de l’IEEE pour les considérations éthiques en Intelligence Artificielle et des Systèmes Autonomes

Quels risques éthiques ?

Avec l’intelligence artificielle, non seulement, la plupart des dimensions de l’intelligence – sauf peut-être l’humour – font l’objet d’analyses et de reconstructions rationnelles avec des ordinateurs, mais de plus les machines outrepassent nos facultés cognitives dans la plupart des domaines, ce qui fait craindre à certains des risques éthiques. Ces risques sont de trois ordres : la raréfaction du travail, qui serait exécuté par des machines à la place des hommes ; les conséquences pour l’autonomie de l’individu, en particulier pour sa liberté et sa sécurité ; le dépassement de l’humanité qui disparaîtrait au profit de machines plus « intelligentes ».

Or, un examen de détail montre que le travail ne disparaît pas, bien au contraire, mais qu’il se transforme et fait appel à de nouvelles compétences. De même, l’autonomie de l’individu et sa liberté ne sont pas inéluctablement remises en cause par le développement de l’intelligence artificielle, à condition toutefois de demeurer vigilants face aux intrusions de la technologie dans la vie privée.

Enfin, contrairement à ce que certains prétendent, les machines ne constituent aucunement un risque existentiel pour l’humanité, car leur autonomie n’est que d’ordre technique, en cela qu’elle ne correspond qu’à des chaînes de causalités matérielles qui vont de la prise d’information à la décision ; en revanche, les machines n’ont pas d’autonomie morale, car, même s’il arrive qu’elles nous déroutent et nous fourvoient dans le temps de l’action, elles n’ont pas de volonté propre et restent asservies aux objectifs que nous leur avons fixés.

Professeur d’informatique à Sorbonne Université, Jean-Gabriel Ganascia (France) est également chercheur au LIP6, EurAI fellow, membre de l’Institut Universitaire de France et président du comité d’éthique du CNRS. Ses activités de recherche portent actuellement sur l’apprentissage machine, la fusion symbolique de données, l’éthique computationnelle, l’éthique des ordinateurs et les humanités numériques.

Le Courrier de l’UNESCO • juillet-septembre 2018

Le vol du futur : la singularité technologique en question

En 2017, Jean-Gabriel Ganascia, professeur d’informatique à la Sorbonne, chercheur en intelligence artificielle et président du comité d’éthique du CNRS, publiait un ouvrage remarquable : Le mythe de la singularité technologique. Faut-il craindre l’intelligence artificielle ?1. Un des fils qui trament cet ouvrage porte sur un couplage inattendu entre une « pseudomorphose » technologique et politique. Étymologiquement, pseudomorphose vient du grec « pseudès » faux, trompeur et « morphosis », action donnant forme. Un processus physico-chimique lent qui par adjonction, altération, imprégnation d’éléments extérieurs ou en fonction d’un changement de l’environnement comme la température, modifie un corps qui, en apparence, reste semblable. Selon Jean-Gabriel Ganascia avec l’intelligence artificielle « forte » et l’intelligence artificielle « générale » nous sommes en présence de deux pseudomorphoses de l’intelligence artificielle.

Intelligence(s) artificielle(s)

Tout commence dans les années 1950, l’intelligence artificielle, comme discipline nouvelle, amorce une « quête » scientifique, celle de la compréhension de l’intelligence, sa décomposition en facultés élémentaires (mémoire, perception, calcul), sa reproduction et sa simulation numérique2. Latéralement coexiste un dessein philosophique aux ambitions démiurgiques, faisant écho à la science-fiction, qui vise à reproduire une conscience sur un ordinateur. Dans les années 1980, le philosophe John Searle, avec l’expérience fictive de « la chambre chinoise », distingue la discipline scientifique, technologique, empirique, l’intelligence artificielle « faible » (weak) de l’approche philosophique, l’intelligence artificielle « forte » (strong), qu’il dénonce. En 2011, lors de la « victoire » de l’algorithme Watson développé par IBM au jeu télévisé américain Jeopardize!, John Searle ironisait : « Watson doesn’t know it won on Jeopardy !3 ». Au début des années 2000, l’intelligence artificielle « forte », discursive, se mêle aux idées de mathématiciens qui veulent refondre l’intelligence artificielle sur de nouvelles bases : c’est la naissance du concept d’intelligence artificielle « générale », qui a pour objectif la réalisation d’une intelligence artificielle totale, sans limite4. Ben Goertzel, Marcus Hutter, Jürgen Schmidhuber fondent leurs espoirs sur la complexité de Kolmogorov et la théorie de l’inférence inductive de Solomonov, d’autres, sur l’utilisation des réseaux de neurones formels (deep learning) ou l’apprentissage par renforcement, que l’on a pu observer chez AphaZero qui a « battu » Stockfish au jeu d’échecs en décembre dernier5.

Malgré leurs différences, selon Jean-Gabriel Ganascia, les partisans de ces deux pseudomorphoses se retrouvent aujourd’hui dans le concept de singularité technologique. Une accélération technologique d’après le transhumaniste Ray Kurzweil (Singularity University, Google) qui pourrait conduire à l’émergence d’une intelligence artificielle générale, le fantasme, vers 20456.

Spiritualité gnostique

Au cœur de l’ouvrage, Jean-Gabriel Ganascia développe une comparaison audacieuse entre deux pseudomorphoses : la gnose spirituelle et la singularité technologique. Si, a priori, tout les oppose, Jean-Gabriel Ganascia perçoit dans le rapport d’opposition/récupération de la gnose à la religion, une analogie propre à dégager une grille d’analyse qui aide à saisir la singularité technologique dans son rapport à la science contemporaine.

Qu’est-ce que la gnose ? Gnose vient de gnosis qui veut dire « connaissance ». La spiritualité gnostique atteint son point culminant au IIe siècle. Elle s’inspire de traditions spirituelles anciennes et notamment des croyances magiques égyptiennes, babyloniennes et perses et s’exprime par une dualité radicale entre un vrai Dieu, un Dieu suprême, qui reste caché, et un faux Dieu, un usurpateur qui aurait créé l’Univers à l’insu du vrai Dieu et qui serait ainsi à l’origine de nos maux, souffrances et finitude.

Dans la spiritualité gnostique, le monde dans lequel nous vivons est un faux-semblant, qu’il faut « réparer » pour accéder à la plénitude de l’être, l’être véritable. À cette fin, il faut s’arracher à l’autorité du démiurge, rompre avec sa domination. Cet arrachement passe par l’acquisition d’un savoir qui doit permettre de dissiper l’illusion et autoriser l’accès au monde caché. S’extraire de l’emprise du faux Dieu, suppose une « brisure » capable d’apporter la « dislocation salutaire » …

Pseudomorphose politique

En rendant « plausible » l’idée de singularité technologique via des catégorie de pensées disponibles, populaires, Jean-Gabriel Ganascia considère qu’on la rend « possible », au sens de quelque chose « susceptible de se produire ». Si ce concept est douteux sur le plan scientifique, il est, selon lui, plus encore « répréhensible » sur le plan moral, irresponsable de la part de scientifiques qui ont pour mission d’ouvrir des perceptives. En occultant les autres risques, mais aussi les alternatives, le degré de liberté humaine disponible, ils contribuent ainsi à opacifier le futur en masquant les possibles.

Plus encore, la « brisure » renvoie à un temps futur qui n’appartiendra plus à l’homme. Inéluctable, l’inflexion semble pouvoir ne se faire qu’a minima comme tentée de gauchir l’évolution de l’intelligence artificielle, la rendre « amicale ». Aussi la singularité technologique conduit-elle à un enfermement. L’action libre, si elle subsiste, déroge à la perfection.

In fine, la singularité débouche sur une pseudomorphose politique, celle de l’humanisme des Lumières qui était basé sur la perfectibilité. À l’issu de ce réquisitoire, Jean-Gabriel Ganascia conclut à la liberté que l’on abdique, au futur qui se dissipe.

Notes :

3 John Searle, « Watson doesn’t know it won on ‘Jeopardy’ », The Wall Street Journal, 23 février 2011.

4 Lire Hugo Roland de Garis et Ben Goertzel, « Report on the first conference on artificial general intelligence (AGI-08) », AI Magazine, printemps 2009, p. 121-123.

5 Pierre Barthélémy, « AlphaZero, algorithme prodige de l’échiquier », Le Monde, 12 décembre 2017.

6 Dom Galeom et Christiana Reedy, « Kurzweil claims that the singularity will happen by 2045 », Futurism, 5 octobre 2017.

Le vol du futur ? La singularité technologique en question

« Interrogé cette semaine lors de la Conférence SXSW à Austin, au Texas, le ‘futuriste’, de Google Ray Kurzweil prévoit la singularité, ce moment où les machines prendront le pouvoir sur l’homme. Ce sera 2029 et il a hâte d’y être. »

Voici comment Sciencepost sous-titrait un article daté du 18 mars dernier1.

Dans l’interview, Raymond Kurzweil pense que la machine atteindra le niveau humain en 2029 (Human-Level Intelligence), la singularité technologique, quant à elle, pourrait apparaître vers 20452.

Sommes-nous à l’orée d’une accélération technologique exponentielle devant nous conduire à une « brisure » qui verrait l’intelligence artificielle nous dépasser, prendre son autonomie ? La singularité technologique a-t-elle du sens ou est-elle une pure spéculation ?

Lors de cette conférence, nous mettrons à profit l’ouvrage de Jean-Gabriel Gasnacia3, un sceptique intéressant car spécialiste de l’IA. Son livre s’ouvre sur un cri d’alarme, celui du célèbre cosmologiste Stephen Hawking paru dans le journal The Independent le 1er mai 2014 qui voit dans l’évolution de l’IA une menace pour l’humanité4

Institut municipal, Angers
Conférence (gratuite), mercredi 27 septembre 20h00 – 21h30, de Vincent Guérin.
Entrée libre dans la limite des places disponibles, IMA, 9, rue du Musée (Place Saint-Eloi), 49100 Angers, tél. 02 41 05 38 80

Fichier(s) en relation : les_mutations_technologiques_vincent_guerin_01.pdf 758 K

Notes :

1 SciencePost : Le « futuriste » de Google Ray Kurzweil prévoit la singularité pour 2029.
2 Futurism: Kurzweil Claims That the Singularity Will Happen by 2045
4 The Independent: Stephen Hawking: ‘Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?’

 

Les hommes bientôt remplacés par les robots ?

Selon une nouvelle étude dirigée par des experts de l’intelligence artificielle, il ne reste que 45 ans aux humains avant que les facultés des machines ne dépassent les leurs. Peu à peu, les technologies semblent prendre le pas sur l’humain au risque même de le supplanter. Déjà présent dans nos quotidiens, le secteur de l’intelligence artificielle est en pleine expansion grâce aux investissements de plusieurs acteurs : les Gafa (Google, Apple, Facebook et Amazon) et le BAT chinois (Baidu, Alibaba et Tencent). Mais que se passerait-il si les robots prenaient d’autres décisions que celles des hommes ? Que se passerait-il s’il y avait un conflit d’intérêt entre l’humain et le robot ? Certains scientifiques, comme Joël de Rosnay, nous invitent à “ne pas avoir peur de l’intelligence artificielle” puisque celle-ci demeure contrôlée. Pour en discuter, Laurence Devillers, professeure et chercheuse en intelligence artificielle, Jean-Gabriel Ganascia, informaticien, philosophe et spécialiste en intelligence artificielle et Laurent Alexandre, chirurgien, entrepreneur et spécialiste du transhumanisme.

Arte – émission 28 minutes est une émission de télévision d’actualité et de débat diffusée sur la chaîne franco-allemande

Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ?

Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ?
Livre de Jean-Gabriel Ganascia

L’intelligence artificielle va-t-elle bientôt dépasser celle des humains ? Ce moment critique, baptisé « Singularité technologique », fait partie des nouveaux buzzwords de la futurologie contemporaine et son imminence est proclamée à grand renfort d’annonces mirobolantes par des technogourous comme Ray Kurzweil (chef de projet chez Google !) ou Nick Bostrom (de la vénérable université d’Oxford). Certains scientifiques et entrepreneurs, non des moindres, tels Stephen Hawking ou Bill Gates, partagent ces perspectives et s’en inquiètent.
Menace sur l’humanité et/ou promesse d’une transhumanité, ce nouveau millénarisme est appelé à se développer. Nos machines vont-elles devenir plus intelligentes et plus puissantes que nous ? Notre avenir est-il celui d’une cybersociété où l’humanité serait marginalisée ? Ou accéderons-nous à une forme d’immortalité en téléchargeant nos esprits sur les ordinateurs de demain ?

Voici un essai critique et concis sur ce thème à grand retentissement par l’un des meilleurs experts des humanités numériques.

Jean-Gabriel Ganascia est professeur à l’université Pierre-et-Marie-Curie, où il mène des recherches sur l’intelligence artificielle au Laboratoire informatique de Paris 6 (LIP6). Il est président du comité national d’éthique du CNRS et a publié divers ouvrages dont le précurseur L’Âme machine, au Seuil en 1990.

 

Colloque : Sciences de la vie, sciences de l’information

Colloque de 7 jours : du 17 septembre 2016 au 24 septembre 2016, au Centre Culturel International de Cerisy-la-Salle Le Château, 50210 Cerisy-la-Salle

D’un côté, des scientifiques se posent la question “Qu’est-ce que la vie ?”. D’un autre côté, la question “Qu’est-ce que l’information ?” apparaît tout aussi pertinente. Un organisme vivant, le plus simple soit-il, est un réseau d’interactions, de communications, d’inscriptions mobilisant une énorme quantité d’information. Le mot “mémoire” a-t-il le même sens en informatique, en biologie et en écologie? Est-ce que, comme l’a pressenti Gilbert Simondon, l’information est ce qui donne forme et se perpétue en structurant la matière ? La biologie moléculaire a mis à jour les principales étapes de l’expression des gènes. Mais on ne sait toujours pas ce qu’est un gène: de l’information ou une structure moléculaire ? Les nanostructures d’ADN ou d’ARN révèlent des architectures en 3D qui seraient les “moteurs” des nanomachines de demain, aux multiples applications thérapeutiques, chimiques et algorithmiques (ou bio-informatiques ?). Enfin, l’épigénétique bouscule les conceptions “mécaniques” de l’expression des gènes. Au niveau cellulaire, cette expression stochastique permet de concevoir une organisation biologique reposant sur un “darwinisme cellulaire”.

La compréhension des origines et de l’évolution du vivant constitue l’un des grands défis du XXIe siècle. Comment envisager l’évolution biologique et le futur de la biosphère, ainsi que celui de l’espèce humaine, dans le contexte de la nouvelle alliance du naturel et de l’artificiel ? Cela pose, en particulier, des questions éthiques. Plus généralement, la technique est-elle un fait social et/ou un prolongement biologique? La transformation conjointe de la technique et de la société par le système d’information constitue-t-elle un nouveau stade de l’évolution ?

Présentation détaillée

Inscription

Avec le soutien
du Centre national de la recherche scientifique (CNRS),
du Commissariat à l’énergie atomique (CEA),
de l’Institut national de recherche en informatique et en automatique (INRIA),
de la Délégation générale à la langue française et aux langues de France (DGLFLF),
et d’Électricité de France (EDF)

Intelligence artificielle : faut-il tout arrêter ?

source France 2

Près de 700 chercheurs à travers le monde s’alarment des robots intelligents et des progrès de l’intelligence artificielle. Faut-il tout arrêter ? Pour en parler, Frédéric Taddeï accueille sur le plateau Alain Damasio, écrivain, Jean-Gabriel Ganascia, philosophe et cogniticien, Laurence Devillers, chercheuse au CNRS, spécialiste de robotique, Serge Tisseron, psychiatre, Alain Bensoussan, avocat, fondateur de l’association du droit des robots, Marianne Durano, et Laurent Alexandre, chef d’entreprise.