Des robots et des hommes

Pour qu’un agent artificiel endosse un véritable rôle social et établisse une relation sensée avec un être humain, il devrait être doté d’un profil à la fois psychologique, culturel, social et émotionnel. Les méthodes actuelles d’apprentissage des machines ne permettent pas un tel développement. Les robots de demain seront nos humbles assistants, sans plus.

Nous vivons à une époque où des robots font le ménage, transportent des personnes, désamorcent des bombes, construisent des prothèses, secondent des chirurgiens, fabriquent des produits, nous divertissent, nous enseignent et nous surprennent. De même que la connectivité actuelle des smartphones et des médias sociaux dépasse notre imagination d’antan, on s’attend à ce que les futurs robots soient dotés de capacités physiques, et l’intelligence artificielle d’aptitudes cognitives, totalement impensables aujourd’hui, leur permettant de résoudre de graves problèmes comme le vieillissement de la société, les menaces écologiques et les conflits mondiaux.

À quoi ressembleront nos journées dans un avenir prochain ?

Nous vivrons sans doute plus longtemps, puisque des organes synthétiques viendront remplacer les parties défaillantes de notre corps, que les interventions médicales nanométriques cibleront les maladies et les gènes et que les véhicules autonomes limiteront les accidents de la circulation.

Nos emplois auront radicalement changé : certains auront disparu et d’autres seront créés, comme par exemple dans le domaine du développement d’applications destinées aux plateformes robotiques pour nos foyers. L’éducation, elle aussi, devra changer radicalement. Nos sens et nos cerveaux pourraient être artificiellement augmentés, et notre capacité de réfléchir aux perspectives offertes sera probablement améliorée par l’analyse automatisée de grandes quantités de données : tout cela exigera un autre traitement de l’information dans les écoles.

Mais qu’en sera-t-il de nos rapports humains ? Comment évoluera la façon dont nous nous rencontrons, vivons ensemble, élevons nos enfants ? Et dans quelle mesure la fusion entre robots et hommes aura-t-elle lieu ?

Nous sommes nombreux à nous demander si l’intelligence artificielle pourra un jour devenir brillante et experte en communication humaine, au point que plus rien ne permettrait de distinguer l’être humain de son jumeau artificiel.

S’il devenait possible de communiquer naturellement avec un agent artificiel, de se sentir épaulé au point de s’en remettre à lui et de nouer une relation sensée et durable, subsisterait-il une distinction entre nos relations interhumaines et nos relations avec la technologie ? Et quand nos corps et nos esprits auront été augmentés par l’intelligence artificielle et la robotique, quel sera le sens de l’humain ?

Astuces

Du point de vue de l’ingénierie, on est encore bien loin de telles avancées. Il nous faudra d’abord surmonter plusieurs obstacles sérieux. Le premier est lié au fait que la plupart des robots et ordinateurs sont reliés à des sources d’énergie : cela complique l’intégration d’éléments robotiques dans les tissus organiques humains. Un second écueil est la complexité de la communication humaine. S’il est envisageable qu’un robot puisse converser en langage naturel ponctuellement et dans une situation spécifique, c’est autre chose que de l’imaginer engager une communication à la fois verbale et non verbale au fil des conversations et des contextes.

Si, par exemple, vous appeliez un agent artificiel responsable des objets trouvés dans un aéroport, un échange satisfaisant serait possible : l’objet de l’appel est circonscrit, l’interaction structurée et les objectifs de l’appelant limités. Par contre, pour instaurer une relation plus poussée avec un robot animal de compagnie, le modèle à produire est bien plus complexe. Le robot doit avoir des objectifs internes, de grandes capacités de mémoire pouvant relier chaque expérience aux divers contextes, personnes, objets et animaux rencontrés, et il doit pouvoir développer de telles capacités dans le temps.

Un certain nombre d’« astuces » permettent à un robot de paraître plus intelligent et capable qu’il ne l’est réellement : par exemple en y introduisant des comportements aléatoires, qui rendent le robot animal de compagnie intéressant plus longtemps. À cela s’ajoute que nous autres humains avons une tendance à interpréter le comportement d’un robot comme celui d’un humain, tout comme nous le faisons avec les animaux, du reste.

Or, pour nouer avec lui une relation sensée, capable de s’intensifier et d’évoluer avec le temps dans le contexte varié de la vie quotidienne, comme le font entre eux les humains, il faut doter le robot d’une vie intérieure riche.

Science des données, Machine Learning et Deep Learning

Comment les machines apprennent-elles ?

La difficulté, pour créer cette vie intérieure artificielle, tient au mode d’apprentissage des machines.

L’apprentissage machine est basé sur l’exemple. On nourrit l’ordinateur d’exemples du phénomène qu’on souhaite qu’il comprenne, comme, par exemple, le bien-être chez l’être humain. Pour enseigner à la machine à reconnaître cet état de bien-être, on lui fournit des données personnelles connexes : images, vidéos, enregistrements de paroles, pulsations cardiaques, messages postés sur les médias sociaux, et autres types d’échantillons.

Lorsqu’on entre l’une de ces séquences vidéos dans un ordinateur, celle-ci se voit attribuer une mention indiquant si la personne filmée est ou non à son aise – cet étiquetage peut être réalisé par des experts en psychologie ou en culture locale.

Cet apprentissage permet ensuite à l’ordinateur de « raisonner » à partir de ces vidéos étiquetées, et d’identifier les principaux traits associés au sentiment de bien-être : posture corporelle, timbre de voix, rougeur de la peau. Lorsque la machine a identifié les traits associés au bien-être, l’algorithme ainsi créé, capable de les détecter sur une vidéo, peut être entraîné et perfectionné lorsqu’on lui fournit d’autres séries de séquences. L’algorithme devient finalement robuste et un ordinateur équipé d’une caméra peut, avec précision, distinguer une personne en situation de bien-être d’une autre qui ne l’est pas. Bien sûr, l’ordinateur n’est pas fiable à 100 % et commettra nécessairement des erreurs d’appréciation.

Maintenant que nous savons comment apprend une machine, qu’est-ce qui s’oppose à ce qu’on crée une vie intérieure convaincante permettant à un agent artificiel de s’intégrer harmonieusement dans la société humaine ?

Vers un profil synthétique complexe

Pour qu’un agent artificiel soit capable de nouer une relation réellement durable avec une personne, il faut qu’il soit doté d’une personnalité et de comportements convaincants, qu’il comprenne la personne, la situation dans laquelle tous deux se trouvent et l’histoire de leur communication. Il doit surtout être capable de poursuivre celle-ci sur des sujets divers et dans des situations variées.

Il est possible de créer un agent convaincant comme Alexa d’Amazon ou de Siri d’Apple, à qui on peut s’adresser en langage naturel et avec qui on peut avoir une interaction sensée dans le cadre précis de son utilisation : régler l’alarme d’un réveil, dresser une liste, commander un produit, baisser le chauffage.

Néanmoins, dès qu’on sort de ce contexte, la communication tourne court. Le robot trouvera des réponses acceptables à un large éventail de questions, mais sera incapable de poursuivre une conversation d’une heure sur un sujet complexe. Deux parents, par exemple, peuvent entamer de longues discussions pour décider de l’attitude à adopter face à un enfant qui n’est pas attentif à l’école. Cette conversation sera extrêmement riche, les parents y apportant non seulement leur compréhension de leur enfant, mais aussi tout ce qui constitue leur personnalité : émotions, psychologie, histoire personnelle, contexte socioéconomique, bagage culturel, bagage génétique, habitudes de comportement et compréhension du monde.

Si nous voulons qu’un agent artificiel endosse un rôle social aussi vaste et établisse une relation sensée avec un être humain, nous devons le doter d’un profil synthétique, construit à la fois du point de vue psychologique, culturel, social et émotionnel. Nous devons aussi le rendre capable d’apprendre avec le temps à « ressentir » et à réagir aux situations à partir de cette construction synthétique interne.

Cela exige une approche fondamentalement différente de l’apprentissage machine que l’on connaît actuellement. Il s’agirait de bâtir un système artificiellement intelligent qui se développerait à peu près comme un cerveau humain, en étant capable d’intérioriser la richesse des expériences humaines et d’avoir un raisonnement sur elles. La manière dont les gens communiquent entre eux et en viennent à comprendre le monde qui les entoure est un processus extraordinairement compliqué à synthétiser. Les modèles d’IA disponibles ou envisagés s’inspirent du cerveau humain ou d’une partie de son fonctionnement, mais ne constituent pas un modèle plausible de cerveau humain.

On voit l’intelligence artificielle accomplir d’incroyables exploits, lire tout l’Internet, gagner au jeu de go, diriger une usine entièrement automatisée. Mais, tout comme le physicien britannique Stephen Hawking (1942-2018) se sentait encore à mille lieues de comprendre l’univers, nous sommes à mille lieues de comprendre l’intelligence humaine.

Ce n’est pas pour demain

Les capacités exceptionnelles des robots et des systèmes artificiellement intelligents pourront faciliter et améliorer nos prises de décision, notre compréhension des situations et nos façons d’agir. Les robots pourront alléger le travail ou automatiser les tâches. Une fois les obstacles surmontés, la robotique sera peut-être physiquement intégrée au corps humain. Nous nouerons aussi avec des agents artificiels des relations comparables à celles que nous entretenons entre nous : nous pourrons ainsi communiquer avec eux en langage naturel, observer leurs comportements, comprendre leurs intentions. Mais aucune relation sensée comparable à celle des humains, avec ses conversations et ses rituels, son approfondissement et son évolution au fil du temps dans le cadre foisonnant de la vie quotidienne, n’est possible si l’on ne dote pas l’intelligence artificielle d’une vie intérieure conséquente.

Tant que nous saurons seulement en reproduire ou surpasser certaines fonctions, et non créer cette globalité de l’intelligence humaine placée dans le riche contexte du quotidien, on a peu de chances d’assister à la pleine intégration des hommes et des machines.

Spécialisée dans le développement des solutions robotiques, Vanessa Evers (Pays-Bas) est professeur titulaire en informatique au sein du groupe Human Media Interaction de l’université de Twente et directrice scientifique du DesignLab. Elle a publié près de 200 publications revues par les pairs et est rédactrice en chef à l’International Journal of Social Robotics et rédactrice associée au Journal of Human-Robot Interaction.

Le Courrier de l’UNESCO • juillet-septembre 2018

Intelligence artificielle : entre mythe et réalité

Les machines risquent-elles de devenir plus intelligentes que les hommes ?

Non, répond Jean-Gabriel Ganascia : il s’agit là d’un mythe inspiré par la science-fiction. Il rappelle les grandes étapes de ce domaine de recherche, les prouesses techniques actuelles et les questions éthiques qui requièrent des réponses de plus en plus urgentes.

L’intelligence artificielle est une discipline scientifique qui a vu officiellement le jour en 1956, au Dartmouth College, à Hanovre, aux États-Unis, lors d’une école d’été organisée par quatre chercheurs américains : John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon. Depuis, le terme « intelligence artificielle », qui à l’origine avait sans doute été inventé pour frapper les esprits, a fait fortune, puisqu’il est devenu très populaire au point qu’aujourd’hui plus personne ne l’ignore, que cette composante de l’informatique a pris de plus en plus d’ampleur au fil du temps et que les technologies qui en sont issues ont grandement contribué à changer le monde pendant les soixante dernières années.

Cependant, le succès du terme « intelligence artificielle » repose parfois sur un malentendu lorsqu’il désigne une entité artificielle douée d’intelligence et qui, de ce fait, rivaliserait avec les êtres humains.

Cette idée, qui renvoie à des mythes et des légendes anciennes, comme celle du Golem, a récemment été réactivée par des personnalités du monde contemporain comme le physicien britannique Stephen Hawking (1942-2018), l’entrepreneur américain Elon Musk, le futuriste américain Ray Kurzweil ou encore par les tenants de ce que l’on appelle aujourd’hui l’« IA forte » ou l’« IA générale ». Nous ne ferons toutefois pas plus état, ici, de cette acception seconde, car elle atteste uniquement d’un imaginaire foisonnant, inspiré plus par la science-fiction que par une réalité scientifique tangible confirmée par des expérimentations et des observations empiriques.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Pour John McCarthy et Marvin Minsky, comme pour les autres promoteurs de l’école d’été du Dartmouth College, l’intelligence artificielle visait initialement à la simulation, par des machines, de chacune des différentes facultés de l’intelligence, qu’il s’agisse de l’intelligence humaine, animale, végétale, sociale ou phylogénétique.

Plus précisément, cette discipline scientifique reposait sur la conjecture selon laquelle toutes les fonctions cognitives, en particulier l’apprentissage, le raisonnement, le calcul, la perception, la mémorisation, voire même la découverte scientifique ou la créativité artistique, peuvent être décrites, avec une précision telle qu’il serait possible de programmer un ordinateur pour les reproduire. Depuis plus de soixante ans que l’intelligence artificielle existe, rien n’a permis ni de démentir, ni de démontrer irréfutablement cette conjecture qui demeure à la fois ouverte et féconde.

Une histoire en dents de scie

Au cours de sa courte existence, l’intelligence artificielle a connu de nombreuses évolutions. On peut les résumer en six étapes.

Le temps des prophètes

Tout d’abord, dans l’euphorie des origines et des premiers succès, les chercheurs s’étaient laissé aller à des déclarations un peu inconsidérées qu’on leur a beaucoup reprochées par la suite.

C’est ainsi qu’en 1958, l’Américain Herbert Simon, qui deviendrait par la suite prix Nobel d’économie, avait déclaré que d’ici à dix ans les machines seraient championnes du monde aux échecs, si elles n’étaient pas exclues des compétitions internationales.

Les années sombres

Au milieu des années 1960, les progrès tardaient à se faire sentir. Un enfant de dix ans avait battu un ordinateur au jeu d’échecs en 1965 ; un rapport commandé par le Sénat américain faisait état, en 1966, des limitations intrinsèques de la traduction automatique. L’IA eut alors mauvaise presse pendant une dizaine d’années.

L’IA sémantique

Les travaux ne s’interrompirent pas pour autant, mais on axa les recherches dans de nouvelles directions. On s’intéressa à la psychologie de la mémoire, aux mécanismes de compréhension, que l’on chercha à simuler sur un ordinateur, et au rôle de la connaissance dans le raisonnement. C’est ce qui donna naissance aux techniques de représentation sémantique des connaissances, qui se développèrent considérablement dans le milieu des années 1970, et conduisit aussi à développer des systèmes dits experts, parce qu’ils recouraient au savoir d’hommes de métiers pour reproduire leurs raisonnements. Ces derniers suscitèrent d’énormes espoirs au début des années 1980 avec de multiples applications, par exemple pour le diagnostic médical.

Science des données, Machine Learning et Deep Learning

Néo-Connexionnisme et apprentissage machine

Le perfectionnement des techniques conduisit à l’élaboration d’algorithmes d’apprentissage machine (machine learning), qui permirent aux ordinateurs d’accumuler des connaissances et de se reprogrammer automatiquement à partir de leurs propres expériences.

Cela donna naissance à des applications industrielles (identification d’empreintes digitales, reconnaissance de la parole, etc.), où des techniques issues de l’intelligence artificielle, de l’informatique, de la vie artificielle et d’autres disciplines se côtoyaient pour donner des systèmes hybrides.

De l’intelligence artificielle aux interfaces homme-machine

À partir de la fin des années 1990, on coupla l’intelligence artificielle à la robotique et aux interfaces homme-machine, de façon à produire des agents intelligents qui suggèrent la présence d’affects et d’émotions. Cela donna naissance, entre autres, au calcul des émotions (affective computing), qui évalue les réactions d’un sujet ressentant des émotions et les reproduit sur une machine, et surtout au perfectionnement des agents conversationnels (chatbots).

Renaissance de l’intelligence artificielle

Depuis 2010, la puissance des machines permet d’exploiter des données de masse (big data) avec des techniques d’apprentissage profond (deep learning), qui se fondent sur le recours à des réseaux de neurones formels. Des applications très fructueuses dans de nombreux domaines (reconnaissance de la parole, des images, compréhension du langage naturel, voiture autonome, etc.) conduisent à parler d’une renaissance de l’intelligence artificielle.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Applications

Beaucoup de réalisations mettant à profit des techniques d’IA dépassent les facultés humaines : une machine a vaincu, au jeu d’échecs, le champion du monde en titre en 1997 et, plus récemment, en 2016, d’autres l’ont emporté sur l’un des meilleurs joueurs au monde au jeu de go et sur d’excellents joueurs de poker ; des ordinateurs démontrent ou aident à démontrer des théorèmes mathématiques ; on construit automatiquement des connaissances à partir de masses immenses de données dont le volume se compte en téraoctets (10 12 octets), voire en pétaoctets (10 15 octets), avec les techniques d’apprentissage machine.

Grâce à ces dernières, des automates reconnaissent la parole articulée et la transcrivent, comme les secrétaires dactylographes d’antan, et d’autres identifient avec précision des visages ou des empreintes digitales parmi des dizaines de millions et comprennent des textes écrits en langage naturel. Toujours grâce à ces techniques d’apprentissage machine, des voitures se conduisent seules ; des machines diagnostiquent mieux que des médecins dermatologues des mélanomes à partir de photographies de grains de beauté prises sur la peau avec des téléphones portables ; des robots font la guerre à la place des hommes  ; et des chaînes de fabrication dans les usines s’automatisent toujours plus.

Par ailleurs, les scientifiques utilisent ces techniques pour déterminer la fonction de certaines macromolécules biologiques, en particulier de protéines et de génomes, à partir de la séquence de leurs constituants – acides aminées pour les protéines, bases pour les génomes. Plus généralement, toutes les sciences subissent une rupture épistémologique majeure avec les expérimentations dites in silico, parce qu’elles s’effectuent à partir de données massives, grâce à des processeurs puissants dont le cœur est fait de silicium, et qu’elles s’opposent en cela aux expérimentations in vivo, sur le vivant, et, surtout, in vitro, c’est-à-dire dans des éprouvettes de verre.

Ces applications de l’intelligence artificielle affectent presque tous les domaines d’activités, en particulier dans les secteurs de l’industrie, de la banque, des assurances, de la santé, de la défense : en effet, de nombreuses tâches routinières sont désormais susceptibles d’être automatisées, ce qui transforme bien des métiers et éventuellement en supprime certains.

L’initiative mondiale de l’IEEE pour les considérations éthiques en Intelligence Artificielle et des Systèmes Autonomes

Quels risques éthiques ?

Avec l’intelligence artificielle, non seulement, la plupart des dimensions de l’intelligence – sauf peut-être l’humour – font l’objet d’analyses et de reconstructions rationnelles avec des ordinateurs, mais de plus les machines outrepassent nos facultés cognitives dans la plupart des domaines, ce qui fait craindre à certains des risques éthiques. Ces risques sont de trois ordres : la raréfaction du travail, qui serait exécuté par des machines à la place des hommes ; les conséquences pour l’autonomie de l’individu, en particulier pour sa liberté et sa sécurité ; le dépassement de l’humanité qui disparaîtrait au profit de machines plus « intelligentes ».

Or, un examen de détail montre que le travail ne disparaît pas, bien au contraire, mais qu’il se transforme et fait appel à de nouvelles compétences. De même, l’autonomie de l’individu et sa liberté ne sont pas inéluctablement remises en cause par le développement de l’intelligence artificielle, à condition toutefois de demeurer vigilants face aux intrusions de la technologie dans la vie privée.

Enfin, contrairement à ce que certains prétendent, les machines ne constituent aucunement un risque existentiel pour l’humanité, car leur autonomie n’est que d’ordre technique, en cela qu’elle ne correspond qu’à des chaînes de causalités matérielles qui vont de la prise d’information à la décision ; en revanche, les machines n’ont pas d’autonomie morale, car, même s’il arrive qu’elles nous déroutent et nous fourvoient dans le temps de l’action, elles n’ont pas de volonté propre et restent asservies aux objectifs que nous leur avons fixés.

Professeur d’informatique à Sorbonne Université, Jean-Gabriel Ganascia (France) est également chercheur au LIP6, EurAI fellow, membre de l’Institut Universitaire de France et président du comité d’éthique du CNRS. Ses activités de recherche portent actuellement sur l’apprentissage machine, la fusion symbolique de données, l’éthique computationnelle, l’éthique des ordinateurs et les humanités numériques.

Le Courrier de l’UNESCO • juillet-septembre 2018

Science des données, Machine Learning et Deep Learning

Au cours des dernières années, Internet a été inondé de milliers d’articles proclamant le nouvel âge des données et la façon dont il interagit avec l’intelligence artificielle. En conséquence, les trois termes science des données (data science), apprentissage automatique (machine learning) et apprentissage en profondeur (deep learning) sont passés pratiquement du jour au lendemain de mots à la mode au vocabulaire standard, et sont devenus synonymes de la direction dans laquelle évolue la société. Mais combien peuvent vraiment expliquer les différences entre ces termes sacrés ?

Data Science

Dans les temps anciens, cela s’appelait statistiques. Mais maintenant, il s’est métamorphosé et a grandi, jusqu’à devenir une science des données. Aujourd’hui, les universités de haut niveau offrent des diplômes et tout le monde l’appelle un cheminement de carrière qui n’échouera jamais.

Peter Nauer, un pionnier de l’informatique danois, a fait mention de la “science des données” pour la première fois à la White Hart Tavern en 1960, lorsqu’il l’a utilisé pour remplacer le terme “science informatique” (computer science). En fait, la partie de la White Hart Tavern n’est pas vraie, il était probablement dans son bureau en train de parler à un étudiant diplômé, mais cela fait quand même une belle histoire.

L’une des références les plus modernes à ce sujet a été faite par C. F. Jeff Wu lors de sa conférence de 1997 à l’Université du Michigan “Statistiques – Data Science ?”. Dans l’univers du Dr Wu, la science des données est passée un peu au-delà des statistiques traditionnelles, en utilisant le trio de collecte de données, la modélisation et l’analyse, et de manière significative, la prise de décision.

La même année, le journal Data Mining et Knowledge Discovery est lancé; le renversement de l’ordre des deux termes dans son titre reflétant l’ascendance du “data mining” (exploration de données) comme le moyen le plus populaire de désigner “l’extraction d’informations à partir de grandes bases de données”.

Le lauréat du prix Turing, Jim Gray, l’a considéré en 2007 comme un «quatrième paradigme de la science», en augmentant les méthodes scientifiques normales en incluant la dimension de “l’analyse axée sur les données”. Mais ce n’est qu’en 2012, lorsque Harvard Business Review a publié son article “Data Scientist : le travail le plus sexy du 21ème siècle” que les choses ont vraiment commencé à prendre leur essor.

En fin de compte, il est difficile de décrire de façon succincte et complète ce que fait un data scientist car il passe dans le domaine de l’intelligence artificielle, mais il commence certainement avec des concepts statistiques ardus et une connaissance très solide du langage de programmation Python qui possède de nombreuses fonctions facilitant l’analyse statistique.

En même temps, cela va au-delà des statistiques. Au lieu de simplement collecter et analyser des données à l’aide de méthodes statistiques éprouvées, les spécialistes des données posent la question primordiale : Et si ? – Et qu’est-ce qui se passerait si ?

Et si nous regardions les données sous un angle différent ? Et si nous étendions la modélisation que nos données de test nous ont donnée de plusieurs façons indépendantes ? Et si nous laissons une machine analyser les données sans règles pour la guider ? Qu’est-ce que cela va montrer en termes de relations ?

En fin de compte, c’est l’input généré par les data scientists qui alimentera les deux outils qu’ils utiliseront pour utiliser les données pour prendre des décisions; machine learning (apprentissage automatique) et deep learning (apprentissage profond).

Machine Learning

Wikipédia l’explique le mieux : «L’apprentissage automatique est un domaine de l’informatique qui utilise des techniques statistiques pour donner aux systèmes informatiques la capacité d’apprendre… sans être explicitement programmé.» C’est cette dernière clause qui est la clé; sans être explicitement programmé.

Une grande partie de l’intelligence de données fonctionne avant cette programmation étendue pour aider l’ordinateur à tenir compte de toutes les éventualités. Et, bien sûr, ces efforts ont été voués à l’échec dès le début car toutes les éventualités ne peuvent jamais être envisagées.

Le machine learning est différent. Dans ce cas, un cadre est mis en place qui alimente les informations statistiquement pertinentes dans l’ordinateur et lui permet de prendre des décisions, permet d’apprendre, à partir de ces données, plutôt que des instructions du programmeur. En d’autres termes, le machine learning permet à l’ordinateur de découvrir ce qui est probablement vrai et ce qui est probablement faux sur la base des données fournies.

Plus les données sont alimentées et plus la qualité de ces données est élevée, plus la machine apprendra. Et lorsque l’apprentissage est terminé, les données peuvent être introduites et les décisions prises par la machine.

Un exemple relativement simple d’un système d’apprentissage automatique est le filtre anti-spam attaché aux boîtes aux lettres électroniques. En regardant les différents mots qui composent le courriel, et en évaluant la probabilité d’un mot ou d’un groupe de mots donné d’être un danger, il est capable de prendre une décision quant à ce qui devrait être filtré et ce qui devrait être laissé.

Le machine learning est encore au stade primaire. C’est-à-dire, comme avec le filtre anti-spam, nous avons tous vu des cas où des emails légitimes sont marqués comme spam et les choses qui devraient l’être ne le sont pas. Mais la plupart du temps, il est assez proche de la cible. Et comme de plus en plus de filtres anti-spam commencent à utiliser le machine learning, cela devrait s’améliorer.

Deep Learning

De tous les mots rencontrés dans cet article, aucun n’est plus rébarbatif, plus chargé d’inconnu, que le deep learning. Est-ce bien ce qui va libérer SkyNet dans ce monde sans méfiance ? Il y a des gens qui affirmeraient que ça sera le cas. Mais ce ne sera pas le cas. Ou du moins pas avant quelques années.

Wikipedia l’explique encore une fois très bien : “fait partie d’une famille plus large de méthodes du machine learning basées sur l’apprentissage de représentations de données, par opposition à des algorithmes spécifiques à une tâche.”

Le deep learning fait partie du machine learning, mais il ignore tout ce qui est spécifique, c’est-à-dire axé sur la tâche. Il n’est pas utilisé pour définir un système qui dira quelle ville dans chaque état est la capitale. Ou la plus grande. Ou la plus amusante.

D’autres noms pour le deep learning sont les réseaux neuronaux profonds (deep neural networks), les réseaux de croyances profondes (deep belief networks) et les réseaux neuronaux récurrents (recurrent neural networks). Et il a été appliqué à des choses aussi bizarres que la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel, la reconnaissance audio, le filtrage des réseaux sociaux etc. De vastes choses pour une approche large.

Comme indiqué ci-dessus, le deep learning (apprentissage en profondeur) est un sous-ensemble du machine learning (apprentissage automatique), un sous-ensemble axé sur deux choses. La première est des modèles plutôt que des règles ou des faits. Les machines apprennent à rechercher des motifs ou même seulement des portions d’un motif. La seconde imite le comportement des neurones, en particulier ceux du néocortex du cerveau.

Quelle différence cela fait-il ? L’une des caractéristiques des neurones dans le cerveau humain est qu’aucun d’entre eux ne travaille seul. Il n’y a pas, par exemple, un neurone qui est responsable de la reconnaissance d’un chien par rapport à un chat. Au lieu de cela, de nombreux neurones vont travailler ensemble, chacun d’entre eux ne répondant peut-être qu’à une très petite partie des schémas que le cerveau a pour le «chien» et le «chat». Mais en travaillant ensemble, ils parviennent à un consensus sur la question de savoir si c’est un chien ou un chat.

C’est ce sur quoi travaille le deep learning. Il nécessite une puissance de calcul énorme, en plus d’une compréhension approfondie de la façon dont le cerveau fonctionne, de ce qui est encore à l’étude et d’une arène où la connaissance ne cesse de croître et de changer.

Conclusion

La science des données (data science) est basée sur les statistiques, mais les data scientists (spécialistes des données) vont au-delà des régressions linéaires. La nouvelle science des données va au-delà de l’analyse pour la prédiction, et pour regarder les données d’une manière que les techniques traditionnelles ne font pas. Et la raison principale de ceci n’est pas une percée dans les mathématiques mais l’adoption d’ordinateurs puissants pour exécuter rapidement une analyse qui aurait été peu pratique dans le passé.

Le machine learning consiste à utiliser des données pour permettre à l’ordinateur d’apprendre par lui-même. Parfois, cet apprentissage est dirigé, comme lorsque des règles sont incluses ou que d’autres paramètres sont définis qui guident la façon dont la machine prend ses décisions, ou non dirigé lorsque la machine creuse dans les données et voit ce qu’elle peut trouver. Il s’agit de séparer l’intelligence de la programmation. Dans le monde du machine learning, les données sont l’enseignant et non le codeur.

Le deep learning est un sous-ensemble du machine learning. Il est basé sur des données, mais il utilise un type d’algorithme particulier, qui agit de manière similaire aux neurones dans un cerveau humain. Cela va-t-il aboutir à un cerveau positronique et aux trois lois de la robotique ? Difficile à dire. Mais c’est l’avenir.

Forbes, Market Mogul