DeepMind et Google : la bataille pour contrôler l’IA

Il y a une lutte de pouvoir à l’intérieur de Google pour contrôler l’intelligence artificielle suprahumaine

Si DeepMind construit une IA suprahumaine, qui la contrôlera ?

DeepMind, la start-up d’intelligence artificielle achetée par Google en 2014, a pour mission de créer le premier système d’intelligence artificielle générale (AGI) au monde – le genre d’intelligence artificielle suprahumaine et globale que nous voyons dans la science-fiction.

Pour s’assurer que l’AGI est utilisée de manière responsable, Demis Hassabis, fondateur de DeepMind, a protégé l’indépendance de son entreprise vis-à-vis de Google et de sa société mère Alphabet en mettant en place des garde-fous internes, selon une nouvelle histoire de The Economist, 1843 Magazine – dont un comité d’éthique contrôlé par Hassabis et son équipe d’origine, plutôt que Google.

Bien que Google se soit longtemps imposé comme un leader en matière d’éthique dans le monde de l’intelligence artificielle, le rapport de 1843 détaille une histoire de prises de pouvoir et de gestion douteuse.

Par exemple, DeepMind a lancé en 2016 une nouvelle division de soins de santé qui utiliserait la technologie d’IA pour rationaliser les opérations hospitalières et surveiller les fonctions vitales des patients.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Deux ans plus tard, quelques mois seulement après que DeepMind Health ait conclu des contrats avec des hôpitaux partenaires, Google a annoncé Google Health et y a intégré le programme de DeepMind, donnant peu de préavis à DeepMind ou aux hôpitaux. Des sources proches du dossier, qui avaient obtenu l’anonymat de 1843 Magazine pour avoir signé des accords de non-divulgation, ont expliqué que cette décision avait suscité ressentiment et colère au sein de l’équipe de DeepMind.

Certaines de ces sources anonymes ont également partagé des doutes avec 1843 Magazine sur le fait que DeepMind pourrait déchiffrer le code de l’intelligence artificielle générale, soulignant des faiblesses peu connues et des mises en garde concernant les succès très médiatisés de l’entreprise en matière d’IA.

Les algorithmes développés par DeepMind peuvent faire des choses fascinantes, comme démolir certains jeux vidéo et conserver les connaissances mieux que d’autres systèmes, mais il n’y a pas de feuille de route claire vers la technologie fondamentalement nouvelle nécessaire pour développer l’AGI.

Mais si Hassabis le découvre, les garde-fous et les comités d’éthique qu’il a mis en place lors de l’achat de son entreprise pourraient signifier que la technologie restera entre ses mains et celles de son équipe au lieu de devenir une simple technologie Google.

The Economist 1843

OpenAI lance un programme pédagogique pour se préparer à l’AGI

OpenAI a annoncé le lancement de Spinning Up, un programme conçu pour enseigner à quiconque l’apprentissage par renforcement en profondeur (deep reinforcement learning (deep RL)).

L’apprentissage par renforcement implique de fournir des signaux de récompense à un agent (robot etc…) dans un environnement incitant à maximiser sa récompense pour atteindre un objectif.

L’apprentissage par renforcement a joué un rôle dans les avancées majeures en matière d’intelligence artificielle telles que AlphaGo de Google DeepMind et les agents formés dans des environnements tels que Dota 2.

Spinning Up comprend une collection de documents de recherche importants sur l’apprentissage par renforcement, un glossaire de la terminologie nécessaire à la compréhension de l’apprentissage par renforcement, ainsi qu’une collection d’algorithmes pour la réalisation d’exercices.

Le programme a été lancé non seulement pour aider les gens à comprendre le fonctionnement de l’apprentissage par renforcement, mais aussi pour progresser dans la réalisation de l’objectif général d’OpenAI de créer en toute sécurité une intelligence artificielle générale (AGI) en impliquant davantage de personnes de domaines autres que l’informatique.

Intelligence Artificielle Générale : Les gouvernements doivent investir

«Pour résoudre les problèmes de sécurité liés à l’IA, il faudra faire appel à des personnes ayant un large éventail de compétences et de points de vue, et de nombreuses professions concernées n’ont aucun lien avec l’ingénierie ou l’informatique. Néanmoins, toutes les personnes impliquées devront en savoir suffisamment sur la technologie pour prendre des décisions éclairées et sur plusieurs éléments de Spinning Up qui répondent à ce besoin », selon la documentation Spinning Up.

En plus de progresser dans la réalisation de l’objectif d’une intelligence artificielle générale déployée en toute sécurité, le programme a été créé car il n’existe à ce jour aucun manuel unique capable de fournir les connaissances nécessaires pour mettre en œuvre l’apprentissage par renforcement; la connaissance est actuellement enfermée dans une série de conférences disparates et de documents de recherche influents.

«Notre package est donc conçu pour servir d’étape intermédiaire manquante aux personnes qui sont enthousiastes pour un apprentissage par renforcement en profondeur et qui souhaitent apprendre à l’utiliser ou à apporter une contribution, mais qui n’ont pas une idée précise de ce qu’il faut étudier ou comment transformer des algorithmes en code. Nous avons essayé de faire de ce point un point de lancement aussi utile que possible », lit-on dans la page du projet.

L’initiative Spinning Up fait partie d’un ensemble plus large de services éducatifs qu’OpenAI a l’intention de mettre à disposition. Un atelier de mise au point aura lieu en février 2019, et un autre atelier sera co-organisé avec le Center for Human-Compatible AI (CHAI) de l’Université de Californie à Berkeley.

Venturebeat

Pour allez plus loin, un ouvrage disponible en ligne sur l’apprentissage par renforcement : Renforcement Learning: An Introduction, par l’instructeur, Rich Sutton, et Andrew Barto.

Richard Sutton et Andrew Barto fournissent un compte rendu clair et simple des idées clés et des algorithmes de l’apprentissage par renforcement. Leurs discussions vont de l’historique des fondements intellectuels du domaine aux développements et applications les plus récents. La seule connaissance mathématique nécessaire est la connaissance des concepts élémentaires de probabilité.

L’apprentissage par renforcement, l’un des domaines de recherche les plus actifs en intelligence artificielle, est une approche informatisée de l’apprentissage dans laquelle un agent essaie de maximiser la récompense totale qu’il reçoit lorsqu’il interagit avec un environnement complexe et incertain.

Cette deuxième édition se concentre sur les principaux algorithmes d’apprentissage en ligne, les éléments les plus mathématiques étant présentés dans des zones ombrées.

La partie I couvre autant que possible l’apprentissage par renforcement sans aller au-delà du cas tabulaire pour lequel des solutions exactes peuvent être trouvées. De nombreux algorithmes présentés dans cette partie sont nouveaux pour la deuxième édition, notamment UCB, Expected Sarsa et Double Learning.

La partie II étend ces idées à l’approximation des fonctions, avec de nouvelles sections sur des sujets tels que les réseaux de neurones artificiels et la base de Fourier, et propose un traitement élargi de l’apprentissage off-policy et des méthodes de policy-gradient.

La troisième partie comprend de nouveaux chapitres sur les relations entre l’apprentissage par renforcement, la psychologie et les neurosciences, ainsi qu’un chapitre actualisé sur des études de cas, notamment AlphaGo et AlphaGo Zero, les jeux d’Atari et la stratégie de mise d’IBM Watson.

Le dernier chapitre aborde les impacts sociétaux futurs de l’apprentissage par renforcement.

IA : A notre service, et non à nos dépens

Nous nous dirigeons inexorablement vers un futur automatisé et une intelligence artificielle aux possibilités quasi illimitées. Il nous faut impérativement peser toutes les implications éthiques de cette nouvelle technologie et nous attaquer aux défis légaux et sociaux sans précédent qui risquent d’apparaître.

Les nouvelles technologies nous obligent parfois à nous interroger sur ce qui fait l’homme. C’est en tout cas vrai pour l’intelligence artificielle, dont les implications potentielles sont si considérables qu’elles appellent un effort de réflexion. Voilà des décennies qu’elle hantait notre imagination collective, aujourd’hui elle fait irruption dans nos vies.

Les récents progrès de l’intelligence artificielle, notamment en matière d’apprentissage machine (machine learning) et d’apprentissage profond (deep learning), montrent que ces systèmes peuvent surpasser les hommes dans de nombreux domaines, y compris les tâches exigeant une certaine dose de raisonnement cognitif. L’intelligence artificielle peut donc être une source formidable de progrès et de bienfaits pour l’humanité, mais elle pourrait aussi ébranler les fondements socio-économiques et politiques de la société humaine.

Avant de s’interroger sur les implications éthiques de l’intelligence artificielle, il faut d’abord préciser en quoi elle consiste, aujourd’hui. Lorsqu’on parle d’intelligence artificielle, on entend généralement « l’intelligence artificielle restreinte », ou « l’intelligence artificielle faible », conçue pour accomplir une tâche spécifique : analyser et fluidifier la circulation, recommander des produits en ligne à partir d’achats antérieurs, par exemple. Cette IA faible existe déjà, mais elle va se complexifier et imprégner davantage notre vie quotidienne.

Nous ne parlons pas ici de ce qu’on appelle l’« IA forte » ou l’« IA générale », telle que la dépeignent tant de romans et de films de science-fiction. Elle serait supposément capable d’accomplir toute la gamme des activités cognitives humaines, et même, selon certains experts, d’accéder à un relatif degré de « conscience ». Nous sommes encore loin d’un consensus quant à la faisabilité et aux perspectives de mise en œuvre d’une telle intelligence artificielle.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Une collecte sans fin de données

L’apprentissage machine et l’apprentissage profond exigent une grande quantité de données historiques et de données recueillies en temps réel, si l’on veut que le système d’intelligence artificielle puisse « apprendre » sur la base de son « expérience ». Leur développement a aussi besoin d’infrastructures permettant à l’intelligence artificielle de réaliser ses tâches ou objectifs à partir de ce qu’elle aura appris. Notre réflexion sur les implications éthiques de l’intelligence artificielle doit tenir compte de l’environnement technologique complexe dont elle a besoin pour fonctionner et qui englobe la collecte permanente des données de masse (big data) issues de l’Internet des objets, leur stockage dans le nuage informatique (cloud), leur utilisation par l’intelligence artificielle pour alimenter son processus d’« apprentissage » et la mise en œuvre des analyses ou des activités de l’intelligence artificielle dans les villes intelligentes, les véhicules autonomes, les robots, etc.

Plus le développement technologique devient complexe, plus les questions éthiques qu’il soulève se complexifient. Et si les principes éthiques restent immuables, notre manière de les aborder pourrait changer radicalement, au risque, sciemment ou non, de les remettre gravement en question.

Notre conception de la vie privée, de la confidentialité et de l’autonomie, par exemple, pourrait se trouver totalement transformée. Grâce à des applications ou dispositifs appelés smart (intelligents, malins) qui sont devenus des instruments de la communication des réseaux sociaux comme Facebook ou Twitter, nous divulguons « librement » et volontairement nos informations personnelles, sans pleinement cerner quels usages pourront être faits de ces données, et par qui. Elles sont ensuite transmises à des systèmes d’IA essentiellement développés par le secteur privé.

Ces données restent nominales, si bien que les informations concernant nos préférences et habitudes peuvent être utilisées pour créer des modèles de comportement permettant à l’intelligence artificielle de nous adresser des messages à caractère politique, par exemple, ou de nous vendre des applications commerciales ou encore de stocker des informations concernant notre suivi médical.

Qui a besoin de la démocratie quand on a des données ?

Le meilleur et le pire

Serait-ce la fin de notre vie privée ? Quid de la sécurité et de la vulnérabilité des données aux actions de piratage ? L’État ne pourrait-il pas s’en emparer pour contrôler la population, au probable détriment des droits humains individuels ? Un environnement d’intelligence artificielle qui, à toute heure, surveille nos préférences et s’en sert pour nous proposer différentes options, ne risque-t-il pas de limiter notre liberté de choix et notre créativité ?

Autre question importante : les données utilisées par l’intelligence artificielle pour apprendre ne risquent-elles pas d’être pétries d’idées reçues et de préjugés, pouvant éventuellement entraîner des décisions discriminatoires ou stigmatisantes ? Cela rendrait vulnérables notamment les systèmes d’intelligence artificielle chargés de relations avec le public ou de la distribution de services sociaux. Nous devons être conscients que certaines données, comme celles qui sont produites sur l’Internet, contiennent des informations qui sont le reflet du meilleur comme du pire de l’humanité. Par conséquent, on ne peut pas se fier uniquement à l’intelligence artificielle pour tirer des leçons à partir de ces données sans courir des risques sur le plan éthique. Une intervention humaine directe est indispensable.

De la fin de la vie privée au transhumanisme, le monde selon Google

Peut-on enseigner à l’intelligence artificielle un comportement éthique ? Pour certains philosophes, il est des expériences – notamment d’ordre esthétique et éthique – qui sont inhérentes à l’être humain et, par conséquent, non programmables. D’autres estiment que si la morale peut être rationnelle, c’est qu’elle peut être programmée, mais qu’il convient de respecter la liberté de choisir.

« L’État ne pourrait‑il pas s’emparer des données pour contrôler la population, au probable détriment des droits humains individuels ? »

Actuellement, il n’y a pas consensus sur la question de savoir si l’éthique et la morale peuvent être enseignées aux hommes en s’appuyant uniquement sur la raison. Dès lors, comment y en aurait-il un quand il s’agit de les enseigner à l’intelligence artificielle ! Et en imaginant qu’une intelligence artificielle puisse être un jour programmée pour être éthique, de quelle éthique s’agirait-il ? Celle des développeurs ? Le développement de l’intelligence artificielle est essentiellement entre les mains du secteur privé dont les idées sur l’éthique peuvent ne pas être conformes à celles qui prévalent dans la société.

Pour que l’intelligence artificielle puisse travailler à notre service, et non à nos dépens, nous devons engager un débat de fond qui prenne en compte les points de vue éthiques de tous ceux qui sont concernés. Et, face aux bouleversements qu’elle pourrait provoquer dans la société, veiller à ce que le cadre éthique dans lequel s’inscrira son développement futur prenne en compte aussi la question plus large de la responsabilité sociale.

Spécialiste du programme au sein de la section Bioéthique et éthique des sciences à l’UNESCO, Tee Wee Ang (Malaisie) a travaillé en ingénierie de la conception et en ingénierie de gestion, avant de rejoindre l’Organisation en 2005.

Docteur en psychologie et bioéthique, Dafna Feinholz (Mexique) dirige la section Bioéthique et éthique des sciences à l’UNESCO. Elle a été secrétaire générale de la Commission nationale mexicaine de bioéthique.

Le Courrier de l’UNESCO • juillet-septembre 2018

Quels risques éthiques ?

Marc-Antoine Dilhac répond aux questions de Régis Meyran

L’intelligence artificielle permet d’accroître l’efficacité de certaines mesures discriminatoires qui existent déjà : profilage racial, prédiction de comportement, voire repérage de l’orientation sexuelle des personnes. Les questions éthiques qu’elle soulève ainsi requièrent la mise en place d’une législation capable d’assurer un développement responsable de l’intelligence artificielle.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Quels problèmes posent les logiciels d’analyse du comportement à partir d’images filmées ?

L’intelligence artificielle contribue à améliorer l’usage préventif des systèmes de vidéosurveillance dans les espaces publics. Désormais les images sont analysées en continu par des logiciels qui détectent les actes d’agression et peuvent rapidement donner l’alerte. Ce nouveau système est expérimenté par exemple dans les couloirs du métro parisien, à la station Châtelet. Si l’on accepte le principe de la vidéosurveillance, le seul problème que pose l’usage de l’intelligence artificielle est le risque d’erreur, et ce risque n’est pas très élevé, puisque ce sont des humains qui doivent prendre la décision finale d’intervenir ou non.

Néanmoins, les erreurs dans la reconnaissance faciale sont très fréquentes. Il suffit d’une perturbation dans l’image pour que l’intelligence artificielle voie un grille-pain au lieu d’un visage ! Le sentiment d’une surveillance abusive et la multiplication des erreurs peuvent devenir particulièrement anxiogènes.

Par ailleurs, il y a lieu de s’inquiéter des dérives qui risquent de découler de ces systèmes intelligents et des méthodes de profilage (racial, social) qu’ils pourraient solliciter.

À quel type de dérives faites-vous allusion ?

Je pense notamment aux programmes, appliqués dans plusieurs pays, visant à identifier les « comportements terroristes » ou le « caractère criminel » de certaines personnes, par le biais de la reconnaissance faciale. Leurs traits de visage dénonceraient donc leur criminalité intrinsèque !

Alarmés par cette résurgence de la physiognomonie, Michal Kosinski et Yilun Wang de l’université de Stanford (États-Unis) ont voulu montrer les dangers de cette théorie pseudoscientifique que l’on croyait reléguée à l’histoire et qui consiste à étudier le caractère d’une personne à partir des traits et des expressions de son visage. Pour attirer l’attention sur les risques d’atteinte à la vie privée, ils ont créé en 2017 le « gaydar », un programme qui vise à identifier les personnes homosexuelles d’après leur photographie ! Selon les auteurs, la marge d’erreur du programme n’est que de 20 %. Outre l’effet de stigmatisation, l’application de cette technologie violerait le droit de chacun à ne pas révéler son orientation sexuelle.

Toute recherche scientifique sans repères philosophiques et sans boussole sociologique ou juridique est susceptible de poser des problèmes éthiques. Ces quelques exemples que je viens d’évoquer montrent qu’il est urgent d’imposer un cadre éthique à la recherche en IA.

Qu’en est-t-il des dérives eugénistes ?

À mon sens, l’intelligence artificielle ne constitue pas a priori un facteur d’eugénisme. Certains prédisent l’avènement d’un monde où l’être humain pourrait être amélioré grâce à l’utilisation de l’intelligence artificielle : puces qui augmentent la mémoire ou perfectionnent la reconnaissance faciale, etc. Si la robotique intelligente peut apporter des solutions médicales à des situations de handicap (rendre la mobilité grâce à des prothèses sophistiquées), l’hypothèse transhumaniste de l’homme augmenté reste quant à elle de l’ordre de la science-fiction.

Professeur adjoint en éthique et philosophie politique à l’Université de Montréal, Marc-Antoine Dilhac (France) est titulaire de la Chaire de recherche du Canada en éthique publique et Co-directeur de l’axe éthique et politique du Centre de recherche en éthique (CRÉ).

Le Courrier de l’UNESCO • juillet-septembre 2018

Intelligence artificielle : entre mythe et réalité

Les machines risquent-elles de devenir plus intelligentes que les hommes ?

Non, répond Jean-Gabriel Ganascia : il s’agit là d’un mythe inspiré par la science-fiction. Il rappelle les grandes étapes de ce domaine de recherche, les prouesses techniques actuelles et les questions éthiques qui requièrent des réponses de plus en plus urgentes.

L’intelligence artificielle est une discipline scientifique qui a vu officiellement le jour en 1956, au Dartmouth College, à Hanovre, aux États-Unis, lors d’une école d’été organisée par quatre chercheurs américains : John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon. Depuis, le terme « intelligence artificielle », qui à l’origine avait sans doute été inventé pour frapper les esprits, a fait fortune, puisqu’il est devenu très populaire au point qu’aujourd’hui plus personne ne l’ignore, que cette composante de l’informatique a pris de plus en plus d’ampleur au fil du temps et que les technologies qui en sont issues ont grandement contribué à changer le monde pendant les soixante dernières années.

Cependant, le succès du terme « intelligence artificielle » repose parfois sur un malentendu lorsqu’il désigne une entité artificielle douée d’intelligence et qui, de ce fait, rivaliserait avec les êtres humains.

Cette idée, qui renvoie à des mythes et des légendes anciennes, comme celle du Golem, a récemment été réactivée par des personnalités du monde contemporain comme le physicien britannique Stephen Hawking (1942-2018), l’entrepreneur américain Elon Musk, le futuriste américain Ray Kurzweil ou encore par les tenants de ce que l’on appelle aujourd’hui l’« IA forte » ou l’« IA générale ». Nous ne ferons toutefois pas plus état, ici, de cette acception seconde, car elle atteste uniquement d’un imaginaire foisonnant, inspiré plus par la science-fiction que par une réalité scientifique tangible confirmée par des expérimentations et des observations empiriques.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Pour John McCarthy et Marvin Minsky, comme pour les autres promoteurs de l’école d’été du Dartmouth College, l’intelligence artificielle visait initialement à la simulation, par des machines, de chacune des différentes facultés de l’intelligence, qu’il s’agisse de l’intelligence humaine, animale, végétale, sociale ou phylogénétique.

Plus précisément, cette discipline scientifique reposait sur la conjecture selon laquelle toutes les fonctions cognitives, en particulier l’apprentissage, le raisonnement, le calcul, la perception, la mémorisation, voire même la découverte scientifique ou la créativité artistique, peuvent être décrites, avec une précision telle qu’il serait possible de programmer un ordinateur pour les reproduire. Depuis plus de soixante ans que l’intelligence artificielle existe, rien n’a permis ni de démentir, ni de démontrer irréfutablement cette conjecture qui demeure à la fois ouverte et féconde.

Une histoire en dents de scie

Au cours de sa courte existence, l’intelligence artificielle a connu de nombreuses évolutions. On peut les résumer en six étapes.

Le temps des prophètes

Tout d’abord, dans l’euphorie des origines et des premiers succès, les chercheurs s’étaient laissé aller à des déclarations un peu inconsidérées qu’on leur a beaucoup reprochées par la suite.

C’est ainsi qu’en 1958, l’Américain Herbert Simon, qui deviendrait par la suite prix Nobel d’économie, avait déclaré que d’ici à dix ans les machines seraient championnes du monde aux échecs, si elles n’étaient pas exclues des compétitions internationales.

Les années sombres

Au milieu des années 1960, les progrès tardaient à se faire sentir. Un enfant de dix ans avait battu un ordinateur au jeu d’échecs en 1965 ; un rapport commandé par le Sénat américain faisait état, en 1966, des limitations intrinsèques de la traduction automatique. L’IA eut alors mauvaise presse pendant une dizaine d’années.

L’IA sémantique

Les travaux ne s’interrompirent pas pour autant, mais on axa les recherches dans de nouvelles directions. On s’intéressa à la psychologie de la mémoire, aux mécanismes de compréhension, que l’on chercha à simuler sur un ordinateur, et au rôle de la connaissance dans le raisonnement. C’est ce qui donna naissance aux techniques de représentation sémantique des connaissances, qui se développèrent considérablement dans le milieu des années 1970, et conduisit aussi à développer des systèmes dits experts, parce qu’ils recouraient au savoir d’hommes de métiers pour reproduire leurs raisonnements. Ces derniers suscitèrent d’énormes espoirs au début des années 1980 avec de multiples applications, par exemple pour le diagnostic médical.

Science des données, Machine Learning et Deep Learning

Néo-Connexionnisme et apprentissage machine

Le perfectionnement des techniques conduisit à l’élaboration d’algorithmes d’apprentissage machine (machine learning), qui permirent aux ordinateurs d’accumuler des connaissances et de se reprogrammer automatiquement à partir de leurs propres expériences.

Cela donna naissance à des applications industrielles (identification d’empreintes digitales, reconnaissance de la parole, etc.), où des techniques issues de l’intelligence artificielle, de l’informatique, de la vie artificielle et d’autres disciplines se côtoyaient pour donner des systèmes hybrides.

De l’intelligence artificielle aux interfaces homme-machine

À partir de la fin des années 1990, on coupla l’intelligence artificielle à la robotique et aux interfaces homme-machine, de façon à produire des agents intelligents qui suggèrent la présence d’affects et d’émotions. Cela donna naissance, entre autres, au calcul des émotions (affective computing), qui évalue les réactions d’un sujet ressentant des émotions et les reproduit sur une machine, et surtout au perfectionnement des agents conversationnels (chatbots).

Renaissance de l’intelligence artificielle

Depuis 2010, la puissance des machines permet d’exploiter des données de masse (big data) avec des techniques d’apprentissage profond (deep learning), qui se fondent sur le recours à des réseaux de neurones formels. Des applications très fructueuses dans de nombreux domaines (reconnaissance de la parole, des images, compréhension du langage naturel, voiture autonome, etc.) conduisent à parler d’une renaissance de l’intelligence artificielle.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Applications

Beaucoup de réalisations mettant à profit des techniques d’IA dépassent les facultés humaines : une machine a vaincu, au jeu d’échecs, le champion du monde en titre en 1997 et, plus récemment, en 2016, d’autres l’ont emporté sur l’un des meilleurs joueurs au monde au jeu de go et sur d’excellents joueurs de poker ; des ordinateurs démontrent ou aident à démontrer des théorèmes mathématiques ; on construit automatiquement des connaissances à partir de masses immenses de données dont le volume se compte en téraoctets (10 12 octets), voire en pétaoctets (10 15 octets), avec les techniques d’apprentissage machine.

Grâce à ces dernières, des automates reconnaissent la parole articulée et la transcrivent, comme les secrétaires dactylographes d’antan, et d’autres identifient avec précision des visages ou des empreintes digitales parmi des dizaines de millions et comprennent des textes écrits en langage naturel. Toujours grâce à ces techniques d’apprentissage machine, des voitures se conduisent seules ; des machines diagnostiquent mieux que des médecins dermatologues des mélanomes à partir de photographies de grains de beauté prises sur la peau avec des téléphones portables ; des robots font la guerre à la place des hommes  ; et des chaînes de fabrication dans les usines s’automatisent toujours plus.

Par ailleurs, les scientifiques utilisent ces techniques pour déterminer la fonction de certaines macromolécules biologiques, en particulier de protéines et de génomes, à partir de la séquence de leurs constituants – acides aminées pour les protéines, bases pour les génomes. Plus généralement, toutes les sciences subissent une rupture épistémologique majeure avec les expérimentations dites in silico, parce qu’elles s’effectuent à partir de données massives, grâce à des processeurs puissants dont le cœur est fait de silicium, et qu’elles s’opposent en cela aux expérimentations in vivo, sur le vivant, et, surtout, in vitro, c’est-à-dire dans des éprouvettes de verre.

Ces applications de l’intelligence artificielle affectent presque tous les domaines d’activités, en particulier dans les secteurs de l’industrie, de la banque, des assurances, de la santé, de la défense : en effet, de nombreuses tâches routinières sont désormais susceptibles d’être automatisées, ce qui transforme bien des métiers et éventuellement en supprime certains.

L’initiative mondiale de l’IEEE pour les considérations éthiques en Intelligence Artificielle et des Systèmes Autonomes

Quels risques éthiques ?

Avec l’intelligence artificielle, non seulement, la plupart des dimensions de l’intelligence – sauf peut-être l’humour – font l’objet d’analyses et de reconstructions rationnelles avec des ordinateurs, mais de plus les machines outrepassent nos facultés cognitives dans la plupart des domaines, ce qui fait craindre à certains des risques éthiques. Ces risques sont de trois ordres : la raréfaction du travail, qui serait exécuté par des machines à la place des hommes ; les conséquences pour l’autonomie de l’individu, en particulier pour sa liberté et sa sécurité ; le dépassement de l’humanité qui disparaîtrait au profit de machines plus « intelligentes ».

Or, un examen de détail montre que le travail ne disparaît pas, bien au contraire, mais qu’il se transforme et fait appel à de nouvelles compétences. De même, l’autonomie de l’individu et sa liberté ne sont pas inéluctablement remises en cause par le développement de l’intelligence artificielle, à condition toutefois de demeurer vigilants face aux intrusions de la technologie dans la vie privée.

Enfin, contrairement à ce que certains prétendent, les machines ne constituent aucunement un risque existentiel pour l’humanité, car leur autonomie n’est que d’ordre technique, en cela qu’elle ne correspond qu’à des chaînes de causalités matérielles qui vont de la prise d’information à la décision ; en revanche, les machines n’ont pas d’autonomie morale, car, même s’il arrive qu’elles nous déroutent et nous fourvoient dans le temps de l’action, elles n’ont pas de volonté propre et restent asservies aux objectifs que nous leur avons fixés.

Professeur d’informatique à Sorbonne Université, Jean-Gabriel Ganascia (France) est également chercheur au LIP6, EurAI fellow, membre de l’Institut Universitaire de France et président du comité d’éthique du CNRS. Ses activités de recherche portent actuellement sur l’apprentissage machine, la fusion symbolique de données, l’éthique computationnelle, l’éthique des ordinateurs et les humanités numériques.

Le Courrier de l’UNESCO • juillet-septembre 2018

Intelligence Artificielle Générale : Les gouvernements doivent investir

Les gouvernements doivent investir si nous voulons un jour avoir une Intelligence Artificielle Générale

Presque toutes les startups technologiques qui se targuent d’utiliser l’intelligence artificielle, se concentrent sur un problème ultra-spécifique. La société d’effets visuels Digital Domain dispose d’un algorithme d’intelligence artificielle qui automatise et améliore l’édition vidéo ; La start-up britannique Babylon Health a développé un chatbot d’intelligence artificielle pour répondre au barrage constant des questions des patients.

Ces outils sont très bien. Ils font ce qu’ils sont censés faire. Mais ils ne mèneront jamais à quelque chose de plus grand, quelque chose de plus puissant. Quelle que soit la qualité de ces systèmes d’intelligence artificielle, aucune startup ne se heurtera jamais à l’intelligence artificielle générale (AGI), qui est essentiellement un système d’intelligence artificielle de type humain complet, devenu vraiment intelligent. Aucune optimisation des systèmes pour améliorer une tâche particulière ne mènerait à une AGI.

Naturellement, il semble logique que ces sociétés soient méticuleusement focalisées. La maîtrise de ces applications spécifiques permet à ces entreprises de continuer à faire des affaires. Mais c’est vraiment dommage. Parce que l’émergence d’une intelligence artificielle générale révolutionnerait tout ce que nous savons sur la technologie.

Un système d’intelligence artificielle capable de raisonnement abstrait, de créativité et de résolution de problèmes inspirerait des changements rapides et à grande échelle dans notre manière d’aborder les problèmes d’exploration spatiale, de santé, de sécurité et de nombreux autres aspects de l’économie –  et de nos vies. Pour tous les investisseurs qui possédaient une part du gâteau, un tel algorithme serait inestimable. Mais en se basant sur la manière dont les investisseurs et leurs homologues en capital-risque abordent leurs activités, les personnes qui souhaiteraient construire une intelligence artificielle générale n’obtiendraient jamais le financement privé dont elles auraient besoin. Donc, si l’intelligence artificielle générale a une chance de se produire, cet argent devra provenir d’un autre pays, probablement un gouvernement important.

« Les investisseurs ne financent quelque chose que lorsqu’ils voient la fin du tunnel, et concernant l’intelligence artificielle, c’est très lointain », a déclaré Marian Gazdik, directeur général de Startup Grind Europe. Il pense que les gouvernements devraient faire cet investissement. En tant que capital-risqueur, Gazdik ne recherche pas nécessairement des sociétés d’intelligence artificielle, mais choisie plutôt d’investir dans des sociétés dotées de technologies étonnantes susceptibles de résoudre un problème réel.

Gazdik a pris la parole lors du panel « Investing in General AI » (Investir dans l’intelligence artificielle générale) de la Joint Multi-Conference on Human-Level Artificial Intelligence organisée par GoodAI à Prague. Avec les cinq autres investisseurs technologiques du panel, il est arrivé à deux reprises qu’un investisseur en capital-risque investisse dans une nouvelle startup spécialisée en intelligence artificielle. Et ni l’une ni l’autre ne sont propices à une innovation de grande envergure qui donnerait lieu à une intelligence artificielle générale.

« J’aime beaucoup l’intelligence artificielle générale en tant qu’intellectuel, mais en tant qu’investisseur, pas autant », a déclaré Tak Lo, un partenaire de Zeroth.ai, un accélérateur asiatique qui investit dans des start-ups technologiques, et qui a également pris la parole au sein du panel.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Lo, comme les autres capital-risqueurs qui soutiennent les start-ups axées sur l’intelligence artificielle, trouve généralement plus rentable d’investir dans des sociétés dotées de modèles économiques performants qui utilisent l’intelligence artificielle pour résoudre un gros problème ou des sociétés qui ont mis la main sur un ensemble de données volumineux et précieux pour les algorithmes d’apprentissage.

L’intelligence artificielle générale, par contre, est trop éloigné dans le champ du possible pour promettre un retour sur investissement dans un délai raisonnable. Les panélistes ont convenu que les investisseurs en capital-risque veulent avoir un retour sur investissement dans les cinq à dix ans, mais certainement pas plus longtemps. Et pour de nombreuses entreprises privées du monde, y compris des géants comme Google et IBM, l’incertitude entourant l’intelligence artificielle générale rend l’attente avant retour beaucoup trop longue, a déclaré le panéliste Jakub Kotowski, responsable de l’intelligence artificielle chez MSD Global Software Engineering.

Et n’importe quel système d’intelligence artificielle véritablement intelligent comme une AGI se situe très loin dans l’avenir, voire n’existera jamais, comme l’ont déclaré les scientifiques de Facebook Tomas Mikolov et Irakli Beridze, responsable de la robotique et de l’intelligence artificielle de l’ONU, lors d’interviews privées en dehors de ce panel. Ce n’est pas véritablement un investissement prometteur.

L’industrie privée, par conséquent, ne nous mènera pas à cet avenir de l’intelligence artificielle générale. Les panélistes ont donc appelé les gouvernements et les autres formes de financement public pour faire avancer les choses. Pour les fonds publics, disent-ils, le calendrier des actionnaires ou des investisseurs ne sont pas pertinents ; au lieu de cela, ces bailleurs de fonds peuvent injecter des sommes considérables dans ces rêves lointains et élevés, dans le but de nous en rapprocher pour le bien commun.

Une fois que le gouvernement aura dépensé suffisamment d’argent au problème pour avoir quelques solutions à montrer, les startups et les investisseurs privés pourront s’attaquer sur les plus viables, si l’intelligence artificielle générale devenait un objectif réalisable à court terme.

Prenez les voitures volantes. Des entreprises comme Volvo, Uber et Boeing sont toutes en course pour être les premières à développer des véhicules personnels volants. Mais ces entreprises dépendent de partenariats avec la NASA et l’UC Berkeley, une université publique, afin de savoir comment y arriver.

« Les investisseurs sont comme des moutons, ils aiment investir dans des domaines dans lesquels d’autres investissent. Ils attendent toujours le premier grand coup », a déclaré Gazdik.

Science des données, Machine Learning et Deep Learning

Il se peut que le gouvernement américain ne consacre pas suffisamment d’argent à l’intelligence artificielle générale afin de s’assurer que le concurrent le plus fort la développera ici. La Russie et la Chine investissent massivement dans l’intelligence artificielle et comptent sur leurs infrastructures fédérales pour le faire. Aux États-Unis, une grande partie de cet investissement gouvernemental passe par des universités axées sur la recherche et des partenariats avec des géants de la technologie comme Facebook et Google.

Alors, comment les gouvernements devraient-ils investir dans l’intelligence artificielle générale pour faire de cette technologie révolutionnaire une réalité ? Aucun des panélistes n’a pu proposer une suggestion concrète. Au lieu de cela, ils ont vaguement suggéré que les gouvernements, les entreprises et les universitaires devraient tous « unir leurs points forts » et « se concentrer sur ce qu’ils devraient faire ». Personne n’a précisé ce que cela signifie exactement, mais Lo a suggéré que les agences gouvernementales devraient concentrer leurs efforts afin de réfléchir à la situation de la société dans les décennies à venir et élaborer des politiques, des normes et des protocoles appropriés.

Mais en ce qui concerne les investissements gouvernementaux, certains panélistes ont suggéré que les agences fédérales mettent leur argent entre les mains de gestionnaires privés, tels que les panélistes eux-mêmes, qui pourraient être en mesure de l’investir de façon plus stratégique qu’un bureaucrate ne saurait le faire (cela profiterait évidemment beaucoup aux panélistes, il faut donc le prendre avec un grain de sel).

Pour que tout cela se produise, un gouvernement doit décider que l’objectif de développer le premier système d’intelligence artificielle générale au monde est une priorité de haut rang qui mérite une vraie place sur une feuille budgétaire concurrentiel. Jusqu’à présent, personne ne l’a fait. Et jusqu’à ce qu’on le fasse, l’intelligence artificielle générale se situera toujours au-delà de toute emprise d’entreprise technologique, toujours à l’affût du temps opportun pour un investissement commercial.

traduction Thomas Jousse

Futurism