Les fondements, avantages et la possible menace existentielle de l’IA

Au cours des derniers siècles, la condition humaine a été profondément modifiée par les révolutions agricole et industrielle. Avec la création et le développement continu de l’intelligence artificielle, nous sommes en plein essor d’une révolution de l’intelligence qui pourrait s’avérer bien plus transformatrice que les deux précédentes. Comment en sommes-nous arrivés là, et quels étaient les fondements intellectuels nécessaires à la création de l’intelligence artificielle ? Quels avantages pouvons-nous tirer de l’alignement des systèmes d’intelligence artificielle, et quels sont les risques et les pièges potentiels ? À plus long terme, les systèmes d’IA superintelligents présenteront-ils un risque existentiel pour l’humanité ? Steven Pinker, auteur à succès et professeur de psychologie à Harvard, et Stuart Russell, professeur d’informatique à l’Université de Berkeley, répondent à ces questions.

Steven Pinker and Stuart Russell on the Foundations, Benefits, and Possible Existential Threat of AI by Future of Life Institute

Le nouveau livre de Stuart Russell, Human Compatible

Le nouveau livre de Stuart Russell, Human Compatible: Artificial Intelligence and the Problem of Control, est disponible sur Amazon.

Le professeur Russell explique pourquoi il en est venu à considérer sa propre discipline comme une menace existentielle pour notre espèce, et expose comment nous pouvons changer de cap avant qu’il ne soit trop tard.

Le livre explore l’idée de l’intelligence chez les humains et dans les machines, décrit les bénéfices auxquels nous pouvons nous attendre (des assistants personnels intelligents à la recherche scientifique considérablement accélérée), et souligne les percées de l’intelligence artificielle qui doivent encore se produire avant que nous n’atteignions l’intelligence artificielle surhumaine.

Le Professeur Russell explique comment que les humains utilisent déjà à mauvais escient l’intelligence artificielle, depuis les armes autonomes mortelles jusqu’à la manipulation des opinions à l’échelle mondiale.

Enfin, il explique pourquoi nous devons veiller à ne jamais perdre le contrôle des machines plus puissantes que nous.

Il suggère que nous pouvons reconstruire l’intelligence artificielle sur une nouvelle base, selon laquelle les machines seraient conçues pour être fondamentalement incertaines concernant les préférences humaines qu’elles doivent satisfaire. De telles machines seraient humbles, altruistes et engagées à poursuivre nos objectifs, et non les leurs. Cette nouvelle fondation nous permettrait de créer des machines qui sont manifestement déférentes et bénéfiques.

Human Compatible by Stuart Russell, read by Raphael Corkhill by PRH Audio

Stuart Russell est professeur d’informatique et titulaire de la chaire Smith-Zadeh d’ingénierie à l’Université de Californie, Berkeley. Il a été vice-président du Conseil du Forum économique mondial sur l’intelligence artificielle et la robotique et conseiller des Nations Unies sur la maîtrise des armements.

Professor of Computer Science at University of California, Berkeley – Stuart Russell tiré de HARDtalk par BBC World Service. Date de sortie : 2019. Genre : Podcast.
What is the most serious existential threat facing humanity? Artificial Intelligence, warned the physicist Stephen Hawking, could spell the end of the human race. Stephen Sackur interviews Stuart Russell, a globally-renowned computer scientist and sometime adviser to the UK Government and the UN. Right now, AI is being developed as a tool to enhance human capability; is it fanciful to imagine the machines taking over?

https://iatranshumanisme.com/wp-content/uploads/2019/12/Professor-of-Computer-Science-at-University-of-California-Berkeley-Stuart-Russell.mp3?_=1

Vèmes Rencontres Maçonniques Lafayette – L’essence de L’humain

Vèmes Rencontres Maçonniques Lafayette du jeudi 23 mai 2019 au Grand Orient de France – Communiqué de Presse

Essentialisme ? Existentialisme ou divers constructivismes ?

Alors que la question de « l’essence de l’humain » semblait être classée une fois pour toutes par divers courants de pensée issus des univers scientifiques et philosophiques, « le reste », vu comme littéralement « inexistant » était dédaigneusement laissé au domaine religieux et aux spéculations métaphysiques.

Or voici que, contre toute attente, les récents développements de la biologie, comme de « l’intelligence artificielle » conduisent les hommes à remettre encore une fois sur le métier de l’analyse la représentation qu’ils se font d’eux-mêmes.

Les capacités de raisonnement, le rire, l’émotion, l’humour, l’empathie, sont-ils encore « le propre de l’homme » ? A l’heure des robots émotifs, tous ces « traits » que l’on a cru longtemps exclusifs à l’espèce humaine sont-ils encore distinctifs ? Aristote a longtemps défini l’homme comme « un animal doué de raison ». Descartes a placé son existence dans sa faculté de penser. Pensée ou conscience ? La redécouverte de l’inconscient a conduit, au siècle dernier, à postuler un homme structural, inconsciemment assujetti, au-delà de son illusion de conscience et de liberté, au système dont il est partie prenante. Que ce système soit familial, éducationnel, linguistique, social.

Ces frontières semblent aujourd’hui remises profondément en cause par une conception naturaliste de l’homme. La vision darwiniste des espèces est vécue par la plupart comme une forme d’évidence scientifique qu’on ne songe plus à contester. On assiste dès lors à la prise de conscience collective d’une forme d’abus de propriété exercé par l’homme sur la nature entière, accompagné de la montée d’un animalisme moral. Ces éléments combinés avec les avancées de la biologie rendent poreuse la frontière homme-animal. L’homme est présenté comme « un animal comme les autres ». Et, sur le plan moral, c’est de façon subliminale l’animal, qui devient « un homme comme les autres », méritant respect et droit absolu de préservation.

L’avènement de cet « homme biologique », qui est aussi dans ce sens un « homme neuronal », se conjugue avec les rêves de « transhumanisme », dans lesquels le « support-silicium » est envisagé sur le même plan que le « support » vivant.

L’accélération technoscientifique, mais aussi le foisonnement intense des productions culturelles, viennent contribuer à brouiller les cartes davantage encore. Les francs-maçons ne pouvaient y rester insensibles.

En regard des schémas de représentation ambiants, la Franc-Maçonnerie propose le modèle d’un « homme essentiellement humain », en perpétuel devenir, sur le mode initiatique. La cinquième Rencontre Lafayette entre la Grande Loge Nationale Française et le Grand Orient de France permettra à deux conférenciers issus de leurs rangs, Norbert HILLAIRE et Jacques DESOR d’apporter leur contribution aux nouvelles réflexions développées sur l’essence de l’homme. Deux grands témoins de la société civile viendront leur donner la réplique : Guy VALLANCIEN et Laurence DEVILLERS apporteront leurs réactions éclairées, l’un chirurgien, l’autre chercheuse en intelligence artificielle.

Vèmes Rencontres Maçonniques Lafayette – L’essence de L’humain

DeepMind et Google : la bataille pour contrôler l’IA

Il y a une lutte de pouvoir à l’intérieur de Google pour contrôler l’intelligence artificielle suprahumaine

Si DeepMind construit une IA suprahumaine, qui la contrôlera ?

DeepMind, la start-up d’intelligence artificielle achetée par Google en 2014, a pour mission de créer le premier système d’intelligence artificielle générale (AGI) au monde – le genre d’intelligence artificielle suprahumaine et globale que nous voyons dans la science-fiction.

Pour s’assurer que l’AGI est utilisée de manière responsable, Demis Hassabis, fondateur de DeepMind, a protégé l’indépendance de son entreprise vis-à-vis de Google et de sa société mère Alphabet en mettant en place des garde-fous internes, selon une nouvelle histoire de The Economist, 1843 Magazine – dont un comité d’éthique contrôlé par Hassabis et son équipe d’origine, plutôt que Google.

Bien que Google se soit longtemps imposé comme un leader en matière d’éthique dans le monde de l’intelligence artificielle, le rapport de 1843 détaille une histoire de prises de pouvoir et de gestion douteuse.

Par exemple, DeepMind a lancé en 2016 une nouvelle division de soins de santé qui utiliserait la technologie d’IA pour rationaliser les opérations hospitalières et surveiller les fonctions vitales des patients.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Deux ans plus tard, quelques mois seulement après que DeepMind Health ait conclu des contrats avec des hôpitaux partenaires, Google a annoncé Google Health et y a intégré le programme de DeepMind, donnant peu de préavis à DeepMind ou aux hôpitaux. Des sources proches du dossier, qui avaient obtenu l’anonymat de 1843 Magazine pour avoir signé des accords de non-divulgation, ont expliqué que cette décision avait suscité ressentiment et colère au sein de l’équipe de DeepMind.

Certaines de ces sources anonymes ont également partagé des doutes avec 1843 Magazine sur le fait que DeepMind pourrait déchiffrer le code de l’intelligence artificielle générale, soulignant des faiblesses peu connues et des mises en garde concernant les succès très médiatisés de l’entreprise en matière d’IA.

Les algorithmes développés par DeepMind peuvent faire des choses fascinantes, comme démolir certains jeux vidéo et conserver les connaissances mieux que d’autres systèmes, mais il n’y a pas de feuille de route claire vers la technologie fondamentalement nouvelle nécessaire pour développer l’AGI.

Mais si Hassabis le découvre, les garde-fous et les comités d’éthique qu’il a mis en place lors de l’achat de son entreprise pourraient signifier que la technologie restera entre ses mains et celles de son équipe au lieu de devenir une simple technologie Google.

The Economist 1843

Augmentus

Augmentus – Chroniques du Cyclocentaure à l’ère de l’intelligence artificielle

Chroniques du Cyclocentaure à l’ère de l’intelligence artificielle

Conté par un passionné de cyclisme et d’intelligence artificielle, Augmentus est le roman de la révolution cognitive qui a commencé en ce début de XXIème siècle.

La première partie du roman raconte l’histoire d’une startup, dont les trois jeunes fondateurs parviennent progressivement à construire la première IA forte, capable de généralisation, d’abstraction et d’invention. Pour cela, ils combinent approche symbolique et connexionniste, en s’appuyant sur une plate-forme matérielle innovante, remarquablement sobre en énergie.

Après ce premier succès, les IA fortes se généralisent, ce qui a pour conséquence logique une accélération foudroyante du progrès, qui affectera l’humanité entière. Si cette accélération du progrès bénéficie apparemment aux hommes, elle menace aussi de leur faire perdre le contrôle de leur destin. L’augmentation neuronale apparaît vite comme le seul moyen de contrôler (ou même simplement comprendre) les IA. Mais qui contrôlera les Augmentus, ces nouveaux hommes puissamment augmentés ? Homo sapiens et Homo augmentus peuvent-ils vraiment cohabiter ?

Sous une forme romanesque (et souvent empreinte d’humour !), Augmentus aborde l’ensemble des sujets relatifs à la révolution cognitive : construction d’une IA faible (machine learning, deep learning), émulation du cerveau entier à la façon du Human Brain Project, évolution vers l’IA forte, usages de l’IA (industriels, financiers, sociaux, militaires…), bio-augmentation, implants neuronaux, ingénierie génétique, eugénisme… car tous les moyens sont bons pour acquérir la suprématie dans la guerre des intelligences qui va faire rage.

Augmentus est certes une fiction, mais une fiction fermement ancrée dans la réalité, puisqu’elle fourmille de détails techniques. L’ensemble des projets d’IA, des processeurs, des systèmes, des sociétés, des expériences, des données scientifiques cités est exact. Ça parle de pétaFLOPs et de téraoctets, de rétropropagation du gradient et de circuits neuromorphiques, de CRISPR et d’homéostasie… Un lexique en fin d’ouvrage permet notamment de préciser le sens des termes les plus techniques.

Mais au-delà des aspects techniques, des thèmes plus philosophiques sont abordés : qu’est-ce que la conscience ? Peut-elle émerger d’un tas de processeurs ? Selon quel critère objectif peut-on distinguer un être conscient d’un être non conscient ? Peut-on découpler intelligence et conscience ? La violence est-elle la condition nécessaire de l’intelligence ? Quelle éthique pour l’intelligence artificielle ? Quelles conséquences sociétales et économiques (dataïsme, digitocratie, revenu universel…) ?

Enfin, Augmentus peut aussi être lu comme l’histoire de la métamorphose d’un homme. Sa pratique cycliste l’aide à bâtir une IA forte, car elle lui fait comprendre l’importance des émotions, des hormones, du corps, de l’envie de survivre et de dominer dans la construction de l’intelligence, mais cette même pratique, de plus en plus digitalisée, obsédée par la performance, et au final décevante, lui fera progressivement perdre toute empathie avec le genre humain.

La neuro-augmentation ne sera ainsi qu’une étape dans sa métamorphose graduelle, mais inéluctable en intelligence totalement électronique. Elle lui permettra in fine de résolument adopter le point de vue qu’une superintelligence ne manquerait pas d’avoir sur l’espèce humaine – un point de vue qui ne nous rassurera pas…

L’auteur, Olivier Silberzahn, est cycliste et ingénieur polytechnicien. Il travaille depuis plus de 25 ans pour de grandes sociétés informatiques, françaises et internationales, récemment dans le domaine du Cloud, du Big Data et de l’intelligence artificielle. Augmentus succède à son premier roman, Journal d’un nageur de l’ère post-Trump.

OpenAI lance un programme pédagogique pour se préparer à l’AGI

OpenAI a annoncé le lancement de Spinning Up, un programme conçu pour enseigner à quiconque l’apprentissage par renforcement en profondeur (deep reinforcement learning (deep RL)).

L’apprentissage par renforcement implique de fournir des signaux de récompense à un agent (robot etc…) dans un environnement incitant à maximiser sa récompense pour atteindre un objectif.

L’apprentissage par renforcement a joué un rôle dans les avancées majeures en matière d’intelligence artificielle telles que AlphaGo de Google DeepMind et les agents formés dans des environnements tels que Dota 2.

Spinning Up comprend une collection de documents de recherche importants sur l’apprentissage par renforcement, un glossaire de la terminologie nécessaire à la compréhension de l’apprentissage par renforcement, ainsi qu’une collection d’algorithmes pour la réalisation d’exercices.

Le programme a été lancé non seulement pour aider les gens à comprendre le fonctionnement de l’apprentissage par renforcement, mais aussi pour progresser dans la réalisation de l’objectif général d’OpenAI de créer en toute sécurité une intelligence artificielle générale (AGI) en impliquant davantage de personnes de domaines autres que l’informatique.

Intelligence Artificielle Générale : Les gouvernements doivent investir

«Pour résoudre les problèmes de sécurité liés à l’IA, il faudra faire appel à des personnes ayant un large éventail de compétences et de points de vue, et de nombreuses professions concernées n’ont aucun lien avec l’ingénierie ou l’informatique. Néanmoins, toutes les personnes impliquées devront en savoir suffisamment sur la technologie pour prendre des décisions éclairées et sur plusieurs éléments de Spinning Up qui répondent à ce besoin », selon la documentation Spinning Up.

En plus de progresser dans la réalisation de l’objectif d’une intelligence artificielle générale déployée en toute sécurité, le programme a été créé car il n’existe à ce jour aucun manuel unique capable de fournir les connaissances nécessaires pour mettre en œuvre l’apprentissage par renforcement; la connaissance est actuellement enfermée dans une série de conférences disparates et de documents de recherche influents.

«Notre package est donc conçu pour servir d’étape intermédiaire manquante aux personnes qui sont enthousiastes pour un apprentissage par renforcement en profondeur et qui souhaitent apprendre à l’utiliser ou à apporter une contribution, mais qui n’ont pas une idée précise de ce qu’il faut étudier ou comment transformer des algorithmes en code. Nous avons essayé de faire de ce point un point de lancement aussi utile que possible », lit-on dans la page du projet.

L’initiative Spinning Up fait partie d’un ensemble plus large de services éducatifs qu’OpenAI a l’intention de mettre à disposition. Un atelier de mise au point aura lieu en février 2019, et un autre atelier sera co-organisé avec le Center for Human-Compatible AI (CHAI) de l’Université de Californie à Berkeley.

Venturebeat

Pour allez plus loin, un ouvrage disponible en ligne sur l’apprentissage par renforcement : Renforcement Learning: An Introduction, par l’instructeur, Rich Sutton, et Andrew Barto.

Richard Sutton et Andrew Barto fournissent un compte rendu clair et simple des idées clés et des algorithmes de l’apprentissage par renforcement. Leurs discussions vont de l’historique des fondements intellectuels du domaine aux développements et applications les plus récents. La seule connaissance mathématique nécessaire est la connaissance des concepts élémentaires de probabilité.

L’apprentissage par renforcement, l’un des domaines de recherche les plus actifs en intelligence artificielle, est une approche informatisée de l’apprentissage dans laquelle un agent essaie de maximiser la récompense totale qu’il reçoit lorsqu’il interagit avec un environnement complexe et incertain.

Cette deuxième édition se concentre sur les principaux algorithmes d’apprentissage en ligne, les éléments les plus mathématiques étant présentés dans des zones ombrées.

La partie I couvre autant que possible l’apprentissage par renforcement sans aller au-delà du cas tabulaire pour lequel des solutions exactes peuvent être trouvées. De nombreux algorithmes présentés dans cette partie sont nouveaux pour la deuxième édition, notamment UCB, Expected Sarsa et Double Learning.

La partie II étend ces idées à l’approximation des fonctions, avec de nouvelles sections sur des sujets tels que les réseaux de neurones artificiels et la base de Fourier, et propose un traitement élargi de l’apprentissage off-policy et des méthodes de policy-gradient.

La troisième partie comprend de nouveaux chapitres sur les relations entre l’apprentissage par renforcement, la psychologie et les neurosciences, ainsi qu’un chapitre actualisé sur des études de cas, notamment AlphaGo et AlphaGo Zero, les jeux d’Atari et la stratégie de mise d’IBM Watson.

Le dernier chapitre aborde les impacts sociétaux futurs de l’apprentissage par renforcement.

Le dernier livre de Stephen Hawking

Voici ce que les experts pensent des prédictions posthumes de Stephen Hawking sur l’intelligence artificielle, le piratage de gènes et la religion

ISBN-13: 978-1984819192

Dans son dernier livre : Brief Answers to the Big Questions » publié à titre posthume, Stephen Hawking y énonce un certain nombre d’affirmations audacieuses concernant l’avenir de l’édition génétique, de l’intelligence artificielle et même de la religion. Voici comment les experts évaluent ses prédictions.

Seigneurs surhumains

Stephen Hawking haussa le ton en affirmant que des personnes puissantes pirateraient leurs gènes pour devenir plus intelligentes, plus fortes et plus longtemps. Finalement, il écrit dans son dernier livre, le reste d’entre nous «mourra ou deviendra sans importance». De nombreux généticiens considèrent déjà cela comme inévitable. Certains craignent que les gens utilisent CRISPR pour modifier leurs gènes avant que la technologie ne soit considérée comme sûre, ils préconisent de nouvelles lois pour protéger les humains non augmentés.

« Nous aurons probablement besoin de nouvelles structures de supervision internationales, afin de ne pas réaliser ces exemples dystopiques du “Nouveau Grand Monde” », a déclaré George Daley, doyen de la faculté de médecine de la Harvard Medical School, au Sommet international sur l’édition du génome humain en 2015.

> Qu’est ce que le Transhumanisme ?

L’intelligence artificielle tueuse

Au cours de sa vie, Stephen Hawking a parlé de sa peur de la puissante intelligence artificielle. Il réitère ses réserves dans ce livre, écrivant qu’ignorer la menace de l’intelligence artificielle super puissante pourrait être la «pire erreur de l’humanité». Cela pourrait nous détruire avec des armes que «nous ne pouvons même pas comprendre», a-t-il écrit.

Il y a un débat sur ce point. De nombreux technologues, y compris le milliardaire Elon Musk, conviennent que l’IA avancée pourrait constituer une menace existentielle pour l’humanité.

Mais d’autres le minimisent. «Il n’y a aucune raison à l’heure actuelle de s’inquiéter des algorithmes d’intelligence artificielle auto-conscients qui fixent leurs propres objectifs et deviennent fous», a déclaré à Fortune Richard Socher, professeur de machine learning à Stanford.

Et un sondage auprès de chercheurs en intelligence artificielle a révélé que la plupart des personnes interrogées pensent qu’il faudra au moins 25 ans pour créer une super intelligence artificielle – nous avons donc au moins un peu de temps pour nous préparer.

Ni dieux ni maîtres

«Croire à l’après-vie n’est qu’un vœu pieux», écrit-il, ajoutant qu’il n’y a pas de Dieu.

De nombreux scientifiques sont certainement d’accord avec Stephen Hawking sur cette affirmation, mais pas tous. Une enquête menée en 2015 a révélé que de nombreux chercheurs du monde entier étaient religieux, mais que dans la plupart des pays, les scientifiques sont généralement moins religieux que les non-scientifiques.

Stephen Hawking croyait que le Big Bang nous avait donné notre univers, et non pas un dieu jouant avec l’idée de la création. Il croyait que la mécanique quantique avait déclenché une étincelle qui avait fait que notre univers se développait d’une particule subatomique à une étendue infinie dont nous ne retrouverions jamais les angles. Cela aurait pu “émerger sans violer les lois connues de la nature”, écrit-il, dans LiveScience.

Les travaux de Stephen Hawking sur la mécanique quantique lui ont également fourni une explication de ce qui a précédé l’univers. Ce n’était pas un dieu solitaire qui claquait des doigts et créait la vie. La théorie quantique explique que le Big Bang est né d’une singularité, comme un trou noir, où l’espace et le temps étaient tellement déformés qu’ils n’existaient même pas. Rien ne s’est passé avant le Big Bang, car le temps ne s’est pas passé.

« La science peut faire un meilleur travail pour expliquer le miracle de la vie », déclare Stephen Hawking.

En effet, des scientifiques bien respectés ont également affirmé que la conscience humaine vit après la mort, qu’il n’y a pas de mort de la conscience – juste la mort du corps. Que la mécanique quantique permettrait à la conscience de vivre après la mort du corps.

IA : A notre service, et non à nos dépens

Nous nous dirigeons inexorablement vers un futur automatisé et une intelligence artificielle aux possibilités quasi illimitées. Il nous faut impérativement peser toutes les implications éthiques de cette nouvelle technologie et nous attaquer aux défis légaux et sociaux sans précédent qui risquent d’apparaître.

Les nouvelles technologies nous obligent parfois à nous interroger sur ce qui fait l’homme. C’est en tout cas vrai pour l’intelligence artificielle, dont les implications potentielles sont si considérables qu’elles appellent un effort de réflexion. Voilà des décennies qu’elle hantait notre imagination collective, aujourd’hui elle fait irruption dans nos vies.

Les récents progrès de l’intelligence artificielle, notamment en matière d’apprentissage machine (machine learning) et d’apprentissage profond (deep learning), montrent que ces systèmes peuvent surpasser les hommes dans de nombreux domaines, y compris les tâches exigeant une certaine dose de raisonnement cognitif. L’intelligence artificielle peut donc être une source formidable de progrès et de bienfaits pour l’humanité, mais elle pourrait aussi ébranler les fondements socio-économiques et politiques de la société humaine.

Avant de s’interroger sur les implications éthiques de l’intelligence artificielle, il faut d’abord préciser en quoi elle consiste, aujourd’hui. Lorsqu’on parle d’intelligence artificielle, on entend généralement « l’intelligence artificielle restreinte », ou « l’intelligence artificielle faible », conçue pour accomplir une tâche spécifique : analyser et fluidifier la circulation, recommander des produits en ligne à partir d’achats antérieurs, par exemple. Cette IA faible existe déjà, mais elle va se complexifier et imprégner davantage notre vie quotidienne.

Nous ne parlons pas ici de ce qu’on appelle l’« IA forte » ou l’« IA générale », telle que la dépeignent tant de romans et de films de science-fiction. Elle serait supposément capable d’accomplir toute la gamme des activités cognitives humaines, et même, selon certains experts, d’accéder à un relatif degré de « conscience ». Nous sommes encore loin d’un consensus quant à la faisabilité et aux perspectives de mise en œuvre d’une telle intelligence artificielle.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Une collecte sans fin de données

L’apprentissage machine et l’apprentissage profond exigent une grande quantité de données historiques et de données recueillies en temps réel, si l’on veut que le système d’intelligence artificielle puisse « apprendre » sur la base de son « expérience ». Leur développement a aussi besoin d’infrastructures permettant à l’intelligence artificielle de réaliser ses tâches ou objectifs à partir de ce qu’elle aura appris. Notre réflexion sur les implications éthiques de l’intelligence artificielle doit tenir compte de l’environnement technologique complexe dont elle a besoin pour fonctionner et qui englobe la collecte permanente des données de masse (big data) issues de l’Internet des objets, leur stockage dans le nuage informatique (cloud), leur utilisation par l’intelligence artificielle pour alimenter son processus d’« apprentissage » et la mise en œuvre des analyses ou des activités de l’intelligence artificielle dans les villes intelligentes, les véhicules autonomes, les robots, etc.

Plus le développement technologique devient complexe, plus les questions éthiques qu’il soulève se complexifient. Et si les principes éthiques restent immuables, notre manière de les aborder pourrait changer radicalement, au risque, sciemment ou non, de les remettre gravement en question.

Notre conception de la vie privée, de la confidentialité et de l’autonomie, par exemple, pourrait se trouver totalement transformée. Grâce à des applications ou dispositifs appelés smart (intelligents, malins) qui sont devenus des instruments de la communication des réseaux sociaux comme Facebook ou Twitter, nous divulguons « librement » et volontairement nos informations personnelles, sans pleinement cerner quels usages pourront être faits de ces données, et par qui. Elles sont ensuite transmises à des systèmes d’IA essentiellement développés par le secteur privé.

Ces données restent nominales, si bien que les informations concernant nos préférences et habitudes peuvent être utilisées pour créer des modèles de comportement permettant à l’intelligence artificielle de nous adresser des messages à caractère politique, par exemple, ou de nous vendre des applications commerciales ou encore de stocker des informations concernant notre suivi médical.

Qui a besoin de la démocratie quand on a des données ?

Le meilleur et le pire

Serait-ce la fin de notre vie privée ? Quid de la sécurité et de la vulnérabilité des données aux actions de piratage ? L’État ne pourrait-il pas s’en emparer pour contrôler la population, au probable détriment des droits humains individuels ? Un environnement d’intelligence artificielle qui, à toute heure, surveille nos préférences et s’en sert pour nous proposer différentes options, ne risque-t-il pas de limiter notre liberté de choix et notre créativité ?

Autre question importante : les données utilisées par l’intelligence artificielle pour apprendre ne risquent-elles pas d’être pétries d’idées reçues et de préjugés, pouvant éventuellement entraîner des décisions discriminatoires ou stigmatisantes ? Cela rendrait vulnérables notamment les systèmes d’intelligence artificielle chargés de relations avec le public ou de la distribution de services sociaux. Nous devons être conscients que certaines données, comme celles qui sont produites sur l’Internet, contiennent des informations qui sont le reflet du meilleur comme du pire de l’humanité. Par conséquent, on ne peut pas se fier uniquement à l’intelligence artificielle pour tirer des leçons à partir de ces données sans courir des risques sur le plan éthique. Une intervention humaine directe est indispensable.

De la fin de la vie privée au transhumanisme, le monde selon Google

Peut-on enseigner à l’intelligence artificielle un comportement éthique ? Pour certains philosophes, il est des expériences – notamment d’ordre esthétique et éthique – qui sont inhérentes à l’être humain et, par conséquent, non programmables. D’autres estiment que si la morale peut être rationnelle, c’est qu’elle peut être programmée, mais qu’il convient de respecter la liberté de choisir.

« L’État ne pourrait‑il pas s’emparer des données pour contrôler la population, au probable détriment des droits humains individuels ? »

Actuellement, il n’y a pas consensus sur la question de savoir si l’éthique et la morale peuvent être enseignées aux hommes en s’appuyant uniquement sur la raison. Dès lors, comment y en aurait-il un quand il s’agit de les enseigner à l’intelligence artificielle ! Et en imaginant qu’une intelligence artificielle puisse être un jour programmée pour être éthique, de quelle éthique s’agirait-il ? Celle des développeurs ? Le développement de l’intelligence artificielle est essentiellement entre les mains du secteur privé dont les idées sur l’éthique peuvent ne pas être conformes à celles qui prévalent dans la société.

Pour que l’intelligence artificielle puisse travailler à notre service, et non à nos dépens, nous devons engager un débat de fond qui prenne en compte les points de vue éthiques de tous ceux qui sont concernés. Et, face aux bouleversements qu’elle pourrait provoquer dans la société, veiller à ce que le cadre éthique dans lequel s’inscrira son développement futur prenne en compte aussi la question plus large de la responsabilité sociale.

Spécialiste du programme au sein de la section Bioéthique et éthique des sciences à l’UNESCO, Tee Wee Ang (Malaisie) a travaillé en ingénierie de la conception et en ingénierie de gestion, avant de rejoindre l’Organisation en 2005.

Docteur en psychologie et bioéthique, Dafna Feinholz (Mexique) dirige la section Bioéthique et éthique des sciences à l’UNESCO. Elle a été secrétaire générale de la Commission nationale mexicaine de bioéthique.

Le Courrier de l’UNESCO • juillet-septembre 2018

Quels risques éthiques ?

Marc-Antoine Dilhac répond aux questions de Régis Meyran

L’intelligence artificielle permet d’accroître l’efficacité de certaines mesures discriminatoires qui existent déjà : profilage racial, prédiction de comportement, voire repérage de l’orientation sexuelle des personnes. Les questions éthiques qu’elle soulève ainsi requièrent la mise en place d’une législation capable d’assurer un développement responsable de l’intelligence artificielle.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Quels problèmes posent les logiciels d’analyse du comportement à partir d’images filmées ?

L’intelligence artificielle contribue à améliorer l’usage préventif des systèmes de vidéosurveillance dans les espaces publics. Désormais les images sont analysées en continu par des logiciels qui détectent les actes d’agression et peuvent rapidement donner l’alerte. Ce nouveau système est expérimenté par exemple dans les couloirs du métro parisien, à la station Châtelet. Si l’on accepte le principe de la vidéosurveillance, le seul problème que pose l’usage de l’intelligence artificielle est le risque d’erreur, et ce risque n’est pas très élevé, puisque ce sont des humains qui doivent prendre la décision finale d’intervenir ou non.

Néanmoins, les erreurs dans la reconnaissance faciale sont très fréquentes. Il suffit d’une perturbation dans l’image pour que l’intelligence artificielle voie un grille-pain au lieu d’un visage ! Le sentiment d’une surveillance abusive et la multiplication des erreurs peuvent devenir particulièrement anxiogènes.

Par ailleurs, il y a lieu de s’inquiéter des dérives qui risquent de découler de ces systèmes intelligents et des méthodes de profilage (racial, social) qu’ils pourraient solliciter.

À quel type de dérives faites-vous allusion ?

Je pense notamment aux programmes, appliqués dans plusieurs pays, visant à identifier les « comportements terroristes » ou le « caractère criminel » de certaines personnes, par le biais de la reconnaissance faciale. Leurs traits de visage dénonceraient donc leur criminalité intrinsèque !

Alarmés par cette résurgence de la physiognomonie, Michal Kosinski et Yilun Wang de l’université de Stanford (États-Unis) ont voulu montrer les dangers de cette théorie pseudoscientifique que l’on croyait reléguée à l’histoire et qui consiste à étudier le caractère d’une personne à partir des traits et des expressions de son visage. Pour attirer l’attention sur les risques d’atteinte à la vie privée, ils ont créé en 2017 le « gaydar », un programme qui vise à identifier les personnes homosexuelles d’après leur photographie ! Selon les auteurs, la marge d’erreur du programme n’est que de 20 %. Outre l’effet de stigmatisation, l’application de cette technologie violerait le droit de chacun à ne pas révéler son orientation sexuelle.

Toute recherche scientifique sans repères philosophiques et sans boussole sociologique ou juridique est susceptible de poser des problèmes éthiques. Ces quelques exemples que je viens d’évoquer montrent qu’il est urgent d’imposer un cadre éthique à la recherche en IA.

Qu’en est-t-il des dérives eugénistes ?

À mon sens, l’intelligence artificielle ne constitue pas a priori un facteur d’eugénisme. Certains prédisent l’avènement d’un monde où l’être humain pourrait être amélioré grâce à l’utilisation de l’intelligence artificielle : puces qui augmentent la mémoire ou perfectionnent la reconnaissance faciale, etc. Si la robotique intelligente peut apporter des solutions médicales à des situations de handicap (rendre la mobilité grâce à des prothèses sophistiquées), l’hypothèse transhumaniste de l’homme augmenté reste quant à elle de l’ordre de la science-fiction.

Professeur adjoint en éthique et philosophie politique à l’Université de Montréal, Marc-Antoine Dilhac (France) est titulaire de la Chaire de recherche du Canada en éthique publique et Co-directeur de l’axe éthique et politique du Centre de recherche en éthique (CRÉ).

Le Courrier de l’UNESCO • juillet-septembre 2018

Intelligence artificielle : entre mythe et réalité

Les machines risquent-elles de devenir plus intelligentes que les hommes ?

Non, répond Jean-Gabriel Ganascia : il s’agit là d’un mythe inspiré par la science-fiction. Il rappelle les grandes étapes de ce domaine de recherche, les prouesses techniques actuelles et les questions éthiques qui requièrent des réponses de plus en plus urgentes.

L’intelligence artificielle est une discipline scientifique qui a vu officiellement le jour en 1956, au Dartmouth College, à Hanovre, aux États-Unis, lors d’une école d’été organisée par quatre chercheurs américains : John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon. Depuis, le terme « intelligence artificielle », qui à l’origine avait sans doute été inventé pour frapper les esprits, a fait fortune, puisqu’il est devenu très populaire au point qu’aujourd’hui plus personne ne l’ignore, que cette composante de l’informatique a pris de plus en plus d’ampleur au fil du temps et que les technologies qui en sont issues ont grandement contribué à changer le monde pendant les soixante dernières années.

Cependant, le succès du terme « intelligence artificielle » repose parfois sur un malentendu lorsqu’il désigne une entité artificielle douée d’intelligence et qui, de ce fait, rivaliserait avec les êtres humains.

Cette idée, qui renvoie à des mythes et des légendes anciennes, comme celle du Golem, a récemment été réactivée par des personnalités du monde contemporain comme le physicien britannique Stephen Hawking (1942-2018), l’entrepreneur américain Elon Musk, le futuriste américain Ray Kurzweil ou encore par les tenants de ce que l’on appelle aujourd’hui l’« IA forte » ou l’« IA générale ». Nous ne ferons toutefois pas plus état, ici, de cette acception seconde, car elle atteste uniquement d’un imaginaire foisonnant, inspiré plus par la science-fiction que par une réalité scientifique tangible confirmée par des expérimentations et des observations empiriques.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Pour John McCarthy et Marvin Minsky, comme pour les autres promoteurs de l’école d’été du Dartmouth College, l’intelligence artificielle visait initialement à la simulation, par des machines, de chacune des différentes facultés de l’intelligence, qu’il s’agisse de l’intelligence humaine, animale, végétale, sociale ou phylogénétique.

Plus précisément, cette discipline scientifique reposait sur la conjecture selon laquelle toutes les fonctions cognitives, en particulier l’apprentissage, le raisonnement, le calcul, la perception, la mémorisation, voire même la découverte scientifique ou la créativité artistique, peuvent être décrites, avec une précision telle qu’il serait possible de programmer un ordinateur pour les reproduire. Depuis plus de soixante ans que l’intelligence artificielle existe, rien n’a permis ni de démentir, ni de démontrer irréfutablement cette conjecture qui demeure à la fois ouverte et féconde.

Une histoire en dents de scie

Au cours de sa courte existence, l’intelligence artificielle a connu de nombreuses évolutions. On peut les résumer en six étapes.

Le temps des prophètes

Tout d’abord, dans l’euphorie des origines et des premiers succès, les chercheurs s’étaient laissé aller à des déclarations un peu inconsidérées qu’on leur a beaucoup reprochées par la suite.

C’est ainsi qu’en 1958, l’Américain Herbert Simon, qui deviendrait par la suite prix Nobel d’économie, avait déclaré que d’ici à dix ans les machines seraient championnes du monde aux échecs, si elles n’étaient pas exclues des compétitions internationales.

Les années sombres

Au milieu des années 1960, les progrès tardaient à se faire sentir. Un enfant de dix ans avait battu un ordinateur au jeu d’échecs en 1965 ; un rapport commandé par le Sénat américain faisait état, en 1966, des limitations intrinsèques de la traduction automatique. L’IA eut alors mauvaise presse pendant une dizaine d’années.

L’IA sémantique

Les travaux ne s’interrompirent pas pour autant, mais on axa les recherches dans de nouvelles directions. On s’intéressa à la psychologie de la mémoire, aux mécanismes de compréhension, que l’on chercha à simuler sur un ordinateur, et au rôle de la connaissance dans le raisonnement. C’est ce qui donna naissance aux techniques de représentation sémantique des connaissances, qui se développèrent considérablement dans le milieu des années 1970, et conduisit aussi à développer des systèmes dits experts, parce qu’ils recouraient au savoir d’hommes de métiers pour reproduire leurs raisonnements. Ces derniers suscitèrent d’énormes espoirs au début des années 1980 avec de multiples applications, par exemple pour le diagnostic médical.

Science des données, Machine Learning et Deep Learning

Néo-Connexionnisme et apprentissage machine

Le perfectionnement des techniques conduisit à l’élaboration d’algorithmes d’apprentissage machine (machine learning), qui permirent aux ordinateurs d’accumuler des connaissances et de se reprogrammer automatiquement à partir de leurs propres expériences.

Cela donna naissance à des applications industrielles (identification d’empreintes digitales, reconnaissance de la parole, etc.), où des techniques issues de l’intelligence artificielle, de l’informatique, de la vie artificielle et d’autres disciplines se côtoyaient pour donner des systèmes hybrides.

De l’intelligence artificielle aux interfaces homme-machine

À partir de la fin des années 1990, on coupla l’intelligence artificielle à la robotique et aux interfaces homme-machine, de façon à produire des agents intelligents qui suggèrent la présence d’affects et d’émotions. Cela donna naissance, entre autres, au calcul des émotions (affective computing), qui évalue les réactions d’un sujet ressentant des émotions et les reproduit sur une machine, et surtout au perfectionnement des agents conversationnels (chatbots).

Renaissance de l’intelligence artificielle

Depuis 2010, la puissance des machines permet d’exploiter des données de masse (big data) avec des techniques d’apprentissage profond (deep learning), qui se fondent sur le recours à des réseaux de neurones formels. Des applications très fructueuses dans de nombreux domaines (reconnaissance de la parole, des images, compréhension du langage naturel, voiture autonome, etc.) conduisent à parler d’une renaissance de l’intelligence artificielle.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Applications

Beaucoup de réalisations mettant à profit des techniques d’IA dépassent les facultés humaines : une machine a vaincu, au jeu d’échecs, le champion du monde en titre en 1997 et, plus récemment, en 2016, d’autres l’ont emporté sur l’un des meilleurs joueurs au monde au jeu de go et sur d’excellents joueurs de poker ; des ordinateurs démontrent ou aident à démontrer des théorèmes mathématiques ; on construit automatiquement des connaissances à partir de masses immenses de données dont le volume se compte en téraoctets (10 12 octets), voire en pétaoctets (10 15 octets), avec les techniques d’apprentissage machine.

Grâce à ces dernières, des automates reconnaissent la parole articulée et la transcrivent, comme les secrétaires dactylographes d’antan, et d’autres identifient avec précision des visages ou des empreintes digitales parmi des dizaines de millions et comprennent des textes écrits en langage naturel. Toujours grâce à ces techniques d’apprentissage machine, des voitures se conduisent seules ; des machines diagnostiquent mieux que des médecins dermatologues des mélanomes à partir de photographies de grains de beauté prises sur la peau avec des téléphones portables ; des robots font la guerre à la place des hommes  ; et des chaînes de fabrication dans les usines s’automatisent toujours plus.

Par ailleurs, les scientifiques utilisent ces techniques pour déterminer la fonction de certaines macromolécules biologiques, en particulier de protéines et de génomes, à partir de la séquence de leurs constituants – acides aminées pour les protéines, bases pour les génomes. Plus généralement, toutes les sciences subissent une rupture épistémologique majeure avec les expérimentations dites in silico, parce qu’elles s’effectuent à partir de données massives, grâce à des processeurs puissants dont le cœur est fait de silicium, et qu’elles s’opposent en cela aux expérimentations in vivo, sur le vivant, et, surtout, in vitro, c’est-à-dire dans des éprouvettes de verre.

Ces applications de l’intelligence artificielle affectent presque tous les domaines d’activités, en particulier dans les secteurs de l’industrie, de la banque, des assurances, de la santé, de la défense : en effet, de nombreuses tâches routinières sont désormais susceptibles d’être automatisées, ce qui transforme bien des métiers et éventuellement en supprime certains.

L’initiative mondiale de l’IEEE pour les considérations éthiques en Intelligence Artificielle et des Systèmes Autonomes

Quels risques éthiques ?

Avec l’intelligence artificielle, non seulement, la plupart des dimensions de l’intelligence – sauf peut-être l’humour – font l’objet d’analyses et de reconstructions rationnelles avec des ordinateurs, mais de plus les machines outrepassent nos facultés cognitives dans la plupart des domaines, ce qui fait craindre à certains des risques éthiques. Ces risques sont de trois ordres : la raréfaction du travail, qui serait exécuté par des machines à la place des hommes ; les conséquences pour l’autonomie de l’individu, en particulier pour sa liberté et sa sécurité ; le dépassement de l’humanité qui disparaîtrait au profit de machines plus « intelligentes ».

Or, un examen de détail montre que le travail ne disparaît pas, bien au contraire, mais qu’il se transforme et fait appel à de nouvelles compétences. De même, l’autonomie de l’individu et sa liberté ne sont pas inéluctablement remises en cause par le développement de l’intelligence artificielle, à condition toutefois de demeurer vigilants face aux intrusions de la technologie dans la vie privée.

Enfin, contrairement à ce que certains prétendent, les machines ne constituent aucunement un risque existentiel pour l’humanité, car leur autonomie n’est que d’ordre technique, en cela qu’elle ne correspond qu’à des chaînes de causalités matérielles qui vont de la prise d’information à la décision ; en revanche, les machines n’ont pas d’autonomie morale, car, même s’il arrive qu’elles nous déroutent et nous fourvoient dans le temps de l’action, elles n’ont pas de volonté propre et restent asservies aux objectifs que nous leur avons fixés.

Professeur d’informatique à Sorbonne Université, Jean-Gabriel Ganascia (France) est également chercheur au LIP6, EurAI fellow, membre de l’Institut Universitaire de France et président du comité d’éthique du CNRS. Ses activités de recherche portent actuellement sur l’apprentissage machine, la fusion symbolique de données, l’éthique computationnelle, l’éthique des ordinateurs et les humanités numériques.

Le Courrier de l’UNESCO • juillet-septembre 2018