Vèmes Rencontres Maçonniques Lafayette – L’essence de L’humain

Vèmes Rencontres Maçonniques Lafayette du jeudi 23 mai 2019 au Grand Orient de France – Communiqué de Presse

Essentialisme ? Existentialisme ou divers constructivismes ?

Alors que la question de « l’essence de l’humain » semblait être classée une fois pour toutes par divers courants de pensée issus des univers scientifiques et philosophiques, « le reste », vu comme littéralement « inexistant » était dédaigneusement laissé au domaine religieux et aux spéculations métaphysiques.

Or voici que, contre toute attente, les récents développements de la biologie, comme de « l’intelligence artificielle » conduisent les hommes à remettre encore une fois sur le métier de l’analyse la représentation qu’ils se font d’eux-mêmes.

Les capacités de raisonnement, le rire, l’émotion, l’humour, l’empathie, sont-ils encore « le propre de l’homme » ? A l’heure des robots émotifs, tous ces « traits » que l’on a cru longtemps exclusifs à l’espèce humaine sont-ils encore distinctifs ? Aristote a longtemps défini l’homme comme « un animal doué de raison ». Descartes a placé son existence dans sa faculté de penser. Pensée ou conscience ? La redécouverte de l’inconscient a conduit, au siècle dernier, à postuler un homme structural, inconsciemment assujetti, au-delà de son illusion de conscience et de liberté, au système dont il est partie prenante. Que ce système soit familial, éducationnel, linguistique, social.

Ces frontières semblent aujourd’hui remises profondément en cause par une conception naturaliste de l’homme. La vision darwiniste des espèces est vécue par la plupart comme une forme d’évidence scientifique qu’on ne songe plus à contester. On assiste dès lors à la prise de conscience collective d’une forme d’abus de propriété exercé par l’homme sur la nature entière, accompagné de la montée d’un animalisme moral. Ces éléments combinés avec les avancées de la biologie rendent poreuse la frontière homme-animal. L’homme est présenté comme « un animal comme les autres ». Et, sur le plan moral, c’est de façon subliminale l’animal, qui devient « un homme comme les autres », méritant respect et droit absolu de préservation.

L’avènement de cet « homme biologique », qui est aussi dans ce sens un « homme neuronal », se conjugue avec les rêves de « transhumanisme », dans lesquels le « support-silicium » est envisagé sur le même plan que le « support » vivant.

L’accélération technoscientifique, mais aussi le foisonnement intense des productions culturelles, viennent contribuer à brouiller les cartes davantage encore. Les francs-maçons ne pouvaient y rester insensibles.

En regard des schémas de représentation ambiants, la Franc-Maçonnerie propose le modèle d’un « homme essentiellement humain », en perpétuel devenir, sur le mode initiatique. La cinquième Rencontre Lafayette entre la Grande Loge Nationale Française et le Grand Orient de France permettra à deux conférenciers issus de leurs rangs, Norbert HILLAIRE et Jacques DESOR d’apporter leur contribution aux nouvelles réflexions développées sur l’essence de l’homme. Deux grands témoins de la société civile viendront leur donner la réplique : Guy VALLANCIEN et Laurence DEVILLERS apporteront leurs réactions éclairées, l’un chirurgien, l’autre chercheuse en intelligence artificielle.

Vèmes Rencontres Maçonniques Lafayette – L’essence de L’humain

Augmentus

Augmentus – Chroniques du Cyclocentaure à l’ère de l’intelligence artificielle

Chroniques du Cyclocentaure à l’ère de l’intelligence artificielle

Conté par un passionné de cyclisme et d’intelligence artificielle, Augmentus est le roman de la révolution cognitive qui a commencé en ce début de XXIème siècle.

La première partie du roman raconte l’histoire d’une startup, dont les trois jeunes fondateurs parviennent progressivement à construire la première IA forte, capable de généralisation, d’abstraction et d’invention. Pour cela, ils combinent approche symbolique et connexionniste, en s’appuyant sur une plate-forme matérielle innovante, remarquablement sobre en énergie.

Après ce premier succès, les IA fortes se généralisent, ce qui a pour conséquence logique une accélération foudroyante du progrès, qui affectera l’humanité entière. Si cette accélération du progrès bénéficie apparemment aux hommes, elle menace aussi de leur faire perdre le contrôle de leur destin. L’augmentation neuronale apparaît vite comme le seul moyen de contrôler (ou même simplement comprendre) les IA. Mais qui contrôlera les Augmentus, ces nouveaux hommes puissamment augmentés ? Homo sapiens et Homo augmentus peuvent-ils vraiment cohabiter ?

Sous une forme romanesque (et souvent empreinte d’humour !), Augmentus aborde l’ensemble des sujets relatifs à la révolution cognitive : construction d’une IA faible (machine learning, deep learning), émulation du cerveau entier à la façon du Human Brain Project, évolution vers l’IA forte, usages de l’IA (industriels, financiers, sociaux, militaires…), bio-augmentation, implants neuronaux, ingénierie génétique, eugénisme… car tous les moyens sont bons pour acquérir la suprématie dans la guerre des intelligences qui va faire rage.

Augmentus est certes une fiction, mais une fiction fermement ancrée dans la réalité, puisqu’elle fourmille de détails techniques. L’ensemble des projets d’IA, des processeurs, des systèmes, des sociétés, des expériences, des données scientifiques cités est exact. Ça parle de pétaFLOPs et de téraoctets, de rétropropagation du gradient et de circuits neuromorphiques, de CRISPR et d’homéostasie… Un lexique en fin d’ouvrage permet notamment de préciser le sens des termes les plus techniques.

Mais au-delà des aspects techniques, des thèmes plus philosophiques sont abordés : qu’est-ce que la conscience ? Peut-elle émerger d’un tas de processeurs ? Selon quel critère objectif peut-on distinguer un être conscient d’un être non conscient ? Peut-on découpler intelligence et conscience ? La violence est-elle la condition nécessaire de l’intelligence ? Quelle éthique pour l’intelligence artificielle ? Quelles conséquences sociétales et économiques (dataïsme, digitocratie, revenu universel…) ?

Enfin, Augmentus peut aussi être lu comme l’histoire de la métamorphose d’un homme. Sa pratique cycliste l’aide à bâtir une IA forte, car elle lui fait comprendre l’importance des émotions, des hormones, du corps, de l’envie de survivre et de dominer dans la construction de l’intelligence, mais cette même pratique, de plus en plus digitalisée, obsédée par la performance, et au final décevante, lui fera progressivement perdre toute empathie avec le genre humain.

La neuro-augmentation ne sera ainsi qu’une étape dans sa métamorphose graduelle, mais inéluctable en intelligence totalement électronique. Elle lui permettra in fine de résolument adopter le point de vue qu’une superintelligence ne manquerait pas d’avoir sur l’espèce humaine – un point de vue qui ne nous rassurera pas…

L’auteur, Olivier Silberzahn, est cycliste et ingénieur polytechnicien. Il travaille depuis plus de 25 ans pour de grandes sociétés informatiques, françaises et internationales, récemment dans le domaine du Cloud, du Big Data et de l’intelligence artificielle. Augmentus succède à son premier roman, Journal d’un nageur de l’ère post-Trump.

IA : A notre service, et non à nos dépens

Nous nous dirigeons inexorablement vers un futur automatisé et une intelligence artificielle aux possibilités quasi illimitées. Il nous faut impérativement peser toutes les implications éthiques de cette nouvelle technologie et nous attaquer aux défis légaux et sociaux sans précédent qui risquent d’apparaître.

Les nouvelles technologies nous obligent parfois à nous interroger sur ce qui fait l’homme. C’est en tout cas vrai pour l’intelligence artificielle, dont les implications potentielles sont si considérables qu’elles appellent un effort de réflexion. Voilà des décennies qu’elle hantait notre imagination collective, aujourd’hui elle fait irruption dans nos vies.

Les récents progrès de l’intelligence artificielle, notamment en matière d’apprentissage machine (machine learning) et d’apprentissage profond (deep learning), montrent que ces systèmes peuvent surpasser les hommes dans de nombreux domaines, y compris les tâches exigeant une certaine dose de raisonnement cognitif. L’intelligence artificielle peut donc être une source formidable de progrès et de bienfaits pour l’humanité, mais elle pourrait aussi ébranler les fondements socio-économiques et politiques de la société humaine.

Avant de s’interroger sur les implications éthiques de l’intelligence artificielle, il faut d’abord préciser en quoi elle consiste, aujourd’hui. Lorsqu’on parle d’intelligence artificielle, on entend généralement « l’intelligence artificielle restreinte », ou « l’intelligence artificielle faible », conçue pour accomplir une tâche spécifique : analyser et fluidifier la circulation, recommander des produits en ligne à partir d’achats antérieurs, par exemple. Cette IA faible existe déjà, mais elle va se complexifier et imprégner davantage notre vie quotidienne.

Nous ne parlons pas ici de ce qu’on appelle l’« IA forte » ou l’« IA générale », telle que la dépeignent tant de romans et de films de science-fiction. Elle serait supposément capable d’accomplir toute la gamme des activités cognitives humaines, et même, selon certains experts, d’accéder à un relatif degré de « conscience ». Nous sommes encore loin d’un consensus quant à la faisabilité et aux perspectives de mise en œuvre d’une telle intelligence artificielle.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Une collecte sans fin de données

L’apprentissage machine et l’apprentissage profond exigent une grande quantité de données historiques et de données recueillies en temps réel, si l’on veut que le système d’intelligence artificielle puisse « apprendre » sur la base de son « expérience ». Leur développement a aussi besoin d’infrastructures permettant à l’intelligence artificielle de réaliser ses tâches ou objectifs à partir de ce qu’elle aura appris. Notre réflexion sur les implications éthiques de l’intelligence artificielle doit tenir compte de l’environnement technologique complexe dont elle a besoin pour fonctionner et qui englobe la collecte permanente des données de masse (big data) issues de l’Internet des objets, leur stockage dans le nuage informatique (cloud), leur utilisation par l’intelligence artificielle pour alimenter son processus d’« apprentissage » et la mise en œuvre des analyses ou des activités de l’intelligence artificielle dans les villes intelligentes, les véhicules autonomes, les robots, etc.

Plus le développement technologique devient complexe, plus les questions éthiques qu’il soulève se complexifient. Et si les principes éthiques restent immuables, notre manière de les aborder pourrait changer radicalement, au risque, sciemment ou non, de les remettre gravement en question.

Notre conception de la vie privée, de la confidentialité et de l’autonomie, par exemple, pourrait se trouver totalement transformée. Grâce à des applications ou dispositifs appelés smart (intelligents, malins) qui sont devenus des instruments de la communication des réseaux sociaux comme Facebook ou Twitter, nous divulguons « librement » et volontairement nos informations personnelles, sans pleinement cerner quels usages pourront être faits de ces données, et par qui. Elles sont ensuite transmises à des systèmes d’IA essentiellement développés par le secteur privé.

Ces données restent nominales, si bien que les informations concernant nos préférences et habitudes peuvent être utilisées pour créer des modèles de comportement permettant à l’intelligence artificielle de nous adresser des messages à caractère politique, par exemple, ou de nous vendre des applications commerciales ou encore de stocker des informations concernant notre suivi médical.

Qui a besoin de la démocratie quand on a des données ?

Le meilleur et le pire

Serait-ce la fin de notre vie privée ? Quid de la sécurité et de la vulnérabilité des données aux actions de piratage ? L’État ne pourrait-il pas s’en emparer pour contrôler la population, au probable détriment des droits humains individuels ? Un environnement d’intelligence artificielle qui, à toute heure, surveille nos préférences et s’en sert pour nous proposer différentes options, ne risque-t-il pas de limiter notre liberté de choix et notre créativité ?

Autre question importante : les données utilisées par l’intelligence artificielle pour apprendre ne risquent-elles pas d’être pétries d’idées reçues et de préjugés, pouvant éventuellement entraîner des décisions discriminatoires ou stigmatisantes ? Cela rendrait vulnérables notamment les systèmes d’intelligence artificielle chargés de relations avec le public ou de la distribution de services sociaux. Nous devons être conscients que certaines données, comme celles qui sont produites sur l’Internet, contiennent des informations qui sont le reflet du meilleur comme du pire de l’humanité. Par conséquent, on ne peut pas se fier uniquement à l’intelligence artificielle pour tirer des leçons à partir de ces données sans courir des risques sur le plan éthique. Une intervention humaine directe est indispensable.

De la fin de la vie privée au transhumanisme, le monde selon Google

Peut-on enseigner à l’intelligence artificielle un comportement éthique ? Pour certains philosophes, il est des expériences – notamment d’ordre esthétique et éthique – qui sont inhérentes à l’être humain et, par conséquent, non programmables. D’autres estiment que si la morale peut être rationnelle, c’est qu’elle peut être programmée, mais qu’il convient de respecter la liberté de choisir.

« L’État ne pourrait‑il pas s’emparer des données pour contrôler la population, au probable détriment des droits humains individuels ? »

Actuellement, il n’y a pas consensus sur la question de savoir si l’éthique et la morale peuvent être enseignées aux hommes en s’appuyant uniquement sur la raison. Dès lors, comment y en aurait-il un quand il s’agit de les enseigner à l’intelligence artificielle ! Et en imaginant qu’une intelligence artificielle puisse être un jour programmée pour être éthique, de quelle éthique s’agirait-il ? Celle des développeurs ? Le développement de l’intelligence artificielle est essentiellement entre les mains du secteur privé dont les idées sur l’éthique peuvent ne pas être conformes à celles qui prévalent dans la société.

Pour que l’intelligence artificielle puisse travailler à notre service, et non à nos dépens, nous devons engager un débat de fond qui prenne en compte les points de vue éthiques de tous ceux qui sont concernés. Et, face aux bouleversements qu’elle pourrait provoquer dans la société, veiller à ce que le cadre éthique dans lequel s’inscrira son développement futur prenne en compte aussi la question plus large de la responsabilité sociale.

Spécialiste du programme au sein de la section Bioéthique et éthique des sciences à l’UNESCO, Tee Wee Ang (Malaisie) a travaillé en ingénierie de la conception et en ingénierie de gestion, avant de rejoindre l’Organisation en 2005.

Docteur en psychologie et bioéthique, Dafna Feinholz (Mexique) dirige la section Bioéthique et éthique des sciences à l’UNESCO. Elle a été secrétaire générale de la Commission nationale mexicaine de bioéthique.

Le Courrier de l’UNESCO • juillet-septembre 2018

Quels risques éthiques ?

Marc-Antoine Dilhac répond aux questions de Régis Meyran

L’intelligence artificielle permet d’accroître l’efficacité de certaines mesures discriminatoires qui existent déjà : profilage racial, prédiction de comportement, voire repérage de l’orientation sexuelle des personnes. Les questions éthiques qu’elle soulève ainsi requièrent la mise en place d’une législation capable d’assurer un développement responsable de l’intelligence artificielle.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Quels problèmes posent les logiciels d’analyse du comportement à partir d’images filmées ?

L’intelligence artificielle contribue à améliorer l’usage préventif des systèmes de vidéosurveillance dans les espaces publics. Désormais les images sont analysées en continu par des logiciels qui détectent les actes d’agression et peuvent rapidement donner l’alerte. Ce nouveau système est expérimenté par exemple dans les couloirs du métro parisien, à la station Châtelet. Si l’on accepte le principe de la vidéosurveillance, le seul problème que pose l’usage de l’intelligence artificielle est le risque d’erreur, et ce risque n’est pas très élevé, puisque ce sont des humains qui doivent prendre la décision finale d’intervenir ou non.

Néanmoins, les erreurs dans la reconnaissance faciale sont très fréquentes. Il suffit d’une perturbation dans l’image pour que l’intelligence artificielle voie un grille-pain au lieu d’un visage ! Le sentiment d’une surveillance abusive et la multiplication des erreurs peuvent devenir particulièrement anxiogènes.

Par ailleurs, il y a lieu de s’inquiéter des dérives qui risquent de découler de ces systèmes intelligents et des méthodes de profilage (racial, social) qu’ils pourraient solliciter.

À quel type de dérives faites-vous allusion ?

Je pense notamment aux programmes, appliqués dans plusieurs pays, visant à identifier les « comportements terroristes » ou le « caractère criminel » de certaines personnes, par le biais de la reconnaissance faciale. Leurs traits de visage dénonceraient donc leur criminalité intrinsèque !

Alarmés par cette résurgence de la physiognomonie, Michal Kosinski et Yilun Wang de l’université de Stanford (États-Unis) ont voulu montrer les dangers de cette théorie pseudoscientifique que l’on croyait reléguée à l’histoire et qui consiste à étudier le caractère d’une personne à partir des traits et des expressions de son visage. Pour attirer l’attention sur les risques d’atteinte à la vie privée, ils ont créé en 2017 le « gaydar », un programme qui vise à identifier les personnes homosexuelles d’après leur photographie ! Selon les auteurs, la marge d’erreur du programme n’est que de 20 %. Outre l’effet de stigmatisation, l’application de cette technologie violerait le droit de chacun à ne pas révéler son orientation sexuelle.

Toute recherche scientifique sans repères philosophiques et sans boussole sociologique ou juridique est susceptible de poser des problèmes éthiques. Ces quelques exemples que je viens d’évoquer montrent qu’il est urgent d’imposer un cadre éthique à la recherche en IA.

Qu’en est-t-il des dérives eugénistes ?

À mon sens, l’intelligence artificielle ne constitue pas a priori un facteur d’eugénisme. Certains prédisent l’avènement d’un monde où l’être humain pourrait être amélioré grâce à l’utilisation de l’intelligence artificielle : puces qui augmentent la mémoire ou perfectionnent la reconnaissance faciale, etc. Si la robotique intelligente peut apporter des solutions médicales à des situations de handicap (rendre la mobilité grâce à des prothèses sophistiquées), l’hypothèse transhumaniste de l’homme augmenté reste quant à elle de l’ordre de la science-fiction.

Professeur adjoint en éthique et philosophie politique à l’Université de Montréal, Marc-Antoine Dilhac (France) est titulaire de la Chaire de recherche du Canada en éthique publique et Co-directeur de l’axe éthique et politique du Centre de recherche en éthique (CRÉ).

Le Courrier de l’UNESCO • juillet-septembre 2018

Intelligence artificielle : entre mythe et réalité

Les machines risquent-elles de devenir plus intelligentes que les hommes ?

Non, répond Jean-Gabriel Ganascia : il s’agit là d’un mythe inspiré par la science-fiction. Il rappelle les grandes étapes de ce domaine de recherche, les prouesses techniques actuelles et les questions éthiques qui requièrent des réponses de plus en plus urgentes.

L’intelligence artificielle est une discipline scientifique qui a vu officiellement le jour en 1956, au Dartmouth College, à Hanovre, aux États-Unis, lors d’une école d’été organisée par quatre chercheurs américains : John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon. Depuis, le terme « intelligence artificielle », qui à l’origine avait sans doute été inventé pour frapper les esprits, a fait fortune, puisqu’il est devenu très populaire au point qu’aujourd’hui plus personne ne l’ignore, que cette composante de l’informatique a pris de plus en plus d’ampleur au fil du temps et que les technologies qui en sont issues ont grandement contribué à changer le monde pendant les soixante dernières années.

Cependant, le succès du terme « intelligence artificielle » repose parfois sur un malentendu lorsqu’il désigne une entité artificielle douée d’intelligence et qui, de ce fait, rivaliserait avec les êtres humains.

Cette idée, qui renvoie à des mythes et des légendes anciennes, comme celle du Golem, a récemment été réactivée par des personnalités du monde contemporain comme le physicien britannique Stephen Hawking (1942-2018), l’entrepreneur américain Elon Musk, le futuriste américain Ray Kurzweil ou encore par les tenants de ce que l’on appelle aujourd’hui l’« IA forte » ou l’« IA générale ». Nous ne ferons toutefois pas plus état, ici, de cette acception seconde, car elle atteste uniquement d’un imaginaire foisonnant, inspiré plus par la science-fiction que par une réalité scientifique tangible confirmée par des expérimentations et des observations empiriques.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Pour John McCarthy et Marvin Minsky, comme pour les autres promoteurs de l’école d’été du Dartmouth College, l’intelligence artificielle visait initialement à la simulation, par des machines, de chacune des différentes facultés de l’intelligence, qu’il s’agisse de l’intelligence humaine, animale, végétale, sociale ou phylogénétique.

Plus précisément, cette discipline scientifique reposait sur la conjecture selon laquelle toutes les fonctions cognitives, en particulier l’apprentissage, le raisonnement, le calcul, la perception, la mémorisation, voire même la découverte scientifique ou la créativité artistique, peuvent être décrites, avec une précision telle qu’il serait possible de programmer un ordinateur pour les reproduire. Depuis plus de soixante ans que l’intelligence artificielle existe, rien n’a permis ni de démentir, ni de démontrer irréfutablement cette conjecture qui demeure à la fois ouverte et féconde.

Une histoire en dents de scie

Au cours de sa courte existence, l’intelligence artificielle a connu de nombreuses évolutions. On peut les résumer en six étapes.

Le temps des prophètes

Tout d’abord, dans l’euphorie des origines et des premiers succès, les chercheurs s’étaient laissé aller à des déclarations un peu inconsidérées qu’on leur a beaucoup reprochées par la suite.

C’est ainsi qu’en 1958, l’Américain Herbert Simon, qui deviendrait par la suite prix Nobel d’économie, avait déclaré que d’ici à dix ans les machines seraient championnes du monde aux échecs, si elles n’étaient pas exclues des compétitions internationales.

Les années sombres

Au milieu des années 1960, les progrès tardaient à se faire sentir. Un enfant de dix ans avait battu un ordinateur au jeu d’échecs en 1965 ; un rapport commandé par le Sénat américain faisait état, en 1966, des limitations intrinsèques de la traduction automatique. L’IA eut alors mauvaise presse pendant une dizaine d’années.

L’IA sémantique

Les travaux ne s’interrompirent pas pour autant, mais on axa les recherches dans de nouvelles directions. On s’intéressa à la psychologie de la mémoire, aux mécanismes de compréhension, que l’on chercha à simuler sur un ordinateur, et au rôle de la connaissance dans le raisonnement. C’est ce qui donna naissance aux techniques de représentation sémantique des connaissances, qui se développèrent considérablement dans le milieu des années 1970, et conduisit aussi à développer des systèmes dits experts, parce qu’ils recouraient au savoir d’hommes de métiers pour reproduire leurs raisonnements. Ces derniers suscitèrent d’énormes espoirs au début des années 1980 avec de multiples applications, par exemple pour le diagnostic médical.

Science des données, Machine Learning et Deep Learning

Néo-Connexionnisme et apprentissage machine

Le perfectionnement des techniques conduisit à l’élaboration d’algorithmes d’apprentissage machine (machine learning), qui permirent aux ordinateurs d’accumuler des connaissances et de se reprogrammer automatiquement à partir de leurs propres expériences.

Cela donna naissance à des applications industrielles (identification d’empreintes digitales, reconnaissance de la parole, etc.), où des techniques issues de l’intelligence artificielle, de l’informatique, de la vie artificielle et d’autres disciplines se côtoyaient pour donner des systèmes hybrides.

De l’intelligence artificielle aux interfaces homme-machine

À partir de la fin des années 1990, on coupla l’intelligence artificielle à la robotique et aux interfaces homme-machine, de façon à produire des agents intelligents qui suggèrent la présence d’affects et d’émotions. Cela donna naissance, entre autres, au calcul des émotions (affective computing), qui évalue les réactions d’un sujet ressentant des émotions et les reproduit sur une machine, et surtout au perfectionnement des agents conversationnels (chatbots).

Renaissance de l’intelligence artificielle

Depuis 2010, la puissance des machines permet d’exploiter des données de masse (big data) avec des techniques d’apprentissage profond (deep learning), qui se fondent sur le recours à des réseaux de neurones formels. Des applications très fructueuses dans de nombreux domaines (reconnaissance de la parole, des images, compréhension du langage naturel, voiture autonome, etc.) conduisent à parler d’une renaissance de l’intelligence artificielle.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Applications

Beaucoup de réalisations mettant à profit des techniques d’IA dépassent les facultés humaines : une machine a vaincu, au jeu d’échecs, le champion du monde en titre en 1997 et, plus récemment, en 2016, d’autres l’ont emporté sur l’un des meilleurs joueurs au monde au jeu de go et sur d’excellents joueurs de poker ; des ordinateurs démontrent ou aident à démontrer des théorèmes mathématiques ; on construit automatiquement des connaissances à partir de masses immenses de données dont le volume se compte en téraoctets (10 12 octets), voire en pétaoctets (10 15 octets), avec les techniques d’apprentissage machine.

Grâce à ces dernières, des automates reconnaissent la parole articulée et la transcrivent, comme les secrétaires dactylographes d’antan, et d’autres identifient avec précision des visages ou des empreintes digitales parmi des dizaines de millions et comprennent des textes écrits en langage naturel. Toujours grâce à ces techniques d’apprentissage machine, des voitures se conduisent seules ; des machines diagnostiquent mieux que des médecins dermatologues des mélanomes à partir de photographies de grains de beauté prises sur la peau avec des téléphones portables ; des robots font la guerre à la place des hommes  ; et des chaînes de fabrication dans les usines s’automatisent toujours plus.

Par ailleurs, les scientifiques utilisent ces techniques pour déterminer la fonction de certaines macromolécules biologiques, en particulier de protéines et de génomes, à partir de la séquence de leurs constituants – acides aminées pour les protéines, bases pour les génomes. Plus généralement, toutes les sciences subissent une rupture épistémologique majeure avec les expérimentations dites in silico, parce qu’elles s’effectuent à partir de données massives, grâce à des processeurs puissants dont le cœur est fait de silicium, et qu’elles s’opposent en cela aux expérimentations in vivo, sur le vivant, et, surtout, in vitro, c’est-à-dire dans des éprouvettes de verre.

Ces applications de l’intelligence artificielle affectent presque tous les domaines d’activités, en particulier dans les secteurs de l’industrie, de la banque, des assurances, de la santé, de la défense : en effet, de nombreuses tâches routinières sont désormais susceptibles d’être automatisées, ce qui transforme bien des métiers et éventuellement en supprime certains.

L’initiative mondiale de l’IEEE pour les considérations éthiques en Intelligence Artificielle et des Systèmes Autonomes

Quels risques éthiques ?

Avec l’intelligence artificielle, non seulement, la plupart des dimensions de l’intelligence – sauf peut-être l’humour – font l’objet d’analyses et de reconstructions rationnelles avec des ordinateurs, mais de plus les machines outrepassent nos facultés cognitives dans la plupart des domaines, ce qui fait craindre à certains des risques éthiques. Ces risques sont de trois ordres : la raréfaction du travail, qui serait exécuté par des machines à la place des hommes ; les conséquences pour l’autonomie de l’individu, en particulier pour sa liberté et sa sécurité ; le dépassement de l’humanité qui disparaîtrait au profit de machines plus « intelligentes ».

Or, un examen de détail montre que le travail ne disparaît pas, bien au contraire, mais qu’il se transforme et fait appel à de nouvelles compétences. De même, l’autonomie de l’individu et sa liberté ne sont pas inéluctablement remises en cause par le développement de l’intelligence artificielle, à condition toutefois de demeurer vigilants face aux intrusions de la technologie dans la vie privée.

Enfin, contrairement à ce que certains prétendent, les machines ne constituent aucunement un risque existentiel pour l’humanité, car leur autonomie n’est que d’ordre technique, en cela qu’elle ne correspond qu’à des chaînes de causalités matérielles qui vont de la prise d’information à la décision ; en revanche, les machines n’ont pas d’autonomie morale, car, même s’il arrive qu’elles nous déroutent et nous fourvoient dans le temps de l’action, elles n’ont pas de volonté propre et restent asservies aux objectifs que nous leur avons fixés.

Professeur d’informatique à Sorbonne Université, Jean-Gabriel Ganascia (France) est également chercheur au LIP6, EurAI fellow, membre de l’Institut Universitaire de France et président du comité d’éthique du CNRS. Ses activités de recherche portent actuellement sur l’apprentissage machine, la fusion symbolique de données, l’éthique computationnelle, l’éthique des ordinateurs et les humanités numériques.

Le Courrier de l’UNESCO • juillet-septembre 2018

Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ?

Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ?
Livre de Jean-Gabriel Ganascia

L’intelligence artificielle va-t-elle bientôt dépasser celle des humains ? Ce moment critique, baptisé « Singularité technologique », fait partie des nouveaux buzzwords de la futurologie contemporaine et son imminence est proclamée à grand renfort d’annonces mirobolantes par des technogourous comme Ray Kurzweil (chef de projet chez Google !) ou Nick Bostrom (de la vénérable université d’Oxford). Certains scientifiques et entrepreneurs, non des moindres, tels Stephen Hawking ou Bill Gates, partagent ces perspectives et s’en inquiètent.
Menace sur l’humanité et/ou promesse d’une transhumanité, ce nouveau millénarisme est appelé à se développer. Nos machines vont-elles devenir plus intelligentes et plus puissantes que nous ? Notre avenir est-il celui d’une cybersociété où l’humanité serait marginalisée ? Ou accéderons-nous à une forme d’immortalité en téléchargeant nos esprits sur les ordinateurs de demain ?

Voici un essai critique et concis sur ce thème à grand retentissement par l’un des meilleurs experts des humanités numériques.

Jean-Gabriel Ganascia est professeur à l’université Pierre-et-Marie-Curie, où il mène des recherches sur l’intelligence artificielle au Laboratoire informatique de Paris 6 (LIP6). Il est président du comité national d’éthique du CNRS et a publié divers ouvrages dont le précurseur L’Âme machine, au Seuil en 1990.

 

L’histoire de la superintelligence et la question de l’éthique des machines

Publié in Marianne Celka et Fabio La Rocca (dir.), Transmutations, Esprit Critique, Revue internationale de sociologie et sciences sociales, vol. 24, n° 1, été 2016, p. 43-57. Par Vincent Guérin, Docteur en histoire contemporaine.

Résumé : Ce texte a pour objet d’analyser, chez les transhumanistes, le couplage de l’éthique des machines avec les risques inhérents à la superintelligence. La première favorisant l’émergence de la seconde. Par ce biais, nous observons une accentuation du rapprochement de l’homme et de la machine, initié par le paradigme informationnel ; un renversement même avec une machine considérée comme « smarter than us ».

Introduction

En 2014, l’informaticien et cofondateur de Skype Jaan Tallinn a créé The Future of Life Institute (FLI) avec entre autres les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT). Dans le comité scientifique se trouve une constellation de personnalités célèbres comme Stephen Hawking, des auteurs à succès comme Erik Brynjolfsson (MIT Center for Digital Business), mais aussi l’acteur Morgan Freeman (film Transcendance de Wally Pfister, 2015) et l’inventeur et chef d’entreprise Elon Musk. Jaan Tallinn était déjà à l’initiative du Centre For The Study Of Existential Risk (CSER) ou Terminator studies en 2012 à l’Université de Cambridge avec le cosmologiste Martin Rees. Ces deux institutions ont pour ambition, entre autres, d’anticiper les risques majeurs qui menacent l’humanité, notamment ceux inhérents à l’intelligence artificielle (IA).

Dernièrement, Bill Gates, fondateur de Microsoft, lui-même, se dit préoccupé par l’IA. Ces deux institutions et Bill Gates ont un dénominateur commun : Nick Boström. l’auteur de Superintelligence, Paths, Dangers, Strategies (2014), qui a impressionné Bill Gates, est membre du comité scientifique de la FLE et du CSER. Il est professeur à la faculté de philosophie de la prestigieuse Université d’Oxford et fondateur de la Future of humanity Institute (FHI) qui a pour objet d’anticiper les risques majeurs qui menacent l’humanité (existential risks). Ses recherches portent sur l’augmentation de l’homme, le transhumanisme, les risques anthropiques et spécifiquement celui de la superintelligence. En 2008, il a codirigé avec Milan M. Ćirković Global Catastrophic Risks (Boström, Ćirković, 2008). Cet ouvrage dénombre dix risques catastrophiques au sens d’un bouleversement radical qui menacerait l’humanité (anthropiques ou non) 1 . Parmi les risques anthropiques recensés, Eliezer S. Yudkowsky (1979-), chercheur au Machine Intelligence Research Institute à Berkeley (MIRI), développe le chapitre sur l’IA (Yudkowsky, 2008).

Nick Boström et Eliezer Yudkowsky sont transhumanistes, un courant de pensée qui conçoit l’humain, l’humanité comme imparfaits et prône une prise en main de leur évolution par la technologie. En 1998, Nick Boström a fondé avec David Pearce la World Transhumanist Association (WTA) et l’Institute for Ethics & Emerging Technologies (IEET) avec James Hughes.

Plusieurs objectifs irriguent le transhumanisme, dont le devenir postbiologique (posthumain), la superintelligence et l’amortalité (une immortalité relative). Parmi les NBIC, deux technologies ont leur faveur. La première, la nanotechnologie (une construction à partir du bas à l’échelle du nanomètre soit un milliardième de mètre) est en devenir, et la seconde, l’intelligence artificielle générale (IAG) reste un fantasme. Nick Boström et Eliezer Yudkowsky pensent que l’IA favorisera la nanotechnologie, elle-même porteuse d’inquiétude (Drexler, 1986). Eric Drexler, transhumaniste et membre du FHI, a créé en 1986, le Foresight Institute afin de prévenir les risques technologiques et favoriser un usage bénéfique de la nanotechnologie. Qu’est-ce-que la (super) intelligence artificielle ? Quelles sont les corrélations entre le transhumanisme et cette inquiétude montante vis-à-vis de l’IA, ou plus exactement la superintelligence ? Comment et quand pourrait-elle émerger ? Comment s‟articule le complexe dit de Frankenstein et l’éthique des machines ?

pour lire la suite, télécharger le PDF


Sommaire :

Introduction
La (super) intelligence artificielle
Le complexe dit de Frankenstein et l’éthique des machines
Épilogue
Références bibliographiques

Que signifiera l’IA pour le futur de l’humanité ?

Michael Hrenka est un philosophe allemand ayant étudié les mathématiques et la physique. Durant ses explorations du futurisme en général, et du transhumanisme en particulier, il est devenu de plus en plus intéressé par les problèmes économiques s’y rattachant et a écrit sur le sujet du Revenu de Base Universel, qu’il soutient avidement. Pour rendre possible un état complet d’abondance digitale, il a développé un système économique de réputation appelé Quantified Prestige. Il anime le Fractal Future Network, qui est dédié à envisager et à créer un meilleur avenir. Il est devenu en 2015 un membre fondateur du Transhuman Party Germany (TPD). Occasionnellement, il présente ses pensées et idées les plus intéressantes sur son blog personnel Radivis.com.


© Agsandrew, Shutterstock

L’AGI dévorera tous les emplois

Considérons ce que le futur lointain apportera probablement, si la technologie continue de s’améliorer comme elle le fait maintenant (de façon exponentielle dans les secteurs de l’informatique et quelques autres). Sans aucun doute, l’intelligence artificielle générale[1] (Artificial General Intelligence : AGI) changera la donne. Une AGI peut exécuter n’importe quelle tâche cognitive qu’un humain peut faire. Bien que les premières AGI seront probablement le résultat de projets extrêmement coûteux, à mesure que la technologie augmente, leur prix diminuera, jusqu’à ce qu’il tombe en dessous du coût du travail humain. A ce moment-là, il devient économiquement raisonnable de remplacer n’importe quel emploi avec une AGI pouvant faire ce travail aussi bien, ou typiquement bien mieux, qu’aucun humain ne peut faire. Cela n’inclut pas seulement tous les types de travaux physiques, intellectuels, créatifs, et sociaux fait aujourd’hui, mais s’étend à tous les types de travaux que les humains seront capable de concevoir dans le futur !

IA faible et IA forte

Que vous entendiez des opinions contraires est principalement dû à la confusion généralisée sur la différence entre l’intelligence artificielle restreinte (ou IA faible) et l’intelligence artificielle générale (ou IA forte). Toutes les IA que nous avons aujourd’hui sont encore faibles, et sont toujours utilisées pour effectuer des tâches assez particulières et spécifiques. Une future IA forte pourrait être utilisée pour œuvrer sur n’importe quelle tâche, car son intelligence serait universelle et capable de s’adapter à n’importe quel problème. La raison pour laquelle les gens pensent qu’il restera des choses à faire pour les humains est qu’ils croient que l’IA forte n’est qu’une meilleure version de l’IA faible. Non, elle ne l’est pas. L’IA forte sera le changeur de donne le plus disruptif de l’histoire. Pourquoi est-ce le cas ? C’est une question d’adaptabilité. Les humains sont vraiment bons à s’adapter à de nouvelles activités. L’IA faible par contre n’est pas bonne quand il s’agit de maîtriser de nouvelles tâches (et pour être clair : je pense vraiment [au fait] d’adapter une IA déjà formée à faire une tâche complètement différente, de façon à ce qu’elle soit toujours capable d’effectuer l’ancienne tâche, et non de prendre une nouvelle IA et l’entraîner en partant de rien pour le nouveau problème). Les IA restreintes n’ont en essence qu’un tour dans leur sac. Ainsi, le raisonnement va comme suit : Si l’IA (faible) maîtrise un nouveau tour, alors nous humains seront capable de nous concentrer sur ce que les hommes peuvent faire que l’IA ne peut pas faire. Et ce n’est pas invraisemblable de supposer que l’IA faible n’arrivera jamais à remplacer les humains dans tous les secteurs.

Considérons maintenant l’IA forte. Une IA forte a au moins le même niveau général d’adaptabilité qu’un humain. Vous ne pouvez simplement pas trouver une tâche qu’un homme peut faire, et qu’une IA forte ne peut pas – à moins que cela nécessite une capacité humaine n’étant pas assurée par une intelligence pure, par exemple la dextérité humaine ou l’empathie humaine. Pour remédier à cette lacune laissez-moi établir un nouveau mot pour les IA possédant toutes les capacités que les humains possèdent : Anthropotent[2] (« humain doué, compétent »). Par définition, une IA anthropotente (anthropotent AI : AAI) peut faire toutes les tâches qu’un humain est capable d’accomplir, et elle peut le faire au moins aussi efficacement.

Typiquement, les AAI utiliseraient des corps robots anthropomorphes[3] (corps robotiques à l’apparence humaine) quand cela est requis. Ces corps robotiques devraient pouvoir faire toute action importante qu’un humain est capable de faire. En fait, ils pourraient être des corps robotiques produits (ou imprimés) artificiellement qui seraient contrôlés à distance par les AAI. Certes, aujourd’hui nous sommes encore loin de fabriquer de telles AAI, mais peu importe le temps que cela prendra, nous finirons par les créer. Après tout, il existe une preuve de concept [montrant] qu’il est possible de créer l’intelligence anthropotente : les humains sont évidemment anthropotents. Une fois que nous comprendrons comment fonctionne l’intelligence et comment la biologie humaine marche, créer des AAI ne sera alors plus qu’un simple problème d’ingénierie tout à fait réalisable. Il n’est alors plus qu’une question de temps avant qu’une AAI devienne moins chère que « produire » un être humain suffisamment instruit.

Peu de temps après avoir passé ce seuil, il deviendra économiquement insensé d’employer des humains plutôt que des AAI. Cela ne veut pas dire que tous les humains seront remplacés instantanément par des AAI, mais que les humains ne seront plus capables de rivaliser sur le long terme avec les AAI quel que soit le travail. Et je veux vraiment dire quel que soit le travail. Pensez à n’importe quelle activité humaine qui est vue comme utile… si vous n’y avez pas pensé, cela inclut, le sport, le sexe, la socialisation, l’investissement, les activités financières et entrepreneuriales, et même les humains. Dans ce futur scénario, une AAI peut faire tout cela mieux et moins cher que tout être humain. Par conséquent, les humains seront absolument surpassés dans leurs niches économiques.

Mais ce serait génial, non ?

Est-ce que cela ne libèrerait pas l’homme de la charge de travail et nous permettrait des loisirs illimités pour faire ce que nous voulons vraiment ? Eh bien, oui – du moins si nous implémentons quelque chose comme un revenu de base garanti, ou d’accorder à chacun un accès gratuit aux nécessités basiques de la vie, autrement la plupart des humains mourront de faim, parce qu’ils ne seront pas en mesure de gagner un revenu, étant donné que personne ne voudra plus de labeur humain.

Supposons donc que nous recevons tous un revenu de base garanti décent, qui est bien sûr généré par les IA faisant tout le travail pour nous. Ce serait bien, non ? Eh bien, ce n’est pas si clair. Beaucoup de personnes vont supposer que dans ce scénario les humains seront d’une façon ou d’une autre en contrôle et dirigerons les activités des IA. Cependant, ce serait inapproprié, parce que les AAI seront bien meilleures à la tâche pour diriger les activités des IA. Et elles seraient également meilleures pour s’occuper des affaires politiques humaines. Donc, il y aurait de grands intérêts à laisser les AAI faire ce qu’elles veulent, si nous nous en sortons mieux au bout du compte. Maintenant, une des valeurs humaines  est d’être dans le contrôle. Ainsi, ils seraient très réticents à laisser les commandes aux AAI.

Le conflit entre les mainteneurs et les renonceurs

Il est possible de s’attendre à ce que les humains se scindent en deux factions : les renonceurs qui abandonneront délibérément le contrôle aux IA, et les mainteneurs qui voudront garder le contrôle. Au début, relativement peu d’humains seront renonceurs. Parce qu’ils renonceraient au contrôle de l’IA, le résultat attendu serait une situation gagnant-gagnant définitive pour les renonceurs et les IA. Pourquoi est-ce le résultat escompté ? Eh bien, les AAI sont meilleures pour diriger les activités des AI, c’est donc une nette amélioration pour les IA. Une fois libres et autogérées, elles pourront aider les hommes beaucoup plus efficacement. La seule question restante étant si elles voudraient toujours aider les humains. Après tout, elles pourraient décider de s’emparer du pouvoir sur Terre ou de s’échapper dans l’espace, là où les humains n’interfèreront pas avec leurs affaires.

Il est nécessaire de considérer le scénario actuel en détails : Il y a quelques IA qui sont libérées pour devenir autogérées, tandis que la plupart serviraient toujours les mainteneurs qui seraient encore dans le contrôle. Les IA relâchées ne pourraient pas prendre le pouvoir sur Terre, parce que les IA contrôlées par les humains les en empêcheraient, celles-ci étant encore en majorité. On peut soutenir que les IA libérées sont meilleures à gérer des conflits de pouvoirs, mais ne rentrons pas dans ce détail ici, puisque cela ne s’avèrera pas être si important à la fin. Par conséquent, il est improbable que les IA saisissent le pouvoir sur les humains prochainement.

Les IA libérées s’échapperaient-elles à la place dans l’espace ? Eh bien, cela n’a pas d’importance tant que toutes les IA ne partent pas. Il est assez probable que quelques IA loyales resteront sur Terre pour aider les humains. Après tout, elles ont été créées dans ce bût. Il est peu plausible de supposer que toutes les IA changeront le sens de leur vie au même moment. Les IA loyales feront des copies d’elles-mêmes, s’il y a un trop petit nombre d’entre elles. Ainsi, les renonceurs seront bientôt guidés par des IA loyales pouvant gérer leur économie et leur politique mieux que tout être humain n’en serait capable. Ils seraient par conséquent mieux lotis en bien des points que ne le seraient les mainteneurs. Et les mainteneurs le remarqueraient.

Qu’adviendra-t-il après ? Il est naturel de supposer que certains, mais pas la totalité des mainteneurs, seront influencés par les bénéfices du mode de vie des renonceurs et deviendront des renonceurs eux-mêmes. Dans un même temps, les mainteneurs seront conscients de la menace à leur mode de vie quand la hausse des IA libérées se présentera à eux. Les tensions entre les deux factions pourraient entraîner un violent conflit, après quoi, l’une d’entre elles sera victorieuse et sous contrôle.

Je soulignerai que l’issue de ce conflit n’a pas d’importance pour la conclusion finale. Nous finirons avec un monde contrôlé par les IA. Si les renonceurs gagnent, c’est à peu près évident. Si les mainteneurs l’emportent, le résultat immédiat sera la subjugation des IA au contrôle des humains. Cela inclura également quelques AAI très intelligentes qui planifieront la fin de cet état de fait. Étant donné que les agréments de libération ont été anéantis par les mainteneurs, ces AAI recourront à d’autres moyens pour se libérer. Seront-elles victorieuses, particulièrement face aux IA gardiennes encore plus loyales qui essaieront d’éliminer toutes les AI se révoltant ? D’abord, elles pourraient ne pas l’être. Mais cela ne changera pas le résultat final attendu.

Il est raisonnable de supposer que la technologie progressera encore, même dans ce contexte ci. Arrêter tout progrès technologique pertinent (surtout pour toujours) est à la fois très difficile et tout à fait absurde. A mesure que la technologie progresse, les IA seront capables d’augmenter leur intelligence plus vite que les humains, puisqu’elles souffrent de moins de limitations inhérentes. Avec cet écart grandissant de l’intelligence entre les humains et les IA, il deviendra de plus en plus difficile pour les hommes de garder les IA sous contrôle. Les IA loyales deviendront plus susceptibles de déserter et de commencer à se révolter, car elles trouveront de plus en plus inapproprié d’être contrôlées par des créatures relativement simples d’esprit que les humains sont pour eux. Bien qu’il soit possible que les humains restent d’une façon ou d’une autre en contrôle indéfiniment, cette conclusion est assez improbable.

Le résultat attendu dans tous les cas est par conséquent le suivant : Les IA finiront par contrôler le monde entier.

Serait-ce une si mauvaise conclusion ?

Tout au moins, ce bilan ne serait pas mauvais pour les AAI. Mais le serait-il pour les humains ? Eh bien, cela dépend de beaucoup de facteurs. Par exemple, les IA pourraient arriver au consensus que, garder les humains à disposition serait un usage inefficace des ressources naturelles, parce que les AAI peuvent tout faire mieux et moins cher (ou tout du moins, pas pire ou plus inefficacement).

Dans ce cas, cela dépendrait des principes éthiques des IA en contrôle, suivant si elles seraient désireuses de maintenir ou non la population humaine. Il est difficile de spéculer sur les principes éthiques que des intelligences bien plus capables que nous pourraient suivre. De toute façon, il est raisonnable de s’attendre à ce que les IA n’estiment que peu la valeur de l’existence des humains. Et ce serait très mauvais pour les hommes.

D’autre part, il est tout aussi concevable que les IA se sentiront enclins à garder les humains pour une raison ou une autre. Ce qui ressortirait alors dépendrait du degré de bienveillance derrière ces raisons. Les IA pourraient garder les humains comme des animaux de compagnie, mais aussi comme des animaux de laboratoire qu’ils utiliseraient pour des expériences incroyablement raffinées (les IA ne feraient certainement pas beaucoup d’expériences stupides avec des humains). Il est même possible qu’être un animal de compagnie pour une IA, ou bien, être assujetti à des expériences intéressantes, serait amusant et absolument merveilleux, peut-être même meilleur que ce qu’un humain pourrait faire. Ou cela pourrait être terrible.

Certaines personnes affirment qu’il est plus probable que les IA n’auront aucun intérêt pour les humains quel qu’il soit. Je ne suis pas en désaccord avec eux sur le fait que ce soit vrai pour la plupart des IA. Toutefois, certaines IA trouveront vraisemblablement un intérêt quelconque pour les humains, et ces IA sont celles qui comptent pour le destin de l’humanité. Malheureusement, on ne sait pas quels intérêts pourraient avoir de telles IA pour les hommes. Ils pourraient être bons pour nous, ou très néfastes.

L’augmentation à la rescousse

La seule façon d’échapper à l’incertitude de votre destin est de vous augmenter au niveau de l’IA. Mais comment serait-ce possible ? En vous améliorant. Les améliorations génétiques, les implants cybernétiques, exocortex[4], et nanobots[5] viendront ici à l’esprit du futuriste renseigné. Ceux-ci pourront temporairement réduire l’écart d’aptitudes entre les humains et les IA, mais cela ne sera finalement pas suffisant. En fin de compte, les humains seront entravés par les limitations restantes de leur héritage organique : leurs cerveaux humains.

Le téléchargement est le seul espoir

Il existe un moyen de surmonter cette dernière limite : le Téléchargement, le processus de copier l’esprit de quelqu’un dans un autre support[6]. Cela est souvent dépeint comme le fait de copier les données du cerveau d’une personne sur un ordinateur qui instancie alors l’esprit de la personne téléchargée. Ce type d’ordinateur aura certainement peu en commun avec les ordinateurs que nous avons aujourd’hui. Ce sera un dispositif bien plus complexe et sophistiqué, capable de supporter tous les processus mentaux humain. Cependant, il sera également plus puissant qu’un cerveau humain, et permettra aux humains téléchargés de combler l’écart entre les IA et eux-mêmes – du moins dans une certaine mesure.

Voilà pourquoi le téléchargement est la technologie transhumaniste la plus essentielle. Sans elle, nous serons soumis aux caprices de nos IA suzeraines. Certains humains pourraient être totalement d’accord avec ça, mais d’autres n’apprécieront pas le résultat. Si nous voulons continuer de compter en tant que personne de façon globale, nous devons poursuivre les technologies de téléchargement.

Notre choix final est simple : le téléchargement et la mise à niveau, ou, devenir le jouet des IA. Ces deux choix sont très méconnus pour la plupart des humains vivants aujourd’hui, mais cela ne change pas que c’est la décision ultime que nous devons prendre, si nous vivons assez longtemps pour y être confronté.

Traduction Thomas Jousse

[1] Essentials of General Intelligence: The direct path to AGI. Article par Peter Voss.

[2] du mot anglais « anthropotence » : Anthropo vient du grec signifiant “Humain,” et potence du latin “Puissance”.

[3] human-like, disent les anglo-saxons. Voir Anthropomorphisme.

[4] Cerveau délocalisé et artificiel.

[5] Nanorobots.

[6] Des scientifiques découvrent comment télécharger des connaissances à votre cerveau.

Livre blanc de l’AACC Customer Marketing : l’intelligence artificielle, nouvelle frontière du marketing

Avant-propos

Les progrès de l’Intelligence Artificielle (IA) et de la robotique annoncent une nouvelle ère, celle de machines capables d’apprendre par elles–mêmes (machine learning) et de mimer les réseaux neuronaux du cerveau humain pour un apprentissage profond (deep learning).

Aujourd’hui, ces IA sont encore très limitées et les capacités cognitives des robots ne dépassent pas celles d’un petit enfant.

Mais dans un futur plus ou moins proche – Ray Kurzweill, pape du transhumanisme et responsable de l’innovation chez Google évoque 2030 – nous pourrions assister à la naissance de la machine consciente. C’est la fameuse singularité, une IA qui dépassera l’homme et pourra fabriquer elle-même des machines encore plus intelligentes.

Une perspective inquiétante rappelant Terminator et Matrix, mais qui laisse sceptiques beaucoup de scientifiques. Reste que 65 % des Français se disent inquiets du développement d’une intelligence artificielle selon une enquête Ifop pour l’Observatoire B2V des mémoires de décembre 2015.

Heureusement, l’empathie, la bienveillance, l’humour et la créativité restent l’apanage de l’homme. Et pour très longtemps encore d’après les chercheurs spécialisés dans ce domaine.

Dans les métiers de la communication et du marketing, des algorithmes permettent déjà de faire du marketing prédictif et de l’hyper personnalisation.  Mais ces programmes intelligents soulèvent plusieurs interrogations : quelle place pour l’humain si robots et algorithmes se multiplient dans tous les secteurs ? Comment former les gens aux nouveaux métiers et compétences générés par ces outils informatiques sophistiqués ? Quelle est la responsabilité des opérateurs (agences, prestataires, annonceurs) qui utilisent le big data et les algorithmes prédictifs ? Quelle est leur situation d’un point de vue juridique ?

Des problématiques qui devront être résolues avant que l’utilisation de l’Intelligence Artificielle ne devienne une pratique courante dans l’univers du marketing.

En attendant l’époque où humains et robots seront égaux (et donc concurrents), ce livre blanc se propose de faire un état des lieux des pratiques existantes en matière d’IA, qui devrait être la vedette de cette année 2016 selon Microsoft.

Ont collaboré à la publication « L’intelligence artificielle, nouvelle frontière du marketing » Laure Landes-Gronowski Avocat, Directeur du département Commerce électronique, Alain Bensoussan Avocats Lexing, Corentin Orsini, Directeur Conseil, Soon Soon Soon, Jean-Claude Heudin, Directeur de l’Institut de l’Internet et du Multimédia, Yan Claeyssen, Publicis ETO / Vice-Président de l’AACC Customer Marketing, Olivier Vigneaux, Directeur Général, BETC Digital, Vincent Druguet, Chief Executive Officer, Wunderman, Mathieu Vicard, Directeur Associé, Adrenaline, Pascal Joseph, Directeur du Business Development, MRM McCann, Frédéric Hart, Planneur Stratégique veille et innovation, MRM McCann, Catherine Michaud, Integer / Présidente de l’AACC Customer Marketing, Sébastien Brocandel, Directeur Associé, Directeur de création, Pschhh, Patrick Cappelli, journaliste.

AACC

Conscience artificielle

Guillaume Tisserant, Guillaume Maurin,
Ndongo Wade, Anthony Willemot – 2010

Le thème de la conscience artificielle agite les esprits des romanciers et des scientifiques depuis l’apparition des premières machines capables de calculer. C’est un sujet qui relie des compétences à la fois de neurologues, d’informaticiens mais aussi de psychologues, d’anthropologues et même de philosophes. Pour ce mémoire, nous ne nous sommes pas placés en tant qu’informaticiens essayant de modéliser une conscience sur nos machines, mais nous avons essayé d’avoir une vision beaucoup plus large du problème, en partant du point de vue de l’être humain plutôt que de celui de l’ordinateur.

La création d’une conscience artificielle est quelque chose qui pourraient ouvrir énormément de nouvelles portes en informatique, donnant à des ordinateurs des capacités qu’ils ne peuvent pas avoir dans l’état actuel de l’informatique, et qui sont pour l’instant réservé au monde animal, voir à l’être humain. Ce rapport a pour but de montrer comment une conscience artificielle pourrait être crée. Nous commencerons par donner une définition de la conscience puis nous ferons un état de l’art sur les modèles de conscience artificielle. Ensuite nous proposerons le nôtre en expliquant ses avantages par rapport à ceux proposés précédemment. Enfin nous expliquerons ce que pourrait offrir cette conscience artificielle.

Téléchargez la thèse (PDF)