Infléchir le futur ? Le transhumanisme comme auto-transcendance

Vincent Guérin, International Psychology, Practice and Research, 6, 2015


Résumé : Comment le transhumanisme oriente-t-il notre futur ? Entre l’eschatologie de la singularité technologique et la société de l’abondance promise par les nouvelles technologies (NBIC), il s’agit de saisir l’émergence et la diffusion d’une transcendance opératoire, son « inquiétante étrangeté ».


« The best way to predict the future is to create it yourself. » (17e loi de Peter H. Diamandis)

Introduction

Dans cet article, nous allons nous intéresser à la « communauté » des « singularitariens » de la Silicon Valley (Grossman, 2011). Deux de ses figures, Ray Kurzweil et Peter H. Diamandis ont créé, en 2008, l’université de la singularité. Son ambition : préparer l’humanité au changement induit par une accélération technologique à venir annoncée comme foudroyante. Cette entreprise qui prépare l’avenir tout en favorisant leurs ambitions. Au final, il s’agit d’explorer le tissage des forces en présence, mais aussi la réthorique utilisée par les « ingénieurs » singularitariens pour stimuler, orienter des recherches « stratégiques » devant favoriser leurs desseins. Sont-ils en mesure d’infléchir le futur, le faire advenir ?

Pour lire la suite, télécharger le PDF

Sommaire :

La singularité technologique : enfer ou âge messianique ?

L’Université de la singularité

La possibilité de l’abondance

Conclusion

Bibliographie

Le prix Nobel de Physique hongrois Dennis Garbor affirme que « tout ce qui est techniquement faisable doit être réalisé, que cette réalisation soit jugée moralement bonne ou condamnable » (Gabor, 1973) ⇒ Le transhumanisme : Ce qui est possible est-il toujours souhaitable ?

 

L’intelligence artificielle par Pierre De Loor

Pierre De Loor est enseignant en informatique à l’École Nationale d’Ingénieurs de Brest et chercheur au Centre Européen de Réalité Virtuelle. Il nous parle ici d’intelligence artificielle au sens large et fait le parallèle avec notre compréhension de l’intelligence chez l’humain.

Face à l’anthropologie de l’imposture

Discours académique de la séance solennelle de l’Institut de Théologie Orthodoxe Saint-Serge de Paris

Dimanche 8 février 2015, Par le R.P. Jean Boboc, professeur de Bioéthique

télécharger le PDF

Extrait :

L’antihumanisme des humanistes des Lumières, comme l’a si bien démontré le professeur Xavier Martin (Voltaire méconnu. Aspects cachés de l’humanisme des Lumières (1750-1800) ; L’homme des droits de l’homme et sa compagne (1750-1850). Sur le quotient intellectuel et affectif du ‘bon sauvage’ ; et dans « Le tribut des Lumières à la bioéthique », allié au culte de la raison, a généré le biotope propice à la floraison d’une anthropologie de l’émancipation et de l’autonomie humaine, renonçant au modèle chrétien de l’anthropologie révélée. Peut être, est-ce là, la première grande imposture éthique à laquelle se sont ralliés les bons esprits du XVIIIe siècle et les médecins philosophes qui voulaient recréer l’homme dans une apostasie civilisationnelle et précurseur du transhumanisme aujourd’hui déjà à l’œuvre et annonçant le post-humain. De l’homme-machine de Julien Offray de La Mettrie, dont le titre plaisait tant à Voltaire, on en vient la machine-homme.

[…]

Le professeur Testart, l’un des pères du premier bébé-éprouvette français, reconnaissait que « chaque pas plus permissif que le précédent, est logiquement argumenté ». Il en est de même dans le transhumanisme où « Pas à pas, année après année, petite transgression indolore par petite transgression indolore, notre transhumanité toujours plus technophile pourrait se faire à l’idée de la posthumanité », comme le souligne le neurobiologiste Laurent Alexandre.

Conférence organisé par le Cercle de l’Aréopage sur le Transhumanisme

Le Transhumanisme : toute la vérité sur le posthumain

Par Père Jean Boboc, Docteur en Médecine de la Faculté de médecine de Paris. Titulaire de différentes spécialités médicales et en particulier de Pharmacologie et Toxicologie cliniques, le 15 février 2016

Anthropologie : Cours de propédeutique, questions anthropologiques et bioéthiques

Association culturelle catholique Cercle de l’Aréopage


Père Jean Boboc Professeur de Bioéthique : Ordonné prêtre le 10 mai 2009, par son Éminence le Métropolite Joseph dans l’Église des saints Archanges Mihaï, Gavriil et Rafaïl, devenue le jour même Cathédrale métropolitaine de la métropole orthodoxe roumaine d’Europe occidentale et méridionale par la décision à l’unanimité de la communauté roumaine de se rattacher désormais à la Métropole et de mettre fin à 60 ans de séparation entre la communauté de l’exil et l’Église mère, le père Jean Boboc a été ordonné pour cette cathédrale. Prêtre économe stavrophore, le  père Jean est le troisième prêtre de la cathédrale.

Français d’origine roumaine, le père Jean Boboc est Docteur en médecine de la Faculté de médecine de Paris. Titulaire de différentes spécialités médicales et en particulier de Pharmacologie et Toxicologie cliniques, il a partagé sa vie professionnelle entre la pratique praticienne et la recherche appliquée. Titulaire d’un MBA dans l’administration des affaires, il a dirigé différentes firmes pharmaceutiques comme président et en particulier aux Etats Unis et au Canada, ce qui l’a familiarisé aux problèmes éthiques de la recherche médicale.

Parallèlement, le père Jean a mené une vie active dans l’Exil roumain en France et en Amérique du Nord. Président fondateur de l’AFDOR (Association des Français d’Origine Roumaine) et de la BRP (Bibliothèque Roumaine de Paris), associations particulièrement utiles durant la guerre froide, le père Jean a donné de nombreuses conférences des deux côtés de l’Atlantique, sur la situation historique roumaine et en particulier sur la question des territoires de Bessarabie et de Bucovine, annexés par l’Union soviétique et toujours occupés ou annexés. Il a de même écrit sur ce sujet de nombreux articles et participé à des ouvrages collectifs traitant de ces questions. Un recueil de certains écrits politiques de Mihaï Eminescu, traduits en français, est d’ailleurs attendu.

Sous l’influence de Mircea Eliade, le père Jean a parallèlement à ses études médicales, suivi les cours de l’ISTR (Institut de Science et de Théologie des Religions) de l’Institut catholique de Paris. De retour des Etats Unis, il rejoint l’Institut de Théologie Orthodoxe Saint-Serge, où il obtient une licence et un master de théologie orthodoxe, et où il doit soutenir bientôt une thèse de doctorat sur les aspects eschatologiques de l’anthropologie orthodoxe. Un Essai d’anthropologie orthodoxe est aussi en cours de rédaction.

Co-traducteur des œuvres théologiques du père Dumitru Staniloae, le père Jean Boboc s’intéresse essentiellement aux aspects pneumatiques et eschatologiques de l’anthropologie orthodoxe et à leur impact sur les sciences de la vie, et donc aux questions brûlantes de la bioéthique actuelle.

Il est doyen du Centre Orthodoxe d’Etude et de Recherche “Dumitru Staniloae” et responsable de la direction Anthropologie, Éthique et Sciences de la vie dans le cadre du Centre.

cours et conférences

Samsung rend l’« œil numérique » plus rapide à l’aide de la puce imitant le cerveau d’IBM

David Paul Morris / Bloomberg via Getty Images

En utilisant TrueNorth d’IBM, une puce neurosynaptique (ou puce cognitive : une puce de 4096 noyaux neurosynaptiques, qui vise à reproduire le fonctionnement du cerveau humain pour réaliser des tâches d’apprentissage machine plus rapidement), Samsung a pu améliorer son Dynamic Vision Sensor  (capteur de vision dynamique) afin de consommer beaucoup moins de puissance et commander des petits instruments avec des gestes de la main.

Un implant cérébral se connectera avec 1 million de neurones

Obtenir des ordinateurs pour imiter le cerveau humain est considéré comme la voie à suivre en les rendants plus rapides et plus économes en énergie. Tant et si bien que l’émulation du cerveau peut être la clé pour atteindre la singularité.

Samsung vient peut-être de nous placer un peu plus loin dans cette direction après avoir placé la puce cognitive d’IBM sur un dispositif de traitement d’image avancé, essentiellement en créant un œil numérique qui peut traiter des images numériques à une vitesse très rapide.

La base de la puce d’IBM TrueNorth s’inspire du cerveau : il a 4 096 cœurs de calcul, combinant à près d’1 million de neurones numériques et 256 millions de connexions synaptiques. Cela lui permet d’être rapide et de consommer beaucoup moins d’énergie.

IBM’s brain-inspired architecture consists of a network of neurosynaptic cores. Cores are distributed and operate in parallel. Cores operate—without a clock—in an event-driven fashion. Cores integrate memory, computation, and communication. Individual cores can fail and yet, like the brain, the architecture can still function. Cores on the same chip communicate with one another via an on-chip event-driven network. Chips communicate via an inter-chip interface leading to seamless scalability like the cortex, enabling creation of scalable neuromorphic systems.

Samsung a utilisé TrueNorth pour construire une meilleure version de son capteur de vision dynamique (DVS), une plate-forme de traitement d’image plus rapide.

À une conférence de presse à San José, Samsung a pu piloter un téléviseur à l’aide des gestes de la main à 10 pieds de distance (3 mètres).

Engadget

Enregistrer

Que signifiera l’IA pour le futur de l’humanité ?

Michael Hrenka est un philosophe allemand ayant étudié les mathématiques et la physique. Durant ses explorations du futurisme en général, et du transhumanisme en particulier, il est devenu de plus en plus intéressé par les problèmes économiques s’y rattachant et a écrit sur le sujet du Revenu de Base Universel, qu’il soutient avidement. Pour rendre possible un état complet d’abondance digitale, il a développé un système économique de réputation appelé Quantified Prestige. Il anime le Fractal Future Network, qui est dédié à envisager et à créer un meilleur avenir. Il est devenu en 2015 un membre fondateur du Transhuman Party Germany (TPD). Occasionnellement, il présente ses pensées et idées les plus intéressantes sur son blog personnel Radivis.com.


© Agsandrew, Shutterstock

L’AGI dévorera tous les emplois

Considérons ce que le futur lointain apportera probablement, si la technologie continue de s’améliorer comme elle le fait maintenant (de façon exponentielle dans les secteurs de l’informatique et quelques autres). Sans aucun doute, l’intelligence artificielle générale[1] (Artificial General Intelligence : AGI) changera la donne. Une AGI peut exécuter n’importe quelle tâche cognitive qu’un humain peut faire. Bien que les premières AGI seront probablement le résultat de projets extrêmement coûteux, à mesure que la technologie augmente, leur prix diminuera, jusqu’à ce qu’il tombe en dessous du coût du travail humain. A ce moment-là, il devient économiquement raisonnable de remplacer n’importe quel emploi avec une AGI pouvant faire ce travail aussi bien, ou typiquement bien mieux, qu’aucun humain ne peut faire. Cela n’inclut pas seulement tous les types de travaux physiques, intellectuels, créatifs, et sociaux fait aujourd’hui, mais s’étend à tous les types de travaux que les humains seront capable de concevoir dans le futur !

IA faible et IA forte

Que vous entendiez des opinions contraires est principalement dû à la confusion généralisée sur la différence entre l’intelligence artificielle restreinte (ou IA faible) et l’intelligence artificielle générale (ou IA forte). Toutes les IA que nous avons aujourd’hui sont encore faibles, et sont toujours utilisées pour effectuer des tâches assez particulières et spécifiques. Une future IA forte pourrait être utilisée pour œuvrer sur n’importe quelle tâche, car son intelligence serait universelle et capable de s’adapter à n’importe quel problème. La raison pour laquelle les gens pensent qu’il restera des choses à faire pour les humains est qu’ils croient que l’IA forte n’est qu’une meilleure version de l’IA faible. Non, elle ne l’est pas. L’IA forte sera le changeur de donne le plus disruptif de l’histoire. Pourquoi est-ce le cas ? C’est une question d’adaptabilité. Les humains sont vraiment bons à s’adapter à de nouvelles activités. L’IA faible par contre n’est pas bonne quand il s’agit de maîtriser de nouvelles tâches (et pour être clair : je pense vraiment [au fait] d’adapter une IA déjà formée à faire une tâche complètement différente, de façon à ce qu’elle soit toujours capable d’effectuer l’ancienne tâche, et non de prendre une nouvelle IA et l’entraîner en partant de rien pour le nouveau problème). Les IA restreintes n’ont en essence qu’un tour dans leur sac. Ainsi, le raisonnement va comme suit : Si l’IA (faible) maîtrise un nouveau tour, alors nous humains seront capable de nous concentrer sur ce que les hommes peuvent faire que l’IA ne peut pas faire. Et ce n’est pas invraisemblable de supposer que l’IA faible n’arrivera jamais à remplacer les humains dans tous les secteurs.

Considérons maintenant l’IA forte. Une IA forte a au moins le même niveau général d’adaptabilité qu’un humain. Vous ne pouvez simplement pas trouver une tâche qu’un homme peut faire, et qu’une IA forte ne peut pas – à moins que cela nécessite une capacité humaine n’étant pas assurée par une intelligence pure, par exemple la dextérité humaine ou l’empathie humaine. Pour remédier à cette lacune laissez-moi établir un nouveau mot pour les IA possédant toutes les capacités que les humains possèdent : Anthropotent[2] (« humain doué, compétent »). Par définition, une IA anthropotente (anthropotent AI : AAI) peut faire toutes les tâches qu’un humain est capable d’accomplir, et elle peut le faire au moins aussi efficacement.

Typiquement, les AAI utiliseraient des corps robots anthropomorphes[3] (corps robotiques à l’apparence humaine) quand cela est requis. Ces corps robotiques devraient pouvoir faire toute action importante qu’un humain est capable de faire. En fait, ils pourraient être des corps robotiques produits (ou imprimés) artificiellement qui seraient contrôlés à distance par les AAI. Certes, aujourd’hui nous sommes encore loin de fabriquer de telles AAI, mais peu importe le temps que cela prendra, nous finirons par les créer. Après tout, il existe une preuve de concept [montrant] qu’il est possible de créer l’intelligence anthropotente : les humains sont évidemment anthropotents. Une fois que nous comprendrons comment fonctionne l’intelligence et comment la biologie humaine marche, créer des AAI ne sera alors plus qu’un simple problème d’ingénierie tout à fait réalisable. Il n’est alors plus qu’une question de temps avant qu’une AAI devienne moins chère que « produire » un être humain suffisamment instruit.

Peu de temps après avoir passé ce seuil, il deviendra économiquement insensé d’employer des humains plutôt que des AAI. Cela ne veut pas dire que tous les humains seront remplacés instantanément par des AAI, mais que les humains ne seront plus capables de rivaliser sur le long terme avec les AAI quel que soit le travail. Et je veux vraiment dire quel que soit le travail. Pensez à n’importe quelle activité humaine qui est vue comme utile… si vous n’y avez pas pensé, cela inclut, le sport, le sexe, la socialisation, l’investissement, les activités financières et entrepreneuriales, et même les humains. Dans ce futur scénario, une AAI peut faire tout cela mieux et moins cher que tout être humain. Par conséquent, les humains seront absolument surpassés dans leurs niches économiques.

Mais ce serait génial, non ?

Est-ce que cela ne libèrerait pas l’homme de la charge de travail et nous permettrait des loisirs illimités pour faire ce que nous voulons vraiment ? Eh bien, oui – du moins si nous implémentons quelque chose comme un revenu de base garanti, ou d’accorder à chacun un accès gratuit aux nécessités basiques de la vie, autrement la plupart des humains mourront de faim, parce qu’ils ne seront pas en mesure de gagner un revenu, étant donné que personne ne voudra plus de labeur humain.

Supposons donc que nous recevons tous un revenu de base garanti décent, qui est bien sûr généré par les IA faisant tout le travail pour nous. Ce serait bien, non ? Eh bien, ce n’est pas si clair. Beaucoup de personnes vont supposer que dans ce scénario les humains seront d’une façon ou d’une autre en contrôle et dirigerons les activités des IA. Cependant, ce serait inapproprié, parce que les AAI seront bien meilleures à la tâche pour diriger les activités des IA. Et elles seraient également meilleures pour s’occuper des affaires politiques humaines. Donc, il y aurait de grands intérêts à laisser les AAI faire ce qu’elles veulent, si nous nous en sortons mieux au bout du compte. Maintenant, une des valeurs humaines  est d’être dans le contrôle. Ainsi, ils seraient très réticents à laisser les commandes aux AAI.

Le conflit entre les mainteneurs et les renonceurs

Il est possible de s’attendre à ce que les humains se scindent en deux factions : les renonceurs qui abandonneront délibérément le contrôle aux IA, et les mainteneurs qui voudront garder le contrôle. Au début, relativement peu d’humains seront renonceurs. Parce qu’ils renonceraient au contrôle de l’IA, le résultat attendu serait une situation gagnant-gagnant définitive pour les renonceurs et les IA. Pourquoi est-ce le résultat escompté ? Eh bien, les AAI sont meilleures pour diriger les activités des AI, c’est donc une nette amélioration pour les IA. Une fois libres et autogérées, elles pourront aider les hommes beaucoup plus efficacement. La seule question restante étant si elles voudraient toujours aider les humains. Après tout, elles pourraient décider de s’emparer du pouvoir sur Terre ou de s’échapper dans l’espace, là où les humains n’interfèreront pas avec leurs affaires.

Il est nécessaire de considérer le scénario actuel en détails : Il y a quelques IA qui sont libérées pour devenir autogérées, tandis que la plupart serviraient toujours les mainteneurs qui seraient encore dans le contrôle. Les IA relâchées ne pourraient pas prendre le pouvoir sur Terre, parce que les IA contrôlées par les humains les en empêcheraient, celles-ci étant encore en majorité. On peut soutenir que les IA libérées sont meilleures à gérer des conflits de pouvoirs, mais ne rentrons pas dans ce détail ici, puisque cela ne s’avèrera pas être si important à la fin. Par conséquent, il est improbable que les IA saisissent le pouvoir sur les humains prochainement.

Les IA libérées s’échapperaient-elles à la place dans l’espace ? Eh bien, cela n’a pas d’importance tant que toutes les IA ne partent pas. Il est assez probable que quelques IA loyales resteront sur Terre pour aider les humains. Après tout, elles ont été créées dans ce bût. Il est peu plausible de supposer que toutes les IA changeront le sens de leur vie au même moment. Les IA loyales feront des copies d’elles-mêmes, s’il y a un trop petit nombre d’entre elles. Ainsi, les renonceurs seront bientôt guidés par des IA loyales pouvant gérer leur économie et leur politique mieux que tout être humain n’en serait capable. Ils seraient par conséquent mieux lotis en bien des points que ne le seraient les mainteneurs. Et les mainteneurs le remarqueraient.

Qu’adviendra-t-il après ? Il est naturel de supposer que certains, mais pas la totalité des mainteneurs, seront influencés par les bénéfices du mode de vie des renonceurs et deviendront des renonceurs eux-mêmes. Dans un même temps, les mainteneurs seront conscients de la menace à leur mode de vie quand la hausse des IA libérées se présentera à eux. Les tensions entre les deux factions pourraient entraîner un violent conflit, après quoi, l’une d’entre elles sera victorieuse et sous contrôle.

Je soulignerai que l’issue de ce conflit n’a pas d’importance pour la conclusion finale. Nous finirons avec un monde contrôlé par les IA. Si les renonceurs gagnent, c’est à peu près évident. Si les mainteneurs l’emportent, le résultat immédiat sera la subjugation des IA au contrôle des humains. Cela inclura également quelques AAI très intelligentes qui planifieront la fin de cet état de fait. Étant donné que les agréments de libération ont été anéantis par les mainteneurs, ces AAI recourront à d’autres moyens pour se libérer. Seront-elles victorieuses, particulièrement face aux IA gardiennes encore plus loyales qui essaieront d’éliminer toutes les AI se révoltant ? D’abord, elles pourraient ne pas l’être. Mais cela ne changera pas le résultat final attendu.

Il est raisonnable de supposer que la technologie progressera encore, même dans ce contexte ci. Arrêter tout progrès technologique pertinent (surtout pour toujours) est à la fois très difficile et tout à fait absurde. A mesure que la technologie progresse, les IA seront capables d’augmenter leur intelligence plus vite que les humains, puisqu’elles souffrent de moins de limitations inhérentes. Avec cet écart grandissant de l’intelligence entre les humains et les IA, il deviendra de plus en plus difficile pour les hommes de garder les IA sous contrôle. Les IA loyales deviendront plus susceptibles de déserter et de commencer à se révolter, car elles trouveront de plus en plus inapproprié d’être contrôlées par des créatures relativement simples d’esprit que les humains sont pour eux. Bien qu’il soit possible que les humains restent d’une façon ou d’une autre en contrôle indéfiniment, cette conclusion est assez improbable.

Le résultat attendu dans tous les cas est par conséquent le suivant : Les IA finiront par contrôler le monde entier.

Serait-ce une si mauvaise conclusion ?

Tout au moins, ce bilan ne serait pas mauvais pour les AAI. Mais le serait-il pour les humains ? Eh bien, cela dépend de beaucoup de facteurs. Par exemple, les IA pourraient arriver au consensus que, garder les humains à disposition serait un usage inefficace des ressources naturelles, parce que les AAI peuvent tout faire mieux et moins cher (ou tout du moins, pas pire ou plus inefficacement).

Dans ce cas, cela dépendrait des principes éthiques des IA en contrôle, suivant si elles seraient désireuses de maintenir ou non la population humaine. Il est difficile de spéculer sur les principes éthiques que des intelligences bien plus capables que nous pourraient suivre. De toute façon, il est raisonnable de s’attendre à ce que les IA n’estiment que peu la valeur de l’existence des humains. Et ce serait très mauvais pour les hommes.

D’autre part, il est tout aussi concevable que les IA se sentiront enclins à garder les humains pour une raison ou une autre. Ce qui ressortirait alors dépendrait du degré de bienveillance derrière ces raisons. Les IA pourraient garder les humains comme des animaux de compagnie, mais aussi comme des animaux de laboratoire qu’ils utiliseraient pour des expériences incroyablement raffinées (les IA ne feraient certainement pas beaucoup d’expériences stupides avec des humains). Il est même possible qu’être un animal de compagnie pour une IA, ou bien, être assujetti à des expériences intéressantes, serait amusant et absolument merveilleux, peut-être même meilleur que ce qu’un humain pourrait faire. Ou cela pourrait être terrible.

Certaines personnes affirment qu’il est plus probable que les IA n’auront aucun intérêt pour les humains quel qu’il soit. Je ne suis pas en désaccord avec eux sur le fait que ce soit vrai pour la plupart des IA. Toutefois, certaines IA trouveront vraisemblablement un intérêt quelconque pour les humains, et ces IA sont celles qui comptent pour le destin de l’humanité. Malheureusement, on ne sait pas quels intérêts pourraient avoir de telles IA pour les hommes. Ils pourraient être bons pour nous, ou très néfastes.

L’augmentation à la rescousse

La seule façon d’échapper à l’incertitude de votre destin est de vous augmenter au niveau de l’IA. Mais comment serait-ce possible ? En vous améliorant. Les améliorations génétiques, les implants cybernétiques, exocortex[4], et nanobots[5] viendront ici à l’esprit du futuriste renseigné. Ceux-ci pourront temporairement réduire l’écart d’aptitudes entre les humains et les IA, mais cela ne sera finalement pas suffisant. En fin de compte, les humains seront entravés par les limitations restantes de leur héritage organique : leurs cerveaux humains.

Le téléchargement est le seul espoir

Il existe un moyen de surmonter cette dernière limite : le Téléchargement, le processus de copier l’esprit de quelqu’un dans un autre support[6]. Cela est souvent dépeint comme le fait de copier les données du cerveau d’une personne sur un ordinateur qui instancie alors l’esprit de la personne téléchargée. Ce type d’ordinateur aura certainement peu en commun avec les ordinateurs que nous avons aujourd’hui. Ce sera un dispositif bien plus complexe et sophistiqué, capable de supporter tous les processus mentaux humain. Cependant, il sera également plus puissant qu’un cerveau humain, et permettra aux humains téléchargés de combler l’écart entre les IA et eux-mêmes – du moins dans une certaine mesure.

Voilà pourquoi le téléchargement est la technologie transhumaniste la plus essentielle. Sans elle, nous serons soumis aux caprices de nos IA suzeraines. Certains humains pourraient être totalement d’accord avec ça, mais d’autres n’apprécieront pas le résultat. Si nous voulons continuer de compter en tant que personne de façon globale, nous devons poursuivre les technologies de téléchargement.

Notre choix final est simple : le téléchargement et la mise à niveau, ou, devenir le jouet des IA. Ces deux choix sont très méconnus pour la plupart des humains vivants aujourd’hui, mais cela ne change pas que c’est la décision ultime que nous devons prendre, si nous vivons assez longtemps pour y être confronté.

Traduction Thomas Jousse

[1] Essentials of General Intelligence: The direct path to AGI. Article par Peter Voss.

[2] du mot anglais « anthropotence » : Anthropo vient du grec signifiant “Humain,” et potence du latin “Puissance”.

[3] human-like, disent les anglo-saxons. Voir Anthropomorphisme.

[4] Cerveau délocalisé et artificiel.

[5] Nanorobots.

[6] Des scientifiques découvrent comment télécharger des connaissances à votre cerveau.

Vers une intelligence artificielle forte ?

En 1997, la victoire de l’ordinateur Deep Blue sur le joueur d’échecs Gary Kasparov avait déjà été interprétée comme une défaite de l’humanité face aux machines ; celle du programme Watson au jeu Jeopardy en 2011 était venue enfoncer le clou. L’affrontement récent entre le programme informatique AlphaGo de DeepMind, intelligence artficielle de Google, et le champion sud-coréen et numéro trois mondial du jeu de go, Lee Sedol, a logiquelent été décrit comme une étape supplémentaire du même drame menant inexorablement à l’avènement d’une intelligence artificielle (IA) forte susceptible d’égaler l’être humain et de le dépasser dans toutes ses activités. Dernier jeu classique à résister à la machine, le go implique la maîtrise de paramètres nombreux et une puissance de calcul bien supérieure au jeu d’échecs : le nombre de combinaisons à explorer s’élève à 10170, contre 10120 aux échecs [1].

Plus encore que sa puissance, le mode d’apprentissage d’AlphaGo a retenu l’attention des commentateurs : ni force brute ni même apprentissage statistique, mais une utilisation du deep learning permettant à la machine de s’entraîner elle-même [2]. Sans contester ici l’indéniable succès technique que représente cette performance, on peut toutefois rappeler que le jeu de go constitue, malgré sa complexité, un environnement totalement contrôlé, donc adapté à l’automatisation, comme l’était d’ailleurs, d’une autre manière, le jeu Jeopardy favorisant le recours aux bases de données. D’une certaine façon, on pourrait presque s’étonner du temps qu’auront demandé de telles percées en se souvenant que les chercheurs Herbert Simon et Allen Newell prévoyaient, en 1958, un ordinateur champion du monde d’échecs dès le début des années 1970 [3]. Les nombreux obstacles techniques surmontés peu à peu pour la modélisation de seules tâches formelles ont montré, depuis, combien ces pronostics pouvaient être optimistes.

À rebours des craintes comme des prévisions grandioses [4], c’est plutôt ainsi la complexité de la tâche à laquelle s’attelle l’intelligence artificielle qui doit être soulignée. Les singularistes qui, tablant sur la loi de Moore (doublement tous les 18 mois du nombre de microprocesseurs sur une puce de silicium), prévoient le dépassement des capacités humaines à l’horizon 2030, omettent en premier lieu un certain nombre de contraintes [5] physiques et techniques. La miniaturisation s’approche actuellement du niveau atomique où prévalent des phénomènes d’indétermination quantique, et les solutions techniques esquissées peuvent s’avèrerer aussi coûteuses et longues à industrialiser que limitées [6].

Au-delà, les résultats apportés par les neurosciences lors des 15 dernières années ont enrichi notre compréhension du fonctionnement cérébral et de sa complexité. En faisant abstraction des bases chimiques du cerveau, on peut estimer ses capacités de calcul à 1,075×1021 flops, un million de fois supérieures au plus puissant calculateur existant ; une puissance qui pourrait ne devenir accessible qu’à l’horizon d’un siècle [7].

La difficulté s’accroît encore lorsqu’on ne considère plus la seule capacité de calcul mais l’exécution de tâches plus ou moins déterminées. Si la modélisation de capacités précises (reconnaissance, mobilité, etc.) a fait ces dernières années des progrès indéniables et permet la mise en place de briques intelligentes dans de nombreuses activités [8] ainsi qu’un accroissement des mouvements d’automatisation et de robotisation [9], si l’imitation de la structure cérébrale jusque dans sa matérialité fournit elle aussi des pistes stimulantes [10], la capacité d’interaction d’une machine, fût-ce pour mener une simple conversation, reste limitée.

L’intelligence artificielle organisée par domaines

Mills Michael, « Artificial Intelligence in Law: The State of Play in 2015? », LegalIT Insider, 3 novembre 2015

L’intelligence artificielle organisée par tâches 

Ezratty Olivier, « Les avancées de l’intelligence artificielle – 1 », Opinions libres, 6 mars 2016

 

Ezratty Olivier, « Les avancées de l’intelligence artificielle – 1 », Opinions libres, 6 mars 2016

Les remises en cause des a priori des recherches en cours, enfin, et en particulier des modèles symboliques ou connexionnistes de l’intelligence qui les sous-tendent, sont anciennes. Dès les années 1990, Terry Winograd invitait la communauté des chercheurs à interroger le concept d’intelligence, inséparable selon lui de l’engagement dans un monde, d’une contextualité [11]. Selon Alain Cardon [12], une intelligence artificielle forte est inséparable de la modélisation d’une psyché, dans ses dimensions à la fois affective et sensible. Mais l’opportunité de donner des défauts humains aux machines pour simuler chez elles une intelligence proche de la nôtre doit elle-même être questionnée : quel est finalement l’intérêt d’une telle machine qui n’en est plus une ?

Forestier Florian, Docteur en philosophie, chercheur associé à Paris IV, Futuribles

Notes

[1] « Jeu de go : première victoire de Lee Sedol contre l’intelligence artificielle de Google », Le Monde, 13 mars 2016.

[2] « Chaque réseau est composé de 12 couches contenant chacune des millions de connexions neuronales. Les “réseaux politiques” ont été entraînés avec une base de données de 30 millions de coups provenant de parties jouées par des experts jusqu’à ce qu’ils puissent prédire un mouvement 57 % du temps. Mais pour qu’AlphaGo puisse développer ses propres stratégies de jeu, DeepMind a eu recours à un apprentissage renforcé en lui faisant jouer des milliers de parties contre lui-même. Puis, les réseaux politiques ont été utilisés pour entraîner les réseaux de valeur, toujours par apprentissage renforcé », in Zaffagni Marc, « AlphaGo, de Google : la victoire de l’intelligence artificielle au go », Futura-Sciences, 28 janvier 2016.

[3] Ezratty Olivier, « Intelligence artificielle : quelles sont les avancées ? », FrenchWeb.fr, 15 mars 2016.

[4] « Les 37 projets d’Elon Musk contre les dangers de l’intelligence artificielle », Le Monde, 6 juillet 2015.

[5] Dettmers Tim, « The Brain Vs Deep Learning Part I: Computational Complexity — Or Why the Singularity Is Nowhere Near », blog Tim Dettmers, 27 juillet 2015 ; Gévaudan Camille, « Microprocesseurs : la loi de Moore patine, et c’est tant mieux », Libération, 17 février 2016.

[6] Sur ce point, voir le dossier: « After Moore’s Law. The Future of Computing », The Economist, 12 mars 2016 ; voir en particulier, concernant l’inefficacité des ordinateurs comparés aux cerveaux en termes de traitement des informations : « Technology Quarterly After Moore’s Law ».

[7] Dettmers Tim, op. cit.

[8] « À terme tous les domaines pourraient ainsi être impactés par l’intelligence artificielle. Pas tous les domaines […] mais chaque domaine », in Richardin Anaïs, « On est loin d’avoir une intelligence artificielle qui dépasse l’homme », Maddyness, 18 mars 2016.

[9] Buffard Cécile, « Les robots, meilleurs amis de l’homme ? Entretiens croisés Serge Tisseron, Florian Forestier et Alain Bensoussan », Pointsdevente.fr, 6 décembre 2015.

[10] Ezratty Olivier, op. cit.

[11] Winograd Terry, « Heidegger et la conception des systèmes informatiques », Intellectica, vol. 2, n° 17, 1993, p. 51-78 ; Forestier Florian, « La main invisible », NonFiction, 20 septembre 2011.

[12] « Alain Cardon, chercheur en intelligence artificielle » (propos recueillis par Jean-Paul Baquiast et Christophe Jacquemin), Automates intelligents, 2 avril 2001.

Livre blanc de l’AACC Customer Marketing : l’intelligence artificielle, nouvelle frontière du marketing

Avant-propos

Les progrès de l’Intelligence Artificielle (IA) et de la robotique annoncent une nouvelle ère, celle de machines capables d’apprendre par elles–mêmes (machine learning) et de mimer les réseaux neuronaux du cerveau humain pour un apprentissage profond (deep learning).

Aujourd’hui, ces IA sont encore très limitées et les capacités cognitives des robots ne dépassent pas celles d’un petit enfant.

Mais dans un futur plus ou moins proche – Ray Kurzweill, pape du transhumanisme et responsable de l’innovation chez Google évoque 2030 – nous pourrions assister à la naissance de la machine consciente. C’est la fameuse singularité, une IA qui dépassera l’homme et pourra fabriquer elle-même des machines encore plus intelligentes.

Une perspective inquiétante rappelant Terminator et Matrix, mais qui laisse sceptiques beaucoup de scientifiques. Reste que 65 % des Français se disent inquiets du développement d’une intelligence artificielle selon une enquête Ifop pour l’Observatoire B2V des mémoires de décembre 2015.

Heureusement, l’empathie, la bienveillance, l’humour et la créativité restent l’apanage de l’homme. Et pour très longtemps encore d’après les chercheurs spécialisés dans ce domaine.

Dans les métiers de la communication et du marketing, des algorithmes permettent déjà de faire du marketing prédictif et de l’hyper personnalisation.  Mais ces programmes intelligents soulèvent plusieurs interrogations : quelle place pour l’humain si robots et algorithmes se multiplient dans tous les secteurs ? Comment former les gens aux nouveaux métiers et compétences générés par ces outils informatiques sophistiqués ? Quelle est la responsabilité des opérateurs (agences, prestataires, annonceurs) qui utilisent le big data et les algorithmes prédictifs ? Quelle est leur situation d’un point de vue juridique ?

Des problématiques qui devront être résolues avant que l’utilisation de l’Intelligence Artificielle ne devienne une pratique courante dans l’univers du marketing.

En attendant l’époque où humains et robots seront égaux (et donc concurrents), ce livre blanc se propose de faire un état des lieux des pratiques existantes en matière d’IA, qui devrait être la vedette de cette année 2016 selon Microsoft.

Ont collaboré à la publication « L’intelligence artificielle, nouvelle frontière du marketing » Laure Landes-Gronowski Avocat, Directeur du département Commerce électronique, Alain Bensoussan Avocats Lexing, Corentin Orsini, Directeur Conseil, Soon Soon Soon, Jean-Claude Heudin, Directeur de l’Institut de l’Internet et du Multimédia, Yan Claeyssen, Publicis ETO / Vice-Président de l’AACC Customer Marketing, Olivier Vigneaux, Directeur Général, BETC Digital, Vincent Druguet, Chief Executive Officer, Wunderman, Mathieu Vicard, Directeur Associé, Adrenaline, Pascal Joseph, Directeur du Business Development, MRM McCann, Frédéric Hart, Planneur Stratégique veille et innovation, MRM McCann, Catherine Michaud, Integer / Présidente de l’AACC Customer Marketing, Sébastien Brocandel, Directeur Associé, Directeur de création, Pschhh, Patrick Cappelli, journaliste.

AACC

La singularité technologique et le revenu de base inconditionnel

Face à différentes singularités technologiques, sécuriser un revenu de base inconditionnel pour tous prendrait tout son sens, estime Johann Roduit, Managing Director du Centre d’Humanités Médicales de l’Université de Zurich.

Et si le principe d’un revenu de base inconditionnel était une réponse adéquate à la singularité technologique, ce moment précis, annoncé dans un futur proche, où une espèce d’intelligence artificielle serait capable d’auto-évaluation et surpasserait l’intelligence humaine ?

Roduit,  Le Temps, 16 janvier 2014, lire la suite télécharger le PDF