Le vol du futur : la singularité technologique en question

En 2017, Jean-Gabriel Ganascia, professeur d’informatique à la Sorbonne, chercheur en intelligence artificielle et président du comité d’éthique du CNRS, publiait un ouvrage remarquable : Le mythe de la singularité technologique. Faut-il craindre l’intelligence artificielle ?1. Un des fils qui trament cet ouvrage porte sur un couplage inattendu entre une « pseudomorphose » technologique et politique. Étymologiquement, pseudomorphose vient du grec « pseudès » faux, trompeur et « morphosis », action donnant forme. Un processus physico-chimique lent qui par adjonction, altération, imprégnation d’éléments extérieurs ou en fonction d’un changement de l’environnement comme la température, modifie un corps qui, en apparence, reste semblable. Selon Jean-Gabriel Ganascia avec l’intelligence artificielle « forte » et l’intelligence artificielle « générale » nous sommes en présence de deux pseudomorphoses de l’intelligence artificielle.

Intelligence(s) artificielle(s)

Tout commence dans les années 1950, l’intelligence artificielle, comme discipline nouvelle, amorce une « quête » scientifique, celle de la compréhension de l’intelligence, sa décomposition en facultés élémentaires (mémoire, perception, calcul), sa reproduction et sa simulation numérique2. Latéralement coexiste un dessein philosophique aux ambitions démiurgiques, faisant écho à la science-fiction, qui vise à reproduire une conscience sur un ordinateur. Dans les années 1980, le philosophe John Searle, avec l’expérience fictive de « la chambre chinoise », distingue la discipline scientifique, technologique, empirique, l’intelligence artificielle « faible » (weak) de l’approche philosophique, l’intelligence artificielle « forte » (strong), qu’il dénonce. En 2011, lors de la « victoire » de l’algorithme Watson développé par IBM au jeu télévisé américain Jeopardize!, John Searle ironisait : « Watson doesn’t know it won on Jeopardy !3 ». Au début des années 2000, l’intelligence artificielle « forte », discursive, se mêle aux idées de mathématiciens qui veulent refondre l’intelligence artificielle sur de nouvelles bases : c’est la naissance du concept d’intelligence artificielle « générale », qui a pour objectif la réalisation d’une intelligence artificielle totale, sans limite4. Ben Goertzel, Marcus Hutter, Jürgen Schmidhuber fondent leurs espoirs sur la complexité de Kolmogorov et la théorie de l’inférence inductive de Solomonov, d’autres, sur l’utilisation des réseaux de neurones formels (deep learning) ou l’apprentissage par renforcement, que l’on a pu observer chez AphaZero qui a « battu » Stockfish au jeu d’échecs en décembre dernier5.

Malgré leurs différences, selon Jean-Gabriel Ganascia, les partisans de ces deux pseudomorphoses se retrouvent aujourd’hui dans le concept de singularité technologique. Une accélération technologique d’après le transhumaniste Ray Kurzweil (Singularity University, Google) qui pourrait conduire à l’émergence d’une intelligence artificielle générale, le fantasme, vers 20456.

Spiritualité gnostique

Au cœur de l’ouvrage, Jean-Gabriel Ganascia développe une comparaison audacieuse entre deux pseudomorphoses : la gnose spirituelle et la singularité technologique. Si, a priori, tout les oppose, Jean-Gabriel Ganascia perçoit dans le rapport d’opposition/récupération de la gnose à la religion, une analogie propre à dégager une grille d’analyse qui aide à saisir la singularité technologique dans son rapport à la science contemporaine.

Qu’est-ce que la gnose ? Gnose vient de gnosis qui veut dire « connaissance ». La spiritualité gnostique atteint son point culminant au IIe siècle. Elle s’inspire de traditions spirituelles anciennes et notamment des croyances magiques égyptiennes, babyloniennes et perses et s’exprime par une dualité radicale entre un vrai Dieu, un Dieu suprême, qui reste caché, et un faux Dieu, un usurpateur qui aurait créé l’Univers à l’insu du vrai Dieu et qui serait ainsi à l’origine de nos maux, souffrances et finitude.

Dans la spiritualité gnostique, le monde dans lequel nous vivons est un faux-semblant, qu’il faut « réparer » pour accéder à la plénitude de l’être, l’être véritable. À cette fin, il faut s’arracher à l’autorité du démiurge, rompre avec sa domination. Cet arrachement passe par l’acquisition d’un savoir qui doit permettre de dissiper l’illusion et autoriser l’accès au monde caché. S’extraire de l’emprise du faux Dieu, suppose une « brisure » capable d’apporter la « dislocation salutaire » …

Pseudomorphose politique

En rendant « plausible » l’idée de singularité technologique via des catégorie de pensées disponibles, populaires, Jean-Gabriel Ganascia considère qu’on la rend « possible », au sens de quelque chose « susceptible de se produire ». Si ce concept est douteux sur le plan scientifique, il est, selon lui, plus encore « répréhensible » sur le plan moral, irresponsable de la part de scientifiques qui ont pour mission d’ouvrir des perceptives. En occultant les autres risques, mais aussi les alternatives, le degré de liberté humaine disponible, ils contribuent ainsi à opacifier le futur en masquant les possibles.

Plus encore, la « brisure » renvoie à un temps futur qui n’appartiendra plus à l’homme. Inéluctable, l’inflexion semble pouvoir ne se faire qu’a minima comme tentée de gauchir l’évolution de l’intelligence artificielle, la rendre « amicale ». Aussi la singularité technologique conduit-elle à un enfermement. L’action libre, si elle subsiste, déroge à la perfection.

In fine, la singularité débouche sur une pseudomorphose politique, celle de l’humanisme des Lumières qui était basé sur la perfectibilité. À l’issu de ce réquisitoire, Jean-Gabriel Ganascia conclut à la liberté que l’on abdique, au futur qui se dissipe.

Notes :

3 John Searle, « Watson doesn’t know it won on ‘Jeopardy’ », The Wall Street Journal, 23 février 2011.

4 Lire Hugo Roland de Garis et Ben Goertzel, « Report on the first conference on artificial general intelligence (AGI-08) », AI Magazine, printemps 2009, p. 121-123.

5 Pierre Barthélémy, « AlphaZero, algorithme prodige de l’échiquier », Le Monde, 12 décembre 2017.

6 Dom Galeom et Christiana Reedy, « Kurzweil claims that the singularity will happen by 2045 », Futurism, 5 octobre 2017.

Le « super-soldat » à l’épreuve du réel

« Creating breakthrough technologies for national security » DARPA

Le « super-soldat » évoque un personnage de fiction doté de capacités hors du commun dont l’archétype serait Captain America.
Si dans le réel les technologies de l’ « augmentation » existent depuis des décennies avec l’usage de la psycho-pharmacologie (amphétamines, Modafinil, etc.), dans les années à venir, elles vont se diversifier, s’amplifier (neuro-ingénierie, robotique, optogénétique, etc.).

L’objectif de cette conférence est d’explorer les recherches qui gravitent autour du « super-soldat » aux États-Unis via les programmes de la DARPA (Defense Advanced Research Projects Agency).

Comment définir un soldat « augmenté » ? Quelles sont les recherches en cours, pour quelles applications ? Quels sont les risques pour le soldat, l’armée, la société ?

Théâtre de la Chaise rouge

Conférence (tarif : 11 euros), « Université populaire de la Chaise rouge », Vendredi 6 octobre 2017 – 18 h 00, de Vincent Guérin, docteur en histoire contemporaine. La Haute Herberie, Pouancé, 49420.

DARPA prévoit des choses énormes en biotechnologie

Le vol du futur ? La singularité technologique en question

« Interrogé cette semaine lors de la Conférence SXSW à Austin, au Texas, le ‘futuriste’, de Google Ray Kurzweil prévoit la singularité, ce moment où les machines prendront le pouvoir sur l’homme. Ce sera 2029 et il a hâte d’y être. »

Voici comment Sciencepost sous-titrait un article daté du 18 mars dernier1.

Dans l’interview, Raymond Kurzweil pense que la machine atteindra le niveau humain en 2029 (Human-Level Intelligence), la singularité technologique, quant à elle, pourrait apparaître vers 20452.

Sommes-nous à l’orée d’une accélération technologique exponentielle devant nous conduire à une « brisure » qui verrait l’intelligence artificielle nous dépasser, prendre son autonomie ? La singularité technologique a-t-elle du sens ou est-elle une pure spéculation ?

Lors de cette conférence, nous mettrons à profit l’ouvrage de Jean-Gabriel Gasnacia3, un sceptique intéressant car spécialiste de l’IA. Son livre s’ouvre sur un cri d’alarme, celui du célèbre cosmologiste Stephen Hawking paru dans le journal The Independent le 1er mai 2014 qui voit dans l’évolution de l’IA une menace pour l’humanité4

Institut municipal, Angers
Conférence (gratuite), mercredi 27 septembre 20h00 – 21h30, de Vincent Guérin.
Entrée libre dans la limite des places disponibles, IMA, 9, rue du Musée (Place Saint-Eloi), 49100 Angers, tél. 02 41 05 38 80

Fichier(s) en relation : les_mutations_technologiques_vincent_guerin_01.pdf 758 K

Notes :

1 SciencePost : Le « futuriste » de Google Ray Kurzweil prévoit la singularité pour 2029.
2 Futurism: Kurzweil Claims That the Singularity Will Happen by 2045
4 The Independent: Stephen Hawking: ‘Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?’

 

Conférence : Amélioration de l’homme par la technologie ?

La conférence sera animée par Vincent Guérin. L’objet de cette soirée est de sonder les origines du transhumanisme, explorer les discours de ses représentants, analyser ses concepts, ses incarnations, ses résonances, afin de donner du sens à cette idéologie et observer la manière dont elle exprime notre temps.

date : 15 juin 2017, 18h30
à : IN’TECH Sud-Ouest, Amphithéâtre de l’ENAP, 440 avenue Michel Serres, 47000 Agen.

Renseignements complémentaires : m.bru@intech-so.fr

De quoi discutent Larry Page, Elon Musk et Yann Le Cun ? (Beneficial AI 2017)

« Technology is giving life the potential to flourish like never before… or to self-destruct. Let’s make a difference ! » Future of Life Institute

En janvier dernier s’est tenu à Asilomar (Californie) le second colloque organisé par Future of life Institute (FLI) dont l’objectif était d’anticiper l’évolution de l’intelligence artificielle afin qu’elle soit bénéfique pour l’humanité.

Cette association a été créée en 2014 par Jaan Tallinn, informaticien et cofondateur de Skype et Kazaa, Meia Chita-Tegmark (Université de Boston), Vicktorya Krakovna (DeepMind) et les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT).

On trouve au sein du comité scientifique Stephen Hawking (Cambridge), Erik Brynjolfsson (MIT), Martin Rees (Cambridge), Nick Boström (Oxford), Elon Musk (Tesla, Space X), etc1. En 2015, ce dernier a fait don au FLI de 10 millions de dollars.

L’objectif de cette institution est d’anticiper les risques existentiels (qui menacent l’humanité toute entière) anthropiques (du fait de l’homme) comme le réchauffement climatique global, l’arsenal nucléaire2, les biotechnologies mais aussi et surtout ceux liées à l’IA3.

En janvier 2015, le FLI avait publié une lettre ouverte sur les risques/bénéfices liés à l’IA qui a reçu à ce jour plus de 8000 signatures.

L’idée : impulser une réflexion pluridisciplinaire afin de stimuler des recherches dans le sens d’une intelligence artificielle puissante (robust AI) tout en prenant soin qu’elle soit bénéfique pour la société. L’esprit : « Our AI systems must do what we want them to do ».

Ce colloque interdisciplinaire constitué de conférences et d’ateliers (workshops) fait suite à celui qui s’était déroulé à Puerto Rico en 2015 et qui avait réuni des chercheurs du champ de l’IA mais aussi des spécialistes de l’économie, du droit, de l’éthique et de la philosophie.

Au programme, cette année, se trouvait un panel de « célébrités » comme Erik Brynjolfsson (MIT), Yann Le Cun (Facebook/NYU), Ray Kurzweil (Google), Andrew McAfee (MIT), Nick Boström (Oxford), Elon Musk (Tesla/Space X), David Chalmers (NYU), Stuart Russel (Berkeley), Peter Norvig (Google), Larry Page (Google), Yoshua Bengio (Montreal Institute for learning algorithms), Oren Etzioni (Allen Institute), Martin Rees (Cambridge/CSER), Wendell Wallach (Yale), Eric Drexler (MIT), Eliezer Yudkowsky (MIRI), etc4. Les thématiques des conférences et workshops, très riches, portaient sur l’impact à venir de l’automatisation, le concept de superintelligence, les chemins possibles vers l’IA « réelle », la gestion des risques liés à l’IA, etc. On trouvera ici les PowerPoints et vidéos des intervenants.

Des discussions sont nées 23 principes dits « Asilomar » signés d’ores et déjà par plus de 3500 personnalités dont 1171 du champ de l’IA. Non figés, ces principes ont pour objectif de générer des discussions et réflexions sur le site du FLI et ailleurs.

Notes :

2 Une lettre ouverte signée par 3400 scientifiques a récemment été communiquée à l’ONU afin de soutenir son initiative de bannir les armes nucléaires.
3 Depuis quelques années, de nombreuses institutions se sont développées pour anticiper les risques existentiels naturels et anthropogènes. Parmi ces dernières, l’intelligence artificielle est souvent mise en avant. Ainsi, outre le FLI, on citera Machine intelligence research institute (MIRI/Berkeley), Future of humanity institute (FHI/Oxford), Centre for the study of existential risk (CSER/Cambridge), Open AI (Elon Musk), One hundred years study on artificial intelligence (AI100/Stanford), Global catastrophic risk institute (GCRI) et dernièrement Leverhulme centre for the future of intelligence (Cambridge). Sur le Leverhulme centre for the future of intelligence et Center for the study of existential risk on peut lire « Meet Earth’s guardians, the real-world X-men and women saving us from existential threats », Wired, 12 février 2017 ; sur Future of humanity institute Ross Andersen, « Omens », Aeon, 25 février 2013.

La cage de verre : le coût humain de l’automatisation

« We don’t know when to say enough or even hold on a second » Nicholas Carr.

L’île Igloulik, au Nord du Canada, est un territoire hostile où règne parfois des températures inférieures à – 20 oC. Pourtant, depuis au moins 4000 ans les Inuits y chassent le caribou. Depuis que leurs pratiques sont documentées, ils fascinent par leur capacité d’orientation, leur connaissance des vents, du comportement animal, de la texture de la neige, etc.

Au début des années 2000, ces mêmes chasseurs ont commencé à utiliser le GPS. Alors que par le passé il fallait un long apprentissage auprès des anciens pour développer le sens de l’orientation dans un environnement hostile, ce dispositif qui rend les techniques traditionnelles obsolètes n’en nécessite quasiment plus. Seulement, la confiance aveugle dans ce système et l’effet tunnel induit provoqua bientôt des accidents durant la chasse engendrant blessures et décès.

Dans The glass cage (non traduit en français) Nicholas Carr souhaite éclairer comment notre dépendance grandissante aux ordinateurs, aux applications et à la robotique façonnent notre travail, nos talents et nos vies. En cela, il ouvre une fenêtre sur le coût humain de l’automatisation1.

Très discuté dans le monde anglo-saxon, Nicholas Carr est l’auteur de plusieurs ouvrages et de nombreux articles dans des journaux aussi prestigieux que Harvard Business Review, MIT Sloan Management Review, The Atlantic, etc2. Son blog Rough type explore des sujets aussi divers que l’économie, la culture et bien sûr la technologie3.

The glass cage est construit autour de l’idée que nous surestimons les bénéfices de l’automatisation. En transférant à la machine une part des expériences qui nous permettent de nous accomplir, l’automatisation affecte nos actions, détériore nos compétences, notre santé. En touchant à la substance même de nos vies, le choix de l’automatisation n’est pas simplement économique, il est aussi éthique.

Déjà au XVIIIe siècle, avec la révolution industrielle, le spectre du remplacement de l’homme par la machine hantait les sociétés et les individus. Aujourd’hui, l’automatisation fait craindre aux État-Unis, mais pas seulement, une croissance sans emploi.

C’est durant la seconde guerre mondiale, au sein de la défense anti-aérienne, que le nouvel âge de l’automatisation (un dispositif mécanique permettant d’automatiser une tâche) aurait pris forme. Elle est née d’un problème crucial : comment atteindre un avion ennemi, dans sa position probable à venir ?

Dans l’après-guerre, son couplage avec l’ordinateur étend ses potentialités. Depuis les années 1970, elle a fait des progrès prodigieux, elle est omniprésente. Nous dépendons d’elle.

Pour Nicholas Carr, la meilleure façon d’observer l’impact de l’automatisation à venir dans notre société est de regarder sa forme avancée dans l’aviation. Jusqu’aux années 1980, le pilotage était exclusivement réalisé par le pilote. Avec la naissance de l’A320, l’histoire de l’aviation et celle des ordinateurs se recoupent. Durant un vol commercial typique, le pilote ne prend les commandes que pendant trois minutes – une partie de l’équipage a aussi disparu du cockpit. Si l’automatisation a permis de diminuer les crashs (2 décès pour cent millions de passagers), elle masque une dégradation des compétences du pilote, l’altération de sa perception et de son temps de réaction.

« As automation has gained in sophistication, the role of the pilot has shifted toward becoming a monitor or supervisor of the automation. »

Dans la médecine comme dans l’aviation, l’omniprésence de l’ordinateur modifie déjà en profondeur la relation du patient au soignant, le diagnostic, etc. Ce phénomène touche aussi la finance, le droit, l’architecture, etc.

Selon Nicholas Carr, l’automatisation, nous coupe de l’expérience du réel, de notre savoir-faire, notre créativité.

« How far from the world do we want to retreat ? »

De la même manière, avec les algorithmes prédictifs qui ignorent les causes, notre désir de comprendre le monde s’érode, ce qui en retour altère notre capacité d’étonnement, notre sagesse. Comment briser cette cage de verre, sans renoncer aux bénéfices du numérique ?

Bien que la machine ne soit pas exempt de biais cognitifs, qu’elle introduise de nouveaux problèmes (bugs, vulnérabilités, etc.), il semble qu’il soit tentant d’exclure de l’équation le facteur humain, souvent considéré comme faillible. Les ingénieurs créent des machines qui laissent peu de place à l’humain. Dans un processus autoréalisateur, le travail qui en résulte, vidé de sa substance, ne nécessitant pas de compétences spécifiques, alimente l’idée que l’homme n’a pas sa place.

Les choix de Boeing dans l’aviation de favoriser le rôle du pilote au détriment de la machine ou l’usage du programme THOR par la Royal Bank of Canada qui ralentit les transactions financières pour éviter une emprise trop grande de l’algorithme montrent que l’arbitrage entre une technologie centrée sur elle-même ou celle centrée sur l’humain n’est pas uniquement une préoccupation académique.

De manière plus générale, Nicholas Carr recommande une vigilance accrue sur les motivations éthiques, politiques, commerciales, économiques de ceux qui régissent nos vies, infiltrent nos désirs et actions, déterminent nos limites via les programmes afin de garder une prise sur nos intentions, particulièrement lorsque l’automatisation est invisible, le code opaque.

Nicholas Carr ne se considère pas comme technophobe. La technologie est selon lui notre nature. Au travers de nos outils, nous donnons forme à nos rêves. L’instrument contribue à cultiver notre talent, modifiant le monde, apportant de nouvelles opportunités. Au meilleur d’elle même, la technologie ouvre de nouveaux horizons. Il voit ainsi dans la faux la métaphore d’un modèle de technologie qui étend nos capacités sans circonscrire la portée de nos actions et perceptions. A contrario, les outils digitaux de l’automatisation, plutôt que de nous inviter dans un monde, nous en expulsent.

Si l’intelligence artificielle stimule notre vue, elle assèche nos autres sens. Le monde devient moins signifiant.

Trop laconique sur la manière de s’extraire de cette cage de verre, il conclut que nous sommes libres de créer des outils qui humanisent la technologie mais cela requière de la vigilance et du soin…

1 Nicholas Carr, The glass cage. Where automation is taking us, London, The Bodley Head, 2015 puis The glass cage. Who needs humans anyway? London, Vintage, 2016.
2 En Français on peut lire Internet rend-il bête ? (trad. Marie-France Desjeux), Paris, Laffont, 2011 [The Shallows: What the internet is doing to our brains ?, NY, Norton, 2010.

Le posthumain comme dessein (2nd partie)

Contre-argumentation

Face à l’éventualité du posthumain, ceux qualifiés de « bioconservateurs », opposent généralement la dégradation de l’humain, sa « déshumanisation » et l’affaiblissement, voire la disparition de la dignité humaine. Alors que le médecin et biochimiste américain Leon Kass met en avant son profond respect pour ce que la nature nous a donné1, Nick Boström lui réplique que certains dons de la nature sont empoisonnés, et que l’on ne devrait plus les accepter : cancer, paludisme, démence, vieillissement, famine, etc. Les spécificités même de notre espèce, comme notre vulnérabilité à la maladie, le racisme, le viol, la torture, le meurtre, le génocide sont aussi inacceptables2. Nick Boström réfute l’idée que l’on puisse encore relier la nature avec le désirable ou le normativement acceptable. Il a une formule :

« Had Mother Nature been a real parent, she would have been in jail for child abuse and murder3. »

Plutôt que de se référer à un ordre naturel, il préconise une réforme de notre nature en accord avec les valeurs humaines et nos aspirations personnelles4.

Nick Boström dénonce l’instrumentalisation qui est faite du roman dystopique d’Adlous Huxley Le meilleur des mondes (1932). Selon lui, si dans le monde dépeint par Huxley, les personnages sont déshumanisés et ont perdu leur dignité, ce ne sera pas le cas des posthumains. Le meilleur des mondes n’est pas, selon lui, un monde où les êtres sont augmentés, mais une tragédie, dans laquelle l’ingénierie technologique et sociale a été utilisée délibérément afin de réduire leurs potentialités, les affecter moralement et intellectuellement5. L’ouvrage d’Huxley décrit un eugénisme d’État dans lequel sont dissociées fécondation et sexualité mais aussi procréation et gestation corporelle. Tout commence par une mise en relation artificielle des gamètes mâles et femelles, puis une « bokanovskification », qui permet de faire bourgonner l’embryon pour produire au maximum 96 jumeaux identiques, et enfin une gestation extra-corporelle complète dans une couveuse, une sorte d’utérus artificiel6. Les « individus » « prédestinés » par une anoxie plus ou moins brève qui altère chez certains leur capacités physiques et cognitives sont ensuite ventilés en castes (alpha, bêta, gamma, epsilon, etc.).

« Plus la caste est basse […] moins on donne d’oxygène. Le premier organe affecté, c’est le cerveau. Ensuite le squelette7. »

À leur naissance, les enfants sont ensuite exposés à un conditionnement de type pavlovien qui oriente leur sensibilité – aux livres et aux fleurs par exemple.

En contrepoint, Nick Boström revendique la liberté morphologique et reproductive contre toute forme de contrôle gouvernemental8. Selon lui, il est moralement inacceptable d’imposer un standard : les gens doivent avoir la liberté de choisir le type d’augmentation qu’ils souhaitent9.

Le philosophe américain Francis Fukuyama considère qu’avec l’augmentation, une menace pèse sur la dignité humaine. L’égalité des chances, encore toute relative, fut l’histoire d’un long combat, l’augmentation ruinera cette conquête inscrite notamment dans la constitution des États-Unis10. En réponse, Nick Boström inscrit le posthumain dans une perspective historique d’émancipation progressive en considérant que de la même manière que les sociétés occidentales ont étendu la dignité aux hommes sans propriété et non nobles puis aux femmes et enfin aux personnes qui ne sont pas blanches, il faudrait selon lui étendre le cercle moral aux posthumains, aux grands primates et aux chimères homme-animal qui pourraient être créés11. La dignité est ici entendue au sens d’un droit inaliénable à être traité avec respect ; la qualité d’être honorable, digne12.

Nick Boström estime que nous devons travailler à une structure sociale ouverte inclusive, une reconnaissance morale et en droit pour ceux qui en ont besoin, qu’il soit homme ou femme, noir ou blanc, de chair ou de silicone13. Si l’on considère que la dignité peut comporter plusieurs degrés, non seulement le posthumain pourrait en avoir une, mais plus encore atteindre un niveau de moralité supérieur au nôtre14.

Valeurs transhumanistes Explorer le royaume posthumain

Pour le philosophe allemand Hans Jonas, l’eugénisme libéral individuel, qui consiste à choisir les traits de son enfant, est une tyrannie parentale qui de manière déterministe conditionne la dignité à venir de l’enfant et aliène ses choix de vie. Le choix de maintenant conditionne le futur. À ce déterminisme, Nick Boström rétorque que l’individu dont les parents auront choisi quelques gènes ou la totalité n’aura pas moins de choix dans la vie. Il réplique qu’entre avoir été sélectionné génétiquement et faire des choix dans sa vie il y a un monde et de manière générale être plus intelligent, en bonne santé, avoir une grande gamme de talents ouvrent plus de portes qu’il n’en ferme15. Ironiquement, il affirme que le posthumain aura les moyens technologiques de décider d’être moins intelligent16.

Soucieux, semble-t-il, de justice sociale, il imagine que certaines augmentations jugées bonnes pour les enfants pourraient être prise en charge par l’État comme cela existe déjà pour l’éducation, surtout si les parents ne peuvent pas se le permettre. Comme nous avons une scolarisation obligatoire, une couverture médicale pour les enfants, une augmentation pourrait être obligatoire, éventuellement contre l’avis même des parents17 .

L’ « explosion de l’intelligence »

Parmi les différentes voies devant conduire à une augmentation cognitive, une « explosion de l’intelligence », Nick Boström en évalue au moins deux comme prometteuses : l’augmentation cognitive par la sélection génétique et la digitalisation du cerveau et le téléchargement de l’esprit. L’augmentation cognitive par la sélection génétique accélérée est une méthode directe pour accéder au posthumain. Voici sa recette : choisir dans un premier temps des embryons dont le potentiel est souhaitable par un détournement du diagnostique préimplantatoire, extraire des cellules souches de ces embryons et les convertir en gamètes mâles et femelles jusqu’à maturation (six semaines) croiser le sperme et l’ovule pour donner un nouvel embryon, réitérer à l’infini puis implanter dans l’utérus (artificiel) et laisser incuber pendant neuf mois18.

Une autre voie consisterait à « plagier » la nature en digitalisant le cerveau. Dans un premier temps, il s’agirait de scanner finement post-mortem un cerveau biologique, stabilisé par vitrification, afin d’en modéliser la structure neuronale. Pour ce faire, il faudrait au préalable découper ce cerveau en fines lamelles. Les données extraites, issues du scan, alimenteraient ensuite un ordinateur, qui reconstruirait le réseau neuronal en trois dimensions, qui permet la cognition. In fine, la structure neurocomputationnelle serait implémentée dans un ordinateur puissant qui reproduirait l’intellect biologique. Avec cette méthode, il n’est pas nécessaire de comprendre l’activité neuronale, ni de savoir programmer l’intelligence artificielle19.

Vers une spéciation ?

Allons-nous vers une divergence si souvent décrite par la science fiction, une spéciation ? Une espèce se définit soit par la ressemblance morphologique soit, de manière génétique, par l’interfécondité. Il existe deux types de spéciation : l’anagénèse, une humanité unique deviendrait une posthumanité unique, ou la cladogénèse qui entraînerait une divergence. Deux moteurs favorisent la spéciation dans la biologie évolutionniste. Le premier est la dérive génétique, c’est-à-dire la transmission aléatoire de caractères qui apparaissent par mutation dans une population, sans fonction adaptive spécifique. Le second, est la sélection naturelle des caractères aléatoires en fonction de leur potentiel adaptatif à un environnement en changement. Dans notre cas, la sélection se ferait artificiellement, l’humanité prenant en charge sa propre évolution20.

Alors que la sélection naturelle se fait au hasard, au filtre de l’adaptation sur la très longue durée, avec le techno-évolutionisme l’évolution se ferait à un rythme rapide, pour des raisons fonctionnelles. L’idée que l’augmentation puisse mener à une spéciation par cladogénèse, relève, selon Nick Boström, d’un scénario de science-fiction :

« The assumption that inheritable genetic modifications or other human enhancement technologies would lead to two distinct and separate species should also be questioned. It seems much more likely that there would be a continuum of differently modified or enhanced individuals, which would overlap with the continuum of as-yet unenhanced humans21. »

De même, il évalue comme peu plausible l’idée qu’un jour le posthumain considérant l’homme « normal », comme inférieur, puisse le réduire en esclavage, voire l’exterminer22.

« The scenario in which ‘the enhanced’ form a pact and then attack ‘the naturals’ makes for exciting science fiction but is not necessarily the most plausible outcome23. »

Le devenir humain met au défi notre imaginaire. Nick Boström y voit l’espérance d’une émancipation biologique devant nous conduire à une extase permanente.

Néanmoins, cette désinhibition souffre d’une contradiction majeure : elle sous-tend des ruptures anthropologiques, qui par différents biais, et notamment le conformisme, s’imposeraient à tous.

1ère partie

Le posthumain comme dessein

Notes :

1 Nick Boström, « In defense of posthuman dignity », Bioethics, vol. 19, no 3, 2005, 2007, p. 5
2 Idem.
3 Ibid., p. 12
4 Idem.
5 Ibid., p. 6.
6 Aldous Huxley [1932], Le meilleur des mondes, Paris, Presses Pocket, 1977, voir chap 1, p. 21 à 36.
7 Ibid., p. 33.
8 Nick Boström, « In defense of posthuman dignity », op. cit., p. 6.
9 Ibid.
10 Francis Fukuyama, « The world’s most dangerous idea: transhumanism », Foreign Policy, 2004.
11 Nick Boström, « In defense of posthuman dignity », op. cit., p. 10.
12 Ibid., p. 9.
13 Idem.
14 Ibid., p. 11
15 Ibid., p. 12.
16 Idem.
17 Nick Boström, « Human genetic enhancements: a transhumanist perspective », op. cit.
18 Nick Boström, Superintelligence. Paths, dangers, strategies, Oxford, OUP, 2014, p. 38.
19 Ibid., p. 30.
20 Elaine Després et Hélène Machinal (dir.), Posthumains : frontières, évolutions, hybridités, Rennes, PUR, 2014, p. 2.
21 Nick Boström, « In defense of posthuman dignity », op. cit., p. 8.
22 Idem.
23 Idem.

Le posthumain comme dessein

« Nous [les transhumanistes] refusons de croire que nous sommes ce qu’il y a de mieux, que nous sommes une sorte d’aboutissement, une création indépassable1. » Nick Boström

Dans L’heure du crime et le temps de l’œuvre d’art, le philosophe allemand Peter Sloterdijk interroge un moderne : « Où étais-tu à l’heure du crime ? » Lequel répond « j’étais sur le lieu du crime »2. Selon le philosophe, nous commençons à percevoir les temps modernes comme une époque dans laquelle « des choses monstrueuses ont été provoquées par les acteurs humains ». L’ère du monstrueux au sens ambivalent de l’étonnant, de l’inouï, du condamnable, du dépravé, mais aussi du sublime3.

Si jusqu’au XVe siècle, le monstrueux était théologique, du fait de Dieu ou des dieux, il est maintenant anthropologique, du fait de l’homme4. Ce monstrueux prend différentes formes : nous allons ici nous intéresser aux modifications de l’humain, son artificialisation progressive, un devenir artefact.

Dans ce texte, il s’agit de mettre au jour les liens qui unissent augmentations, transhumain et posthumain. Clarifier ce dernier, comprendre ce qui anime le désir de le voir advenir, sonder l’« espace des possibles », encore purement spéculatif.

Pour ce faire, nous allons observer la manière dont le philosophe transhumaniste Nick Boström (université d’Oxford), un des penseurs les plus stimulants de cette nébuleuse, dessine les contours de son posthumain, mais aussi la manière dont il dénonce les faiblesses de l’argumentaire de ses détracteurs dits « bioconservateurs ».

Nick Boström présente le transhumanisme comme un mouvement qui tente de comprendre et évaluer les opportunités d’augmenter l’organisme humain et la condition humaine grâce au progrès technologique. La « nature humaine » est perçue comme quelque chose en devenir (work-in-progress), qui nous conduira, peut-être, vers un dépassement de l’Homo sapiens5. Cette perspective inclut d’éradiquer les maladies, éliminer la souffrance, accentuer les capacités intellectuelles, physiques et émotionnelles et étendre radicalement l’espérance de vie en bonne santé6. Son ambition : par le contrôle, atteindre « le meilleur », son idéal7, une extase existentielle permanente.

Valeurs transhumanistes Explorer le royaume posthumain

Qu’est-ce-que le posthumain ?

Nick Boström définit le posthumain comme un être qui possède au moins une capacité posthumaine c’est-à-dire une capacité qui excède le maximum qu’un être humain pourrait atteindre sans recours à la technologie. Conscient des limites de notre imaginaire pour l’envisager, il donne, pour exemple, trois capacités qui pourraient relever du posthumain. La première permettrait de rester longtemps en bonne santé, actif et productif mentalement et physiquement. La seconde porterait sur la mémoire, les raisonnements déductifs, analogiques et l’attention mais aussi les facultés pour comprendre et apprécier la musique, la spiritualité, les mathématiques, etc. La dernière accentuerait notre capacité à aimer la vie et répondre, de façon appropriée, aux situations du quotidien et aux attentes des autres8. Dans ce texte nous allons nous concentrer sur la capacité cognitive. Selon Nick Boström, nous avons tous à un moment espéré être un peu plus intelligent. Qui n’a rêvé un jour de se souvenir de tous les noms et des visages, d’être capable de résoudre rapidement des problèmes mathématiques complexes, de mieux distinguer des connections entre différents éléments9 ? Il clarifie ce point par un exemple à la hauteur des espérances folles du posthumain et qui lui est personnel : lire avec une parfaite compréhension et se souvenir de chaque livre de la bibliothèque du Congrès (qui comprend tout de même 23 millions d’ouvrages)10.

Selon le philosophe, l’amélioration (enhancement) ne forme pas un ensemble homogène. Il oppose ainsi deux catégories : les « améliorations » dites « positionnelles » et celles « intrinsèquement bénéfiques »11.

Les « améliorations positionnelles » et « intrinsèquement bénéfiques »

Les premières permettraient d’avoir un avantage comparatif comme une stature, un physique attractif. Pour illustrer, il recourt à un concept économico-juridique : l’ « externalisation », le transfert d’un coût/bénéfice d’une action à un tiers. L’externalité peut être négative dans le cas d’une pollution. Elle peut être positive dans le cas de quelqu’un qui agrémente son jardin et qui en fait ainsi bénéficier les passants12. Être plus grand, statistiquement, pour les hommes dans la société occidentale, permettrait de gagner plus d’argent, d’être plus attractif sexuellement. Seulement cette augmentation, qu’il qualifie de « positionnelle », n’offrira pas un bénéfice net pour la société, puisqu’elle implique que quelqu’un y perdra au change13.

« On ne peut fournir d’argument moral pour promouvoir ces améliorations positionnelles, car ce ne sont que des augmentations comparatives. Ce n’est peut-être pas là une raison de les bannir non plus, mais il n’est certainement pas nécessaire de consacrer une grande quantité de ressources pour les favoriser14. »

N’étant pas un bénéfice pour la société, elles devraient même, selon lui, être découragées politiquement et pourquoi pas par une taxe progressive. Lucide, il sait que ce sera difficilement envisageable15.

A contrario, celles qui procurent des « bienfaits intrinsèques » comme la santé, devraient être, selon lui, valorisées, encouragées, subventionnées même16, car elles seraient une externalisation positive pour la société17. Être en bonne santé, permettrait en effet de réduire les agents infectieux et favoriserait ainsi une meilleure santé globale (Nick Boström répugne à serrer les mains)18. Il est conscient que dans les faits, comme dans le cas de l’amélioration de l’intelligence, que l’augmentation positionnelle et l’augmentation intrinsèque se recouvrent19, ainsi l’amélioration de l’intelligence permettrait d’accéder à des meilleures écoles, au dépend de ceux qui disposent d’une intelligence « normale », mais aussi d’apprécier la littérature20.

Arguant qu’il n’oppose pas les améliorations « classiques » liées à l’éducation, qui consistent à stimuler la pensée critique et les autres moyens matériels, comme l’usage de drogues, qui doivent concourir à la même fin, il récuse l’étiquette de matérialiste radical qu’on lui accole21. Il avoue utiliser de la caféine à haute dose et même avoir pris du modafinil®, un psychostimulant utilisé comme traitement contre les narcolepsies/hypersomnie et détourné comme un puissant éveillant à des fins de « performance »22. Observons maintenant comment Nick Boström défend la cause du posthumain face à ses détracteurs.

À suivre…

Contre-argumentation

L’ « explosion de l’intelligence »

Vers une spéciation ?


Notes :

1 Nick Boström, « Entretien avec Nick Boström, le transhumaniste en chef », Argument, vol. 1, no 8, automne 2005-hiver 2006, n.p.
2 Peter Sloterdijk, L’heure du crime et le temps de l’oeuvre d’art, Paris, Calmann-Lévy, 2000, p. 10.
3 Ibid., p. 9.
4 Ibid., p. 9 à 12.
5 Nick Boström, « Transhumanist values. Ethical issues for the twenty-first century », Philosophy documentation center, 2005, p. 4.
6 Nick Boström, « Human genetic enhancements: A transhumanist perspective », Journal of value inquiry, vol. 37, no 4, 2003, n.p.
7 Nick Boström, « Entretien avec Nick Boström, le transhumaniste en chef », op. cit.
8 Nick Boström, « Why I want to be a posthuman when I grow up » in Bert Gordijn et Ruth Chadwick (eds), Medical Enhancement and posthumanity, Springer, 2008, [version en ligne n.p.].
9 Idem.
10 Nick Boström, « Transhuman values. Ethical issues for the twenty-first century », Philosophie documentation center, op. cit., p. 6.
11 Nick Boström, « Entretien avec Nick Boström, le transhumaniste en chef », op. cit.
12 Nick Boström, « Human genetic enhancements: a transhumanist perspective », op. cit.
13 Nick Boström, « Entretien avec Nick Boström, le transhumaniste en chef », op cit.
14 Idem.
15 Nick Boström, « Human genetic enhancements: a transhumanist perspective », op. cit.
16 Nick Boström, « Entretien avec Nick Boström, le transhumaniste en chef », op. cit
17 Nick Boström, « Human genetic enhancements: a transhumanist perspective », op. cit.
18 Raffi Khatchadourian, « The doomsday invention. Will artificial intelligence bring us utopia or destruction ? », New Yorker, 23 novembre 2015.
19 Nick Boström, « Entretien avec Nick Boström, le transhumaniste en chef », op. cit.
20 Idem.
21 Idem.
22 Raffi Khatchadourian, « The doomsday invention. Will artificial intelligence bring us utopia or destruction ? », op. cit.

 

L’intelligence artificielle et la vie urbaine nord-américaine en 2030

AI100, premier rapport

« As cars will become better drivers than people, city-dwellers will own fewer cars, live further from work, and spend time differently, leading to an entirely new urban organization. »


AI100,
Artificial intelligence and life in 2030, 2016

AI100 (The One Hundred Year Study on Artificial Intelligence) lancé en 2014 a pour objectif d’accompagner le développement de l’intelligence artificielle sur la longue durée, son impact sur les individus et la société1.

Initié par Eric Horvitz (Microsoft) alors président de l’Association for the Advancement of Artificial Intelligence (AAAI), ce projet a été préfiguré par une étude d’un an, entre 2008-2009, intitulée « AAAI Asilomar Study on Long-term AI Futures »2. Un intitulé faisant référence à la conférence d’Asilomar de 1975, organisée par le chimiste Paul Berg, composée de scientifiques qui s’inquiétaient des risques nés de la manipulation génétique pour la santé et l’environnement3.

Dans le contexte d’inquiétude lié à l’évolution de l’intelligence artificielle, l’ambition de « AAAI Asilomar Study » était de convier des chercheurs provenant de l’intelligence artificielle mais aussi des sciences cognitives, de la philosophie et du droit, à réfléchir, sur le long terme, aux risques d’une perte de contrôle et des moyens de s’en prémunir ainsi que les défis éthiques et légaux à court terme4.

Né du désir de prolonger cette étude sur la très longue durée, AI 100, hébergé à l’université de Stanford5, a pour objectif de réunir, tous les cinq ans, un « panel » de chercheurs pluridisciplinaires qui présentera une réflexion sur l’intelligence artificielle afin de cerner son évolution en termes d’opportunités et de risques, l’orienter pour qu’elle puisse bénéficier à tous (individus/sociétés).

Ce premier rapport a été réalisé par un panel de dix sept chercheurs de différentes nationalités recrutés par un comité permanent de sept membres (dont Eric Horvitz) en fonction de domaines jugés prioritaires6.

Le rapport, organisé en trois sections, se focalise sur l’impact de l’intelligence artificielle présent et à venir, dans la vie urbaine nord-américaine à l’horizon 2030.

La première section revient sur la nature de l’intelligence artificielle, ses frontières mouvantes, et les foyers d’innovations passés et présents comme le développement de l’analyse de grandes quantités de données via internet et plus récemment le deep learning. La seconde porte sur l’impact de l’intelligence artificielle à quinze ans dans huit domaines dont les transports, principalement les engins autonomes comme les voiture sans pilote et les drones, mais aussi la santé, l’éducation, l’emploi, le divertissement, etc. Dans cette section, le « Study panel » détaille l’intérêt, les risques mais aussi les obstacles, les limites au développement de l’intelligence artificielle. La dernière partie comporte des recommandations comme la nécessité de développer une recherche interdisciplinaire capable d’analyser l’impact de l’intelligence artificielle sous différents angles afin d’encourager l’innovation dans le respect de la liberté, de l’égalité et de la transparence.

Ce rapport vise quatre cibles : le grand public, les instances politiques locales, nationales et internationales, l’industrie et les chercheurs du champ de l’intelligence artificielle. Le grand public pour qu’il ait une idée de l’état de l’art et du potentiel de l’intelligence artificielle ; les instances politiques locales, nationales et internationales pour les aider à mieux planifier leurs actions ; l’industrie pour qu’elle puisse identifier les technologies pertinentes, les défis éthiques associés ainsi que les efforts à effectuer (investissements, recrutements), les chercheurs du champ de l’intelligence artificielle pour qu’ils hiérarchisent leurs priorités et prennent en compte les enjeux éthiques et légaux spécifiques.

De façon globale, le Study panel ne voit aucune raison de croire à une menace imminente pour l’humanité. Mieux encore, le panel de chercheurs considère que nombres d’applications qui émergeront d’ici 2030 auront un impact positif7.

Outre un exposé nuancé, des pistes de lectures complémentaires, l’intérêt de ce premier rapport réside dans son ancrage dans le présent et une prospective raisonnable à 15 ans.

Notes :

3 Paul Berg, « Meetings that changed the world: Asilomar 1975: DNA modification secured », Nature, 18 septembre 2008, vol. 455, no 7211, p. 290-291.
5 Stanford, One Hundred Year Study on Artificial Intelligence (AI100)
6 Ibid

7 AI100, Artificial intelligence and life in 2030, op.cit., p. 4.

Une étude sur l’intelligence artificielle sur 100 ans à Stanford