L’IA pourrait égaler les capacités d’apprentissage humaines d’ici 2050

Le président-directeur général de Breyer Capital, Jim Breyer, a parlé à beaucoup d’experts de l’intelligence artificielle, et sa plus grande solution est que l’intelligence artificielle développera les mêmes capacités d’apprentissage que les humains d’ici 2050. Breyer est excité par le bien qui viendra des applications d’intelligence artificielle.

“Lorsque je visite les campus et que je parle aux experts de l’intelligence artificielle, il y a une année médiane de 2050 où ils pensent que la capacité d’auto-apprentissage de l’intelligence artificielle sera singulière et sera au niveau de l’intelligence humaine”, a-t-il expliqué. “Alors, 2050 ? Est-ce que cela se produira ? Beaucoup de gens pensent que ça ne se produira pas. Ce sont des données médianes de certains des meilleurs chercheurs de l’intelligence artificielle dans le monde”.

Beaucoup de gens dans l’industrie de la technologie ont parlé de l’intelligence artificielle et de son potentiel – pour le meilleur et pour le pire. Le chef de la direction de Tesla, Elon Musk, a considéré l’intelligence artificielle comme la plus grande menace pour la civilisation, alors que Stephen Hawking a déclaré qu’elle pourrait avoir un impact négatif sur les emplois de la classe moyenne et conduire potentiellement à la fin de l’humanité, ce qui a entraîné l’élaboration d’un plan pour arrêter l’apocalypse de l’IA.

CNBC

Écologisme et transhumanisme. Des connexions contre nature

Ecologistes, véganes et sympathisants de gauche prolifèrent au sein du mouvement transhumaniste. Après Le Monde, Le Nouvel Obs et Politis, Primevère, le plus grand salon écologiste français, invitait en 2016 un de ses représentants à s’exprimer. Didier Cœurnelle, vice-président de l’Association française transhumaniste, est élu Verts en Belgique. Il aurait eu les mots pour séduire les visiteurs de Primevère, avec une « vie en bonne santé beaucoup plus longue, solidaire, pacifique, heureuse et respectueuse de l’environnement, non pas malgré, mais grâce aux applications de la science (1). » II aura fallu les protestations d’opposants aux nécrotechnologies pour que le salon annule son invitation (2). Les transhumanistes ne luttent pas contre les nuisances. Technophiles et « résilients », ils comptent sur l’ingénierie génétique, la chimie et les nanotechnologies pour adapter la nature humaine et animale à un milieu saccagé.

Faut-il un État mondial inter-espèces pour lutter contre les dominations entre humains et animaux ? Voire entre animaux, avec des prédateurs devenus herbivores après modification génétique ? Même si leurs idées prêtent à rire, les transhumanistes ne sont pas des ahuris victimes d’une indigestion de mauvaise science-fiction. Ils sont écologistes et véganes (c’est-à-dire refusant de consommer les produits issus des animaux), certes. Parfois même bouddhistes. Mais aussi philosophes, généticiens, informaticiens, sociologues ou start-uppers rétribués par Harvard, Oxford, la London School of Economics ou Google. La plupart d’entre eux veulent le bien de la planète et de ses habitants, lutter contre les oppressions, tout en augmentant notre espérance de vie jusqu’à « la mort de la mort ».

Les deux porte-parole du mouvement transhumaniste francophone revendiquent leur militantisme « écolo ». Marc Roux a été adhérent de l’Alternative rouge et verte. Didier Cœurnelle est élu Verts de la commune de Molenbeek. Le cofondateur de Humanity+, la principale association transhumaniste américaine, David Pearce, est un militant antispéciste et végane. L’Australien Peter Singer, philosophe et auteur du livre de référence des antispécistes La Libération animale (1975), est lui-même transhumaniste et ancien candidat Verts en Australie. Quant à l’actuel directeur de Humanity+, James Hughes, en tant que bouddhiste, il ne ferait pas de mal à une mouche. Loin de l’image repoussoir de libertariens insensibles aux malheurs qui les entourent, les transhumanistes sont souvent des progressistes de gauche, écologistes et féministes, suivant la bonne conscience qui règne dans la Silicon Valley depuis le mouvement hippie des années 1960. En France, à l’avant-garde des partisans de la reproduction artificielle de l’humain (PMA-GPA) figurent les membres d’Europe Écologie-Les Verts.

D’après Marc Roux et Didier Cœurnelle, auteurs de Technoprog (3), les transhumanistes seraient majoritairement de gauche, attachés à un système social et à une médecine redistributive, contre l’idée d’une humanité à deux vitesses après sélection génétique. Ils se trouvent même des points communs avec les « objecteurs de croissance » (4). Fort bien. Laissons de côté les ultras, libertariens ou technogaïanistes, et intéressons-nous à ces transhumanistes sociaux-démocrates et soi-disant écolos. Ceux qui introduisent le loup transhumaniste dans la bergerie verte.[…]

L’écologie transhumaniste est pétrie de cette idéologie de la « résilience » – un terme issu de la psychologie synonyme d’adaptation à la dégradation des conditions d’existence –, qui prévaut aujourd’hui jusque dans les Conférences sur le climat. « Aucune idée n’est à écarter a priori si elle peut déboucher sur une meilleure adaptation des corps à leur environnement. […] Il s’agit, dans la tradition du darwinisme social, de permettre la survie du mieux adapté. Crèvent les faibles et les inadaptés. D’où l’appel aux transformations génétiques. Voilà l’imposture.[…]

TomJo, Hors-sol, octobre 2016

Lire la suite : Télécharger le PDF ; Télécharger au format « Livret »

Modifier l’espèce humaine ou l’environnement? Les transhumanistes face à la crise écologique

 

« Réinventer le rêve américain » : Le parti transhumaniste

Publié in Marianne Celka, Matthijs Gardenier, Éric Gondard et Bertrand Vidal (éd.), Utopies, dystopies et uchronies, RUSCA, revue électronique de sciences humaines et sociales, n° 9, 2016/2, p. 16-24.

« Vote for Zoltan if you want to live forever »

Digitaliser le cerveau, télécharger la conscience dans un ordinateur, le cloud computing, naître d’un utérus artificiel, créer des bébés sur mesure, vivre indéfiniment et en bonne santé : science-fiction ? Pas pour Zoltan Istvan, candidat à l’élection présidentielle aux États-Unis.

Zoltan Istvan est transhumaniste, un courant de pensée qui prône l’affranchissement des limites physiques, cognitives et émotionnelles humaines par les technosciences et une prise en main de l’évolution naturelle jugée imparfaite1. En 2014, il a fondé le parti transhumaniste américain. Depuis, il s’est lancé dans la campagne présidentielle. En décembre dernier, après trois mois de voyage à travers les États-Unis à bord du « bus de l’immortalité » (en forme de cercueil), il a déposé symboliquement une Bill of Rights au Capitol, à Washington, revendiquant entre autres, pour les humains mais aussi les intelligences artificielles « sensibles » et les cyborgs, que des recherches soient effectuées afin de favoriser l’extension de la longévité en bonne santé2.

L’objet de ce texte est d’observer un désir d’insuffler, donner du sens, à une perfectivité technoscientifique radicale, un « nulle part3 » en quête de légitimité.

Qui est Zoltan Istvan ?

Zoltan Istvan est né aux États-Unis en 1973 de parents ayant fui la Hongrie et le régime communiste4. Il étudié la philosophie et la religion à Colombia University de New York5. C’est lors d’un cours qu’il découvre la cryonie : c’est une révélation6.

À 21 ans, il embarque sur un bateau avec 500 livres et entreprend un voyage transocéanique de plusieurs années. Devenu reporter, il publie pour The New York Times Syndicate, National Geographic.com, Sunday San Francisco Chronique, etc7. Il sera ensuite recruté par National Geographic Channel. En 1999, il couvre la guerre du Cachemire opposant l’Inde et le Pakistan et réalise Pawns of paradise : inside the brutal Kachmir Conflit, un documentaire qui sera récompensé par plusieurs prix. Athlète de l’extrême, il inaugure une pratique sportive pour le moins originale : la planche sur volcan8.

En 2004, alors qu’il accompagne des « chasseurs de bombes » américains au Vietnam, directement exposé à la mort, il revient avec deux convictions : vivre le plus longtemps possible et pour cela consacrer sa vie à promouvoir le combat contre la mort9.

En 2013, il publie The transhumanist Wager (Le pari transhumaniste), un roman de science-fiction. L’action se situe aux États-Unis dans un futur proche. Alors que des changements technologiques radicaux sont en cours dans l’intelligence artificielle, l’ingénierie génétique, la cryonie, etc., les transhumanistes font l’objet d’attaques de la part de politiciens, de religieux chrétiens, des scientifiques sont assassinés. Dans ce contexte, Jethro Knights, son personnage principal, défend une philosophie radicale qu’il nomme Teleological Egocentric Functionalism, qui consiste à promouvoir l’augmentation et l’immortalité.

Pour Zoltan Istvan, il s’agit d’explorer ce que nous serions prêts à faire pour vivre indéfiniment10. En partie autobiographique : Jethro Knights est étudiant en philosophie, il a traversé les Océans, couvert le conflit du Cachemire, fait de la planche sur les volcans et oeuvre pour le magazine International Geographic. Récusant la posture radicale, violente, de son personnage, Zoltan Istvan évoque la fiction.

Le parti transhumaniste américain

En octobre 2014, il passe à l’action et fonde le parti transhumaniste américain11. Jusqu’alors les éventuels sympathisants, souvent ingénieurs, scientifiques, étaient peu versés dans la politique12. Simultanément il crée, avec l’Anglais Amon Twyman, le Party Transhumanism Global qui vise à favoriser le développement et la coopération entre les différents partis transhumanistes émergeants13.

La naissance de ce parti est une nouvelle étape dans l’histoire du transhumanisme. Si le terme est né sous la plume du biologiste Julian Huxley (frère d’Aldous) en 192714, c’est seulement dans les années 1980 qu’il prend son sens contemporain. Longtemps diffuse, cette constellation s’incarne en 1998 avec le World Transhumanist Association, une organisation créée par les philosophes David Pearce et Nick Boström qui a pour but non seulement de donner corps au transhumanisme, mais aussi du crédit à ses idées afin de générer des recherches académiques15.

L’objectif de Zoltan Istvan est d’unifier politiquement le transhumanisme, lui donner une voix16. Le parti est affilié à un think tank : Zero State/Institute for Social Futurism. L’expression Social Futurism, forgée par Amon Twyman est synonyme de techno-progressisme. Apparenté à la gauche libérale, se présentant comme une alternative aux libertariens, il a pour slogan « positif social change throught technology ». Le Social Futurism, qui associe socialisme et technologie, a pour objectif de faire converger justice sociale et transformation radicale de la société par la technologie17. Dans la nébuleuse transhumaniste, les technoprogressistes tranchent par leur volonté de favoriser des changements devant bénéficier à tous18.

En octobre 2014, Zoltan Istvan s’est ouvertement déclaré candidat à la présidence des États-Unis. À cette fin, il s’est entouré des célébrités anciennes et montantes du transhumanisme. Le « biogérontologue » anglais Aubrey de Grey et la jeune biophysicienne Maria Konovalenko, cofondatrice en Russie du Parti de la longévité, sont ses conseillers anti-âges. Natasha Vita-More, figure mythique du transhumanisme, est sa conseillère transhumanisme, Jose Luis Cordeira, membre de la Singularity University, est son conseiller technique. Gabriel Rothblatt, qui a concouru comme démocrate pour un siège au Congrès en 2014, est son conseiller politique19.

Il évalue ses supporters, regroupant ingénieurs, scientifiques, futuristes et techno-optimistes à 25 00020. Initialement constitué surtout d’hommes blancs, situés académiquement, le mouvement serait en train de se diversifier, avec de jeunes hommes et femmes, d’horizons géographiques, politiques et professionnels divers. Certains seraient LGBT, d’autres handicapées, beaucoup athées21.

L’objectif de la campagne est de toucher ces trois groupes spécifiques : les athées, les LGBT et la communauté handicapée, soit environ 30 millions de personnes aux États-Unis22.

Lucide, il considère ses chances de remporter l’élection proche de 0. Ses ambitions sont toutes autres : faire croître le parti, promouvoir des idées politiques qui unissent les nations dans une vision techno-optimiste, favoriser des désirs illimités23. Avec une population américaine à 75 % chrétienne et alors que 100 % du Congrès est religieux, il estime que son plus grand obstacle est son athéisme24.

En octobre dernier, Amon Twyman apportait une autre limite à l’ambition politique de Zoltan Istvan en réaffirmant la pluralité du transhumanisme. Selon lui, la force du parti réside dans sa diversité. Les idées de Zoltan Istvan, perçues comme libertariennes25 et potentiellement schismatiques, risquent d’affaiblir le transhumanisme. Tout en reconnaissant le bien fondé de son action, Amon Twyman considère qu’un discours centré sur la longévité fait oublier les autres aspects du transhumanisme et se heurte au techno-progressivisme26. Confrontée au réel, l’utopie s’affaiblit.

« Réinventer le rêve américain »

Trois thèmes dominent la campagne : la superintelligence artificielle, le devenir cyborg et le dépassement de la culture mortifère.

Zoltan Istvan défend l’idée que dans 30 ans le président des États-Unis pourrait être une intelligence artificielle27. Considérée comme peu influençable par un lobby, une intelligence artificielle agirait, « de manière altruiste », pour le bien de la société. Mais un dysfonctionnement, une prise de contrôle par une autorité malveillante, un devenir « égocentré » de la machine seraient les faiblesses de cette prospective28. Cette idée fait écho aux préoccupations « académiques » de deux transhumanistes : Eliezer Yudkowsky du Machine Intelligence Research Institute et Nick Boström (Université d’Oxford), directeur de l’Institut for Future of Humanity. Ces derniers sont inquiets des risques anthropiques liés, entre autres, à l’émergence possible d’une superintelligence inamicale29. Zoltan Istvan occulte ce danger en postulant que les transhumanistes n’ont pas pour ambition de laisser les machines agir à leur guise. Proche du discours techno-optimiste libertarien de Ray Kurzweil et Peter Diamandis, dans une vision plutôt adaptative qu’émancipatoire30, la fusion avec la machine, le devenir cyborg, permettra selon lui de réduire le risque31. La faiblesse de l’argumentaire éthico-politique est ici frappante.

Techno-évolutionniste, se positionnant ouvertement au-delà de l’humain, il souhaite améliorer le corps humain par la science et la technologie, faire mieux et plus rapidement que la sélection naturelle. Zoltan Istvan se dit porteur d’une « nouvelle façon de penser », un nouveau territoire pour l’espèce humaine32. Qualifiant d’anti-progrès, d’anti-innovation le moratoire sur l’ingénierie génétique, il souhaite que les recherches se poursuivent dans un cadre éthiquement borné ; l’enjeu : vivre mieux. Il défend l’idée qu’avec cette ingénierie les maladies du cœur, les cancers, les hérédités pathogènes seront éliminées. Dans une approche résolument eugéniste, il serait donné aux parents le choix de leur enfant : couleur des cheveux, taille, genre, aptitudes athlétiques et cognitives. Récusant les critiques, il les estime infondées et fruits de la religion. La crainte de créer une race non-humaine, des êtres monstrueux, est, selon lui, surestimée et habitée par un imaginaire hollywoodien. À cela, il oppose la création d’une population libérée de la maladie. Ici techno-progressiste, il évoque le risque que seuls les riches pourraient se le permettre33. Au-delà du devenir cyborg, c’est la mort qui est visée.

Un des obstacles majeurs à la croissance du transhumanisme résiderait, selon Zoltan Istvan dans la culture mortifère (deathist culture). 85 % de la population mondiale croit à la vie après la mort et au moins 4 milliards d’habitants considèrent le dépassement de celle-ci par la technologie comme un blasphème. Beaucoup de gens souscrivent à une culture qui suit les principes de La Bible : mourir et aller au paradis34. Partant du constat que 150 000 personnes meurent chaque jour, pour la plupart de vieillesse et de maladie, il suggère deux voies « prometteuses » pour réduire cette mortalité : la digitalisation du cerveau et le téléchargement de l’esprit ainsi que l’inversion du processus de vieillissement développé par Aubrey de Grey35. Les millions de dollars investis dans la recherche anti-âge et la longévité grâce notamment par Google et le projet Calico, Human LLC et Insilico, le rendent optimiste. Mieux encore, l’idée de faire une fortune autour de l’immortalité ferait son chemin36. Matérialiste, comme Aubrey de Grey, il perçoit le corps comme une voiture que l’on peut réparer37. Il ne s’agit pas de vivre éternellement mais plutôt de choisir de mourir ou non. C’est une transcendance opératoire, un ici et maintenant, qu’il propose38.

Récemment, Zoltan Istvan a fait scandale en évoquant le contrôle des naissances. Dans la perspective d’une conquête de la mort, il s’interroge : « Devra-t-on encore permettre à n’importe qui d’avoir autant d’enfants qu’il souhaite ? » Il imagine un permis, accordé suite à une série de tests, qui permettrait l’accès à la procréation et la possibilité d’élever des enfants. En seraient exclus les sans domicile fixe, les criminels et les drogués. Mobilisant, tout à tour, l’argument humanitaire – donner une meilleure vie aux enfants –, environmental, démographique, féministe – les enfants qui nuisent à la carrière professionnelle –, il conclut qu’il ne s’agit pas de restreindre la liberté mais de maximiser les ressources pour les enfants présents et à venir39. Ces propos tenus dans la revue libertarienne Wired co.uk, lui ont valu l’ire d’une presse40 qu’il qualifie de « conservatrice ». Il aurait même reçu des menaces de mort41.

Conclusion

Le transhumanisme sort de sa sphère techno-scientifique et philosophique, il s’aventure maintenant sur le terrain politique, éprouve ses forces. Sans surprise, cette irruption dans le réel attise le conflit entre les bioconservateurs et les bioprogressistes. Plus intéressant, cette campagne électorale révèle un obstacle encore largement invisible : la colonisation politique de l’utopie, qui s’incarne dans les tensions entre les libertariens et les technoprogressistes.

Si les résultats de l’élection seront sans surprise pour Zoltan Istvan, le « pari » de faire connaître le transhumanisme à une large audience est d’ores et déjà remporté, quant à l’idée d’unifier les forces potentielles en présence : nous le verrons lors de l’élection.

Cette candidature doit attirer notre attention sur les mutations technologiques radicales en cours, leurs ressorts et motivations. Plus encore, c’est une invitation cruciale à penser les implications politiques et sociales et la nécessité d’anticiper les arbitrages et risques associés.

Notes :

1 MORE M. & VITA-MORE N., The transhumanist reader, Hoboken, John Wiley & Sons, 2013 ; BOSTROM, N., « A history of transhumanist Though », Journal of Evolution & Technology, 14, 1, 2005.
2 ISTVAN Z., « Immortality Bus delivers Transhumanist Bill of Rights to US Capitol », IBT, 21 décembre 2015.
3 RICOEUR P., L’idéologie et l’utopie, Paris, Seuil, 1997, p. 37.
4 LESNES C., « Zoltan Istvan, le candidat de la vie éternelle », Le Monde, 14 septembre 2015.
5 RAJ A., « The transhumanist who would be president », Reform, 6 mars 2014.
6 NUSCHKE M., « Fireside Chat with Zoltan Istvan – Author of ‘The Transhumanist Wager’ », Retirement singularity, 4 mai 2014.
7 Site de Zoltan Istvan.
8 ISTVAN Z., « EXTREME SPORTS / Really Good Pumice, Dude! / Volcano boarding: Russian roulette on a snowboard », Sfgate, 8 décembre, 2002.
9 ISTVAN Z., « Forget Donald Trump. Meet Zoltan Istvan, the only presidential candidate promising eternal life », Vox, 8 septembre 2015.
10 Idem.
12 RAJ A., « The transhumanist who would be president », Op. Cit.
14 HUXLEY J., Religion without revelation, Santa Barbara, Greenwood Press, 1979 (1927).
15 BOSTROM, N., « A history of transhumanist Though », Op. Cit.
16 ISTVAN Z., « An interview with Zoltan Istvan, founder of the transhumanist party and 2016 U.S. presidential candidate », Litost Publishing Collective, 23 novembre 2014.
17 Institute for social futurism, Op. Cit.
18 TREDER M., « Technoprogressives and transhumanists : What’s the difference ? », IEET, 25 juin 2009.
19 ISTVAN Z., « Why I’m running for president as the transhumanist candidat », GIZMODO, 5 juillet 2015.
20 Idem.
21 ISTVAN Z., « A new generation of transhumanists is emerging », Huffpost, 3 octobre 2014.
22 ISTVAN Z., « Why I’m running for president as the transhumanist candidat », Op. Cit.
23 Idem.
24 Idem.
25 BENEDIKTER R et al., « Zoltan Istvan’s ‘Teleological Egocentric Functionalism’: A approach to viable politics ? », Op. Cit.
26 TWYMAN A., « Zoltan Istvan does not speak for the Transhumanist Party », Transhumanity.net, 12 octobre 2015.
27 HENDRICKON J., « Can this man and his massive robot network save America », Esquire predicts, 19 mai 2005.
28 Idem.
29 Cf. Superintelligence, Paths, Dangers, Strategies de Nick Bostrom (oup, 2014).
30 DEVELEC LE N., « De l’humanisme au post-humanisme : mutations de la perfectibilité humaine », Revue MAUSS, 21 décembre 2008.
31 ISTVAN Z., « The morality of artificial intelligence and the three laws of transhumanism », Huffpost, 2 février 2014.
32 ISTVAN Z., « The culture of transhumanism is about self-improvement », Huffpost, 4 septembre 2015.
33 ISTVAN Z., « Transhumanist party scientists frown on talk of engineering moratorium », Huffpost, 5 avril 2015.
34 ISTVAN Z., « Why I’m running for president as the transhumanist candidat », Op. Cit.
35 ISTVAN Z., « Transhumanism is booming and big business is noticing », Huffpost, 17 juillet 2015.
36 Idem.
37 GREY A. de avec RAE M., Ending Aging. The Rejuvenation Breakthrought That could Reverse Human Aging in Our Lifetime, NY, St Martin Griffin, 2007, p. 326.
38 ISTVAN Z., « Can transhumanism overcome a widespread deathist Culture ? », Huffpost, 26 mai 2015.
39 ISTVAN Z., « It’s time to consider restricting human breeding », Wired. co.uk, 14 août 2014.
40 McCLAREY D., « Hitler : “Born Before this time” », The American Catholic, 21 août 2014 ; SMITH WESLEY J., « Tranhumanism’s Eugenics Authoritarianism », Evolution. News.net, 15 août 2014.
41 ISTVAN Z., « Death, threats, freedom, Transhumanism, and the future », Huffpost, 25 août 2014.

Catastrophe globale et transhumanisme

Les transhumanistes ne sont pas tous techno-optimistes

« Only a singleton could control evolution1 »

Nick Bostrom

En 2008, le philosophe transhumaniste Nick Bostrom (université d’Oxford) publiait un article au titre singulier : « Où sont-ils ? Pourquoi j’espère que la quête de la vie extraterrestre ne donnera rien2. » Tandis que la sonde spatiale américaine Phoenix poursuivait ses investigations sur Mars, il développait l’idée que si nous trouvions une trace de vie intelligente, ce serait un mauvais présage pour l’humanité.

Inspiré du paradoxe du physicien Enrico Fermi, son raisonnement procède de la sorte : alors que nous sondons l’univers depuis plus de 60 ans (notamment dans le cadre du projet SETI – Search for extraterrestrial intelligence)3, que la Voie lactée recèle plus de 200 milliards d’étoiles et l’univers observable entre 100 et 200 milliards de galaxies, pourquoi n’avons-nous pas trouvé de traces tangibles de vie extraterrestre ? En d’autres termes, alors que la probabilité de la vie semble si grande, pourquoi aucune intelligence extraterrestre n’a encore entrepris l’exploration de l’univers ? Comment expliquer ce paradoxe ? Reprenant le concept de l’économiste américain Robin Hanson4, Nick Bostrom s’interroge : existe-t-il « un grand filtre »5, un obstacle, un goulot d’étranglement, une étape critique, au saut évolutionniste nécessaire à l’expansion de la vie et l’essaimage d’une l’intelligence dans l’univers, la civilisation galactique ? Partant de là, il distingue deux possibilités. Soit le « grand filtre » se situe dans notre passé et nous l’avons franchi : au seuil de notre expansion dans l’univers, il est vrai encore timide, cela revient à dire que la vie est rare, peut-être unique, et qu’elle nécessite d’improbables coïncidences pour émerger, sinon d’autres intelligences seraient venues nous rendre visite. La vie étant peu répandue et l’univers immense, on peut aussi imaginer qu’elle a pu émerger loin de nous, dans ce cas les deux intelligences resteront peut-être pour toujours étrangères l’une à l’autre. Dans l’autre hypothèse, le « grand filtre » se situe devant nous, dans le futur, cela signifierait qu’il y a dans le développement technologique de la civilisation un stade critique, qui expliquerait que quelque chose a empêché l’essaimage de l’intelligence. Dans ce cas c’est le risque anthropique, lié à l’homme lui-même, qu’il faut redouter.

Ces considérations liminaires mettent en relief le primat de l’intelligence et le risque anthropique existentiel, qui pourrait nuire à l’étape prochaine de l’évolution désirée par certains transhumanistes, un mouvement philosophique, scientifique et politique, qui s’est cristallisé notamment en Californie dans les années 1960 et qui a pour ambition de prendre en main l’évolution humaine, jugée imparfaite, par la technologie.

Souvent présentés comme techno-fétichistes, il s’agit ici d’explorer un aspect moins connu des transhumanistes : les liens qui unissent certains d’entre eux à l’idée de catastrophe globale6 et comprendre les ressorts de cette inquiétude. Après quelques éléments biographiques sur Nick Bostrom et une définition du risque anthropique existentiel, nous développeront l’exemple de l’« explosion de l’intelligence ».

Nick Bostrom

Niklas Bostrom est né en Suède. Mû par une curiosité intellectuelle intense, adolescent, il décide de faire sa propre éducation7. Au début des années 1990, il réussi le tour de force d’être diplômé de l’université de Göteborg en philosophie, en logique mathématique et en intelligence artificielle. Il poursuit ensuite sa formation à Stockholm où il étudie la philosophie et les mathématiques puis au King’s College de Londres où il s’initie à l’astrophysique et aux neurosciences8.

Acteur transhumaniste historique, il fonde, en 1998, avec le philosophe anglais David Pearce, le World Transhumanist Association (maintenant Humanity +), une institution qui a pour ambition de donner corps au transhumanisme mais aussi lui donner du crédit afin de stimuler des recherches académiques9. La même année, il participe à la rédaction de La déclaration transhumaniste ainsi qu’à la création du Journal of Transhumanism (devenu Journal of Evolution & Technology).

Son doctorat de philosophie obtenu à la London School of Economics porte sur le paradoxe de l’Apocalypse (Doomsday argument), un raisonnement probabiliste sur le risque d’extinction de l’humanité inspiré par l’astrophysicien Brandon Carter que, selon Nick Bostrom, l’on sous-estime trop souvent, notamment dans sa dimension anthropique10. En 2005, il donne naissance, au sein d’Oxford Martin School11, au laboratoire Future of Humanity Institute (FHI)12. Son objectif : générer des outils pluridisciplinaires pour appréhender les risques technologiques émergents mais aussi les opportunités civilisationnelles associées afin de clarifier les choix qui façonnent le futur de l’humanité sur le long terme, en tirer le meilleur profit. En 2014, son livre, Superintelligence, paths, dangers, strategies, a eu un grand retentissement13. En écho à cette publication, qui alimente l’inquiétude autour de l’intelligence artificielle, Elon Musk (Tesla Motors, PayPal, SpaceX, SolarCity) a doté le FHI d’une somme d’un million de dollars14. Récemment on a pu voir Nick Bostrom témoigner sur le risque existentiel à l’ONU au côté du cosmologiste Max Tegmark (MIT)15 fondateur du Future of Life Institute16.

Le risque existentiel

Nick Bostrom définit le risque existentiel comme un risque qui menace prématurément l’extinction de l’intelligence née sur Terre avant qu’elle ne puisse atteindre sa maturité, l’expression de sa plénitude17.

Depuis 500 millions d’années, 15 extinctions de masse auraient eu lieu dont 5 ont failli faire disparaître la vie sur Terre. Une en particulier, au Permien-Trias, il y a 250 millions d’années, aurait éliminé 90 % des espèces18. Dans un passé plus récent, la chute d’un astéroïde comme celui du Yucatán (Mexique), il y a 65 millions d’années, mais aussi l’impact du supervolcan Toba (Indonésie) sont à l’origine d’extinctions massives, directement et indirectement par l’absence de luminosité et le refroidissement induit.

Cependant, si l’humanité a survécu aux risques naturels depuis des centaines de milliers d’années, Nick Bostrom est moins optimiste quant aux menaces nouvelles introduites par celle-ci, depuis peu : c’est le risque existentiel anthropique19. Outre le réchauffement climatique global, l’usage de l’arme nucléaire, d’autres risques sont mis en avant comme une pandémie anthropogène liée au bioterrorisme, l’altération du climat par la géo-ingénierie et l’avènement d’une superintelligence artificielle hostile.

Nick Bostrom fait aussi état du risque nanotechnologique, pas seulement le très fantasmé gray goo20, une écophagie environnementale liée à la perte de contrôle d’un assembleur moléculaire popularisée par Eric Drexler (FHI)21, mais aussi l’usage d’armes nanométriques22. Il ajoute quelque chose d’imprévisible23. Focalisons-nous sur le risque inhérent à l’émergence de la superintelligence artificielle.

« 10 scénarios pour la fin de l’homme (avec Nick Bostrom) :

Partie 2

L’ « explosion de l’intelligence »

Le statisticien Irving John Good (1916-2009) serait le premier à l’avoir exposée officiellement en 1965 :

« Supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. […] cette machine pourrait à son tour créer des machines meilleures qu’elle-même ; cela aurait sans nul doute pour effet une réaction en chaîne du développement de l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en résulte que la machine ultra-intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir. Il est curieux que ce point soit si rarement abordé en dehors de la science-fiction. Il faudrait parfois prendre la science-fiction au sérieux24. »

Cette ultra-intelligence devient singularité technologique sous la plume du mathématicien et auteur de science fiction Vernor Vinge en 1993.

« Within thirty years, we will have the technological means to create superhuman intelligence. Shortly after, the human era will be ended25. »

En 2008, Robin Hanson (FHI) et Eliezer Yudkowsky (Machine Intelligence Research Institute) ont débattu à ce propos, l’un considérant que le « décollage » (takeoff) sera lent, qu’il prendra des années, des décennies et l’autre, au contraire, fulgurant26. Nick Bostrom pense aussi que le décollage sera explosif27.

L’ « explosion de l’intelligence » peut être résumée de cette manière : lorsque la machine aura atteint le stade de l’intelligence humaine, elle pourrait se reprogrammer, puis à nouveau se reprogrammer à partir de cette nouvelle programmation et ainsi de suite jusqu’à produire une évolution exponentielle.

Les techno-optimistes de la Silicon Valley comme Peter Diamandis et Ray Kurzweil utilisent ce concept de singularité technologique pour illustrer l’émergence de la superintelligence28. Nous serions au seuil d’une « accélération technologique », objectivement impensable, qui passé un point d’inflexion deviendra explosive et profondément transformatrice. Cette singularité technologie échappe à nos catégories de pensée car nous pensons de façon linéaire, alors que l’évolution technologique se fait de manière exponentielle. Peter Diamandis utilise cette métaphore : si 30 pas linéaires (1, 2, 3, etc.) amènent approximativement à 30 mètres, 30 pas exponentiels (1, 2, 4, 8, 16, etc.) nous feraient parcourir 26 fois le tour de la planète29. Dans le cadre de cette accélération, Ray Kurzweil prophétise l’émergence de la super-intelligence autoréplicante pour 204530. Nous sommes dans un compte à rebours quasi messianique, espéré auto-réalisateur, comme l’a été la loi de Moore31. C’est le retour en grâce du fantasme de l’intelligence artificielle « forte » stimulé par le l’augmentation des capacités de stockage de l’information et des puissances de calcul.

Pour Nick Bostrom, parmi les leviers devant conduire à une augmentation cognitive, si la digitalisation du cerveau (whole brain emulation) semble la voie la plus prometteuse, la méthode la plus rapide à mettre en œuvre serait le couplage avec la superintelligence artificielle32. Seulement, cette méthode qui conditionne un devenir hybride, cyborg, comporte un risque existentiel ; nous sommes revenus au « grand filtre ».

Nick Bostrom considère que l’évolution ne sera pas toujours nécessairement avantageuse pour l’humanité33. Contrairement aux libertariens de la Silicon Valley, il n’est pas techno-optimiste, il redoute les risques existentiels qui pourraient nuire à l’humanité toute entière.

Plus précisément, ces risques menacent de façon prématurée l’extinction, selon lui, non pas de l’humanité au sens de l’Homo sapiens, une incarnation transitoire, mais de l’ « intelligence d’origine terrestre » et sa « maturité technologique », c’est-à-dire le maximum de ses potentialités : le posthumain et ses promesses comme la colonisation de l’espace, etc34.

Selon Nick Bostrom, nous sous-estimons le risque anthropique existentiel et notamment celui inhérent à la superintelligence artificielle.

Comment se prémunir contre cette catastrophe ? Une manière d’éviter le désastre consisterait à prendre en main l’évolution de l’humanité, aussi suggère-t-il de développer ce qu’il appelle un singleton (en mathématiques, un ensemble formé d’un seul élément), un ordre mondial présidé par une entité indépendante qui nous permettrait d’éviter les risques existentiels35. Ce singleton pourrait être un gouvernement mondial démocratique, une dictature  ou… une superintelligence, une sorte de gouvernement pastoral machinique36.

Finalement, la création d’un singleton, quelque soit sa nature, pourrait anticiper et ainsi réduire certains risques. Il pourrait aussi en faire advenir d’autres comme un régime oppressif global et permanent37.

Notes

1 Nick Bostrom, « The future of human evolution », in Charles Tanguy (ed), Death and anti-death: two hundred years after Kant, fifty years after Turing, Palo Alto, rup, 2004, 2009, [version en ligne], p. 16.

2 Nick Bostrom, « Where are they. Why I hope the search for extraterrestrial Life Finds Nothing », MIT Technology review, mai/juin, 2008, p. 72-77.

3 SETI Institute Home.

4 Robin Hanson, « The great filter – Are we almost in the past ? », 15 septembre 1998.

5 Ce concept est utilisé en exobiologie (ou astrobiologie). Lire Aditya Chopra et Charles H. Lineweaver, « The case for a Gaian bottleneck. The biology of habitability », Astrobiology, vol. 16, no 1, 2016.

6 Le rapport de la fondation Global challenges définit la catastrophe globale comme un événement qui tuerait au moins 10 % de l’humanité, soit actuellement 750 millions de personnes. Lire Global Challenges Foundation/Global Priorities Project (Future of Humanity Institute), Global Catastrophic Risks, 2016, p. 6.

7 Raffi Khatchadourian, « The doomsday invention. Will artificial intelligence bring us utopia or destruction ? », The New Yorker, no 23, novembre 2015.

8 Curriculum vitae de Nick Bostrom.

9 Nick Bostrom, « A history of transhumanist thought », Journal of Evolution & Technology, vol. 14, no 1, avril 2005, p. 15.

10 Cet argument est discuté par John A. Leslie dans The end of the world. The science and ethics of human extinction, London, Routeldge, 1996

11 Fondé en 2005 par James Martin, un spécialiste des technologies de l’information, Oxford Martin School, est un centre de recherche pluridisciplinaire qui porte sur les enjeux  globaux pour le XXIe siècle.

13 Nick Bostrom, Superintelligence, paths, dangers, strategies, Oxford, OUP, 2014.

14 Ideas into action, 10 years of groundbreaking research, Oxford Martin School/University of Oxford, 2015, p. 9.

15 Prof. Max Tegmark and Nick Bostrom speak to the UN about the threat of AI.

17 Nick Bostrom, « Existential risk prevention as global priority », Global Policy, vol. 4, no 1, 2013, p. 15.

18 Nick Bostrom et Milan M. Ćirković, « Introduction », Global Catastrophic Risks, Oxford, OUP, 2008, p. 8.

19 Nick Bostrom, « The future of humanity », in Jan-Kyrre Berg Olsen, Evan Selinger et Soren Riis (eds),  New Wages in philosophy of technology, NY, Palgrave McMilla, 2009 [version en ligne], p. 10-11.

20 Nick Bostrom, Existential risks: Analyzing human, extinction scenarios and related hazards, Journal of Evolution and Technology, vol. 9, mars 2009, p. 8.

21 Eric K. Drexler, Engins de création : l’avènement des nanotechnologies, Paris, Vuilbert, 2005 [Engines and creation. The coming era of nanotechnology, 1986].

22 Nick Bostrom, « The future of humanity », op. cit., p. 10-11.

23 Nick Bostrom, Existential risks : Analyzing human, extinction scenarios and related hazards, op.cit., p. 8.

24 Irving J. Good, « Speculations concerning the first ultraintelligent machine », in F. Alt et M. Ruminoff (eds.), Advances in computers, vol. 6, 1965, p. 33.

25 Venor Vinge, « The coming technological singularity: How to survive in the post-human era », Vision-21, Interdisciplinary science and engineering in the era of cyberspace. Proceedings of a symposium cosponsored by the NASA Lewis Research Center and the Ohio Aerospace Institute and held in Westlake, Ohio March 30-31, 1993, p. 11.

26 Robin Hanson et Eliezer Yudkowsky, The Hanson-Yudkowsky AI foom debate, Berkeley, CA, Machine Intelligence Research Institute, 2013.

27 Nick Bostrom, Superintelligence, paths, dangers, strategies, op. cit., p. 64-65.

28 Voir Ray Kurzweil, The singularity is near. When humans transcend biology, London, Penguin Books, 2005.

29 Peter Diamandis et Steven Kotler, Bold. How to go big, create wealth and impact the world, NY, Simon and Schuster Books, 2014, p. 16.

30 Peter Diamandis, « Ray Kurzweil’s mind-boggling predictions for the next 25 years », Singularity Hub, 20 janvier 2015.

31 Walter Isaacson, Les innovateurs. Comment un groupe de génies, hackers et geeks a fait la révolution numérique, Paris, JC Lattès, 2015, p. 247.

32 Nick Bostrom, Superintelligence, paths, dangers, strategies, op. cit.

33 Nick Bostrom, « The future of human evolution », op. cit., p. 1-2.

34 Nick Bostrom, « Existential risk prevention as global priority », op. cit., p. 15-31.

35 Nick Bostrom, « The future of human evolution », op. cit., p. 16-18.

36 Nick Bostrom, « What is a Singleton », Linguistic and Philosophical Investigations, vol. 5, no 2, 2006, p. 48-54.

37 Nick Bostrom, « The future of human evolution », op. cit. p. 18.

Nous sommes à l’aube d’une révolution de l’édition de gènes, sommes-nous prêts ?

Il y a un certain type de techno-optimiste, qui aime parler de « la singularité » – une époque où la technologie progresse si rapidement que la vie est transformée au-delà de la reconnaissance. La force motrice de ce cas hypothétique est l’intelligence artificielle, mais la biotech joue aussi un rôle clé.

Les observateurs de la singularité lorgnent, sans aucun doute, la révolution de l’édition de gènes en cours avec allégresse. Les progrès sont vertigineux, surtout sur la technique appelée CRISPR.

Il y a tous justes deux ans, CRISPR était un outil de recherche mystérieux attisant l’excitation dans les laboratoires de génétique, car il permettait aux gènes d’être édités avec précision et facilité. Son potentiel médical était clair, mais assez éloigné : comme nous l’indiquions dans le temps, « dans les années à venir, il est susceptible d’être utilisé en thérapie génique ».

On voulait sans doute dire obligatoire, évasif de cinq à 10 ans, mais CRISPR est déjà utilisé pour des essais humains et de nouveaux progrès rapides semble inévitable (voir “CRISPR pourrait sauver la vue en modifiant l’ADN“). Même les scientifiques de biotechnologie parlent d’être incapables de suivre.

CRISPR a un grand potentiel ; plus tôt, nous mettons ce potentiel à l’épreuve, mieux c’est.

Mais il y a des dangers à venir – la science dépasse le consentement du public. Deux équipes en Chine ont déjà essayé de concevoir des embryons humains. Cela semble inutilement hâtif étant donné les questions éthiques (1, 2) que cela soulève.

Ceux qui travaillent sur CRISPR ont le devoir de tenir compte non seulement de la science, mais aussi comment il sera reçu. Pour l’instant, CRISPR c’est a peine inscrit dans le débat public.

Un panel international d’experts travaille sur un examen « approfondi » de l’édition de gènes et de ses implications plus larges. Leur rapport – prévu pour fin 2016 – sera approfondi et scientifique. Mais il faut aussi envisager la possibilité d’une réaction d’un public pris par surprise par le rythme des progrès et pas d’humeur à écouter l’expertise et les faits.

Comme n’importe quel singularitarien vous dira, lorsque les technologies progressent très rapidement, ils peuvent acquérir une dynamique que personne ne peut prédire ou contrôler.

New Scientist