La Brain tech, eldorado économique et défi éthique

Perspectives et enjeux

Selon le World Economic Forum, les 7,5 milliards de cerveaux humains que nous sommes auront besoin d’aide pour prospérer dans la quatrième révolution industrielle qui nous est annoncée.

L’internet des objets, l’intelligence artificielle et la robotisation croissante sont les sujets de nombreux débats argumentés. Leurs impacts, réels ou fantasmés, à court et moyen terme, sont l’objet de nombreux débats techniques, business et philosophiques. Les points de vue se succèdent dans les médias sur l’impact de l’intelligence artificielle sur notre vision du travail, notre stratégie politique et militaire, nos organisations, notre relation au monde et à l’autre.

Au milieu de ces discussions, un point nous interpelle : quel est le sort réservé à l’Intelligence dite « naturelle » (humaine essentiellement) par l’industrie de la Cognitive Tech ou Neuro Tech? Sujet d’autant plus essentiel et d’actualité dans un contexte où le QI moyen aurait baissé significativement ces dernières années en France et en Occident, où les maladies neurodégénératives progressent, au premier rang desquelles se hissent Alzheimer et Parkinson, et où les populations des pays du Nord vieillissent de plus en plus rapidement.

En outre, nombreux, dont Elon Musk, voient un lien fort entre développement de l’intelligence artificielle et l’intelligence humaine. Ils sont déjà entrain de travailler sur des projets d’amélioration des capacités humaines afin de faire face à la croissance exponentielle des capacités de l’IA et de ses menaces présupposées.

L’amélioration du cerveau humain, selon le World Economic Forum, ne serait plus, à terme, un luxe réservé à certains mais une condition d’existence sine qua none. De nombreuses questions sont posées : que pouvons-nous faire pour renforcer la connectivité cérébrale à tout âge, améliorer notre capacité à résoudre des problèmes complexes, la pensée novatrice, l’intelligence émotionnelle…? Autant de compétences considérées comme indispensables pour réussir dans la quatrième révolution industrielle.

Ainsi, cette note de synthèse souhaite apporter un éclairage sur l’industrie de la cognitive tech ou neuro tech puis en présente ses principaux enjeux et défis. Un sujet clé pour notre avenir qui s’avère aussi déterminant et sensible quant à notre conception de l’humain que l’ingénierie du génome.

Des avancées technologiques synonymes d’une explosion des recherches en neurosciences

Observer, mesurer, analyser et pouvoir influencer notre fonctionnement neuronal

Le terme de neurotechnologie peut être défini de différentes manières. Nous nous inspirerons particulièrement de la définition de l’université de Freibourg :

D’une manière générale, la neurotechnologie peut être considérée comme un moyen artificiel d’interagir avec le fonctionnement du cerveau. Cette version inclut l’ajustement pharmacologique de l’activité du cerveau, par exemple les médicaments traitant la maladie de Parkinson ou la démence sénile, ou qui visent à augmenter les performances cognitives.

Dans une définition plus technique, nous pouvons considérer la neurotechnologie comme :

(I) des outils techniques et informatiques qui mesurent et analysent les signaux chimiques et électriques dans le système nerveux, que ce soit le cerveau ou les nerfs des membres. Ceux-ci peuvent être utilisés pour identifier les propriétés de l’activité nerveuse, comprendre comment le cerveau fonctionne, diagnostiquer les conditions pathologiques, ou contrôler les dispositifs externes comme les neuroprothèses, ou les «interfaces machine cerveau» voire les interfaces « cerveaux – cerveaux »

(II) des outils techniques pour interagir avec le système nerveux pour modifier son activité, par exemple pour restaurer l’apport sensoriel comme avec les implants cochléaires pour restaurer l’ouïe ou la stimulation cérébrale profonde pour arrêter les tremblements et traiter d’autres conditions pathologiques.

La recherche en neurotechnologie dans ce contexte comprend toutes les recherches qui contribuent à ces systèmes, y compris, par exemple la résolution des problèmes d’encapsulation de circuits électroniques, de simulations de réseaux neuronaux et de réseaux biologiques de culture pour comprendre leurs propriétés et le développement de techniques d’implant chirurgical.

Sujet particulièrement sensible, l’interaction avec le cerveau exige un haut niveau de responsabilité éthique envers le patient, mais aussi envers la société en raison de son influence sur notre concept de l’être humain en tant que tel. Par conséquent, la neurotechnologie inclut le discours sur l’éthique de la neurotechnologie.

Les neurotechs restent pour le moment principalement l’apanage de la recherche fondamentale. Pour autant, des applications émergent dans des marchés très variés initiées par des gouvernements et des entreprises privées, porteuses de visions très ambitieuses … voire pour certaines dignes d’Icare?

Le développement du business de la Neurotech et les avancées technologiques (nanotech et informatique) ont permis une explosion de la recherche dans ce domaine.

Entrepreneurs et investissements alimentent une croissance effrénée

Avec des investissements publics et privés, l’innovation évolue à un rythme accéléré, en témoigne l’explosion du nombre de brevets déposés dans le domaine des neuro tech depuis 2010 aux États Unis (source Sharpbrain).

Des domaines d’application variés sont concernés : l’interface cerveau – machine, l’augmentation des capacités intellectuelles, la gestion de l’humeur, la manipulation des objets par la pensée, la lutte contre les neurodégénérescences, les maladies d’Alzheimer ou de Parkinson, Brain fitness …

Des initiatives gouvernementales

Sujet d’importance stratégique pour les États, de nombreuses initiatives gouvernementales ou inter gouvernementales ont été lancées ces dernières années avec des logiques fortes de Partenariat Privé Public.

Les scientifiques commencent à travailler sur l’ingénierie inverse du cerveau

On peut noter l’initiative américaine menée par la DARPA Brain initiative :

If we want to make the best products, we also have to invest in the best ideas… Every dollar we invested to map the human genome returned $140 to our economy… Today, our scientists are mapping the human brain to unlock the answers to Alzheimer’s… Now is not the time to gut these job-creating investments in science and innovation. Now is the time to reach a level of research and development not seen since the height of the Space Race.” – President Barack Obama, 2013 State of the Union.

Un nouveau développement permet d’implanter des implants cérébraux de niveau supérieur

On peut également mentionner l’initiative menée au niveau européen « the human brain project » même si contestée par de nombreux scientifiques.

A côté de la recherche fondamentale, de nombreuses applications commerciales sont actuellement testées voire commercialisées.

Utiliser le pouvoir de l’esprit

Fait qui pourrait en surprendre plus d’un, il est déjà possible de manipuler à distance des objets par le pouvoir de la pensée.

Lors d’une expérimentation, une personne quadriplégique a su piloter sur simulateur un F35 uniquement par la pensée. Associée à la robotique, cette application pourrait notamment améliorer la vie des personnes en situation de mobilité fortement réduite.

Cela est possible par la lecture, la retranscription de codes neuraux (directement associés à des actions) et leur « téléchargement » ensuite dans le cerveau d’une autre personne, lui permettant ainsi de reproduire ces mêmes actions par la pensée.

Certaines solutions sont déjà commercialisées à destination du grand public. La startup australienne Emotiv, une des plus en vue sur le sujet, dirigée par Tan Lee, commercialise des « brain wearables ».

Révolutions à venir dans les réseaux sociaux avec à la clé une expérience client « magnifiée »

Croyez le ou non, Mark Zuckerberg a des convictions fortes sur la télépathie et pense qu’un jour nous serons en mesure d’échanger via télépathie sur Facebook.

Facebook travaille sur une interface cérébrale qui vous permettra de « communiquer uniquement avec votre esprit »

Bien entendu, une telle révolution prendra probablement plusieurs dizaines d’années ; mais les recherches actuelles semblent suggérer que cela serait de l’ordre de l’envisageable.

Avant d’arriver à ce stade, où des questions éthiques et de préservation de la vie privée et intime ne manqueront pas de se poser, Facebook cherche à améliorer l’expérience client en la simplifiant au maximum.

Ainsi est né le projet « typing by brain » à la R&D de Facebook. Ce projet consiste à développer une solution non invasive (i.e sans implants cérébraux) qui permettrait de détecter ce que l’utilisateur voudrait écrire. Cette solution permettrait de traduire des pensées en texte à raison de 100 mots par minute! De nombreux neuroscientifiques restent très sceptiques car aujourd’hui avec des solutions invasives, le record de mots est porté à 8 mots à la minute.

Une autre entreprise, Openwater, dirigée par une ancienne haute responsable de Facebook, ambitionne de proposer des solutions d’échanges télépathiques dans un horizon de 3 ans.

Et si vous pouviez « voir » directement dans le cerveau d’une autre personne ?

Plus globalement, la neurotechnologie, associée à la révolution Data au sens large, peut être amenée à radicalement impacter les pratiques du marketing et de la communication grâce à une connaissance réellement plus intime du client.

Améliorer les capacités humaines : cognitives, cérébrales et physiques

Elon Musk est intervenu à de multiples occasions pour alerter sur les risques de développement à terme d’une intelligence artificielle générale qui ne nous voudrait pas que du bien…

En mars dernier, le CEO de Tesla et de SpaceX entre autres a révélé sa nouvelle entreprise Neuralink, dont le but avoué est de construire un système BCI (brain computer interface) qui serait implanté dans le cerveau humain afin de lui permettre de rivaliser avec l’IA. Musk imagine une solution sans opération lourde mais plutôt une solution inoculée par voie sanguine.

Elon Musk lance une entreprise pour fusionner votre cerveau avec un ordinateur

Bien qu’il n’ait pas dévoilé d’informations sur les principes techniques de la solution envisagée, les neuroscientifiques supposent que la solution reposerait sur de la recherche de pointe actuelle impliquant de minuscules électrodes de “neural dust” qui se déploient dans le cerveau.

A moyen terme, la solution de Neuralink viserait à aider les personnes souffrant de handicaps cérébraux puis à long terme elle deviendrait une solution grand public.

Dans cette même logique, Kernel, société fondée par Bryan Johnson (Braintree revendue à Ebay) souhaitait initialement commercialiser un implant cérébral pour aider les personnes souffrant de pertes mémorielles importantes (Alzheimer notamment). A noter toutefois que depuis son lancement, Kernel a fait évoluer sa vision pour se concentrer sur l’enregistrement des signaux générés par les neurones.

D’autres entreprises pionnières dans leur domaines cherchent à exploiter le principe de neuroplasticité afin d’apporter un “mieux être” cognitif et améliorer les capacités d’apprentissage. On parle de Brain fitness via l’évaluation des capacités cognitives et la mise en place de thérapies (BrainHQ, CogniFit, Akili, Pear Therapeutics, MyndYou, Click Therapeutics, Cogniciti, SBT Group) via diverses applications mobiles (Headspace, Claritas Mindsciences) ou autres solutions de type électroencéphalographie (Emotiv, Interaxon, NeuroSky) ou réalité virtuelle (MindMaze).

Shelli Kesler de l’université de Stanford a publié un article qui montrait l’impact significatif de Lumosity, une application Brainfitness : 12 semaines d’utilisation avaient significativement amélioré les fonctions cognitives et cérébrales d’un groupe d’utilisatrices.

Ainsi, de nombreuses startups promettent des solutions pour nous aider à monitorer notre “neuro-santé” et améliorer nos capacités cognitives, qui s’appuient sur l’analyse des données et une personnalisation extrême.

Enfin, il nous semble aussi intéressant d’évoquer le développement des nootropiques : des médicaments, plantes et substances diverses permettant une augmentation cognitive et qui ne présenteraient pas ou relativement peu d’effets nocifs sur la santé à dose standard. Il est fort à parier qu’un marché colossal est à conquérir quand on voit l’importance de la consommation de produits psychoactifs sur les lieux de travail (source : Le Monde.fr).

Vers une révolution du sport et une amélioration sans précédent des performances sportives

Le multiple champion de football américain Tom Brady, considéré comme l’un des plus grands athlètes de l’histoire du football américain voire du sport, a présenté son “brain resiliency programme” un des éléments qui lui a permis d’être au plus haut dans la maitrise de son sport et pendant longtemps. Ce programme contient un volet entier dédié à l’utilisation de la neurotech.

La firme américaine HaloNeuro commercialise déjà des casques plébiscités par les sportifs de haut niveau qui leur permettent d’améliorer leurs performances obtenues en entrainement. En améliorant la transmission du signal cerveau muscle, l’apprentissage et les performances des sportifs sont améliorés.

Ainsi, le sport voit lui aussi dans son ensemble ses repères bousculés par les neurosciences et la brain tech. Une autre revanche des « nerds » en quelque sorte…

Plus encore, voire plus inquiétant, au-delà de la lecture du cerveau

L’optogénétique correspond à un nouveau domaine de recherche et d’application, associant l’optique à la génétique. Cette technique est notamment utilisée pour identifier des réseaux neuronaux.
L’optogénétique est principalement basée sur une protéine, la channelrhodospine, qui possède la propriété d’être activée par la lumière bleue. Des cellules neuronales exprimant cette protéine, peuvent alors elles-mêmes être activées par de la lumière bleue, apportée par une fibre optique. (Futura-Sciences)

Des chercheurs explorent les possibilités d’aller au-delà de la lecture du cerveau pour envisager de passer en « mode écriture » afin de pouvoir en quelque sorte contrôler la pensée et implanter de nouveaux souvenirs.

Le Pr. Yuste, du Kavli Institute for brain science, a utilisé une des plus récentes avancées technologiques, l’optogénétique, pour reprogrammer le cerveau de souris pour leur faire croire avoir vu quelque chose qu’elles n’avaient jamais vu. L’optogénétique altère les neurones via un procédé mêlant à la fois optique (utilisation d’une lumière bleue) et génétique (utilisation d’une protéine).

Selon le Pr. Yuste, Imaginons qu’une telle découverte technologique pénètre le marché des produits technologiques ou du bien-être sous la forme d’un accélérateur de performance cognitive ou de mémorisation, cela ouvrirait la porte aux possibilités d’implanter des souvenirs aux personnes à leur insu et pourraient ainsi remodeler leur identité propre! La question n’étant pas de savoir si cela est possible mais de savoir quand et dans quel cadre cela sera possible compte tenu des avancées technologiques observées à l’heure actuelle…

Comme on peut le constater, la brain tech est un domaine en plein boom et porteurs d’évolutions lourdes de conséquences sur nos vies.

Certains experts et chercheurs tempèrent néanmoins ces éléments en arguant du fait que même avec les milliards potentiellement investis notamment par la Silicon Valley, il s’agit avant tout de recherche fondamentale et non de sciences appliquées répliquables plus rapidement en business model. De nombreuses questions clés resteraient encore ouvertes avant d’envisager des applications commerciales.

Cela fait également dire à ces mêmes experts que la présence de grands noms, de fonds importants ne serait pas sans risque de créer une bulle d’illusions voire de désillusions ultérieures si les promesses sont trop hautes et non tenues.

En dépit de ces réserves, devons-nous nous inquiéter ou en tout cas de nous interroger sur l’ambition des géants technologiques qui veulent entrer dans nos têtes ? Après avoir réussi à conquérir une grande part du temps disponible du cerveau des individus, veulent-ils réussir tout simplement à encore mieux mesurer et plus fortement influencer nos décisions?

Des impacts et des défis éthiques auxquels nous semblons ne pas être suffisamment préparés

Face à cette grappe d’innovations aux impacts sans précédent, inquiétudes et controverses se développent.

Des organisations internationales se sont explicitement emparées de la question. Le World Economic Forum a créé à cette fin le Global Council on the Future of Human Enhancement qui a pour but d’évaluer les nouvelles technologies et de s’assurer qu’elles sont acceptables d’un point de vue éthique.

Des experts de renom dans les neurosciences se sont mobilisés afin de sensibiliser l’opinion publique et les décideurs sur la nécessité de définition d’un cadre protecteur pour nos vies.

27 experts de renommée internationale arguent du fait que ces puissantes neurotechnologies, à l’origine conçue pour aider les personnes handicapées (moteurs ou cognitifs), pourrait exacerber les inégalités sociales et offrir à certaines entreprises, hackers ou gouvernement mal intentionnés de nouvelles voies pour exploiter les gens.

Ce groupe des 27, le groupe Morningside, conclut que les questions relatives aux neurotechnologies sont aussi voire plus cruciales que les questions relatives à l’utilisation de l’IA.

Ainsi le groupe Morningside a rédigé les neuro-droits des citoyens et estime qu’ils devraient figurer dans les textes réglementaires et les chartes internationales comme la déclaration universelle des droits de l’homme.

Parmi les droits à protéger car potentiellement menacés par une brain tech non éthique : la vie privée, l’identité, l’intégrité des personnes et l’équité entre elles.

La vie privée

Chaque individu devrait avoir le droit de garder privé le type de données collectées et exploitées par les neurotech.

Afin de s’en assurer, le groupe Morningside recommande les principes suivants :

  • Passer en mode opt out par défaut la possibilité de partager ses neuro données. Le traitement de ces données serait inspiré des principes du don d’organes. Chaque individu devrait explicitement donner son accord pour le partage de ses neuro-données. Cela impliquerait la mise en œuvre de processus sécurisés intégrant de manière transparente chaque partie prenante avec des rôles clairement délimités dans l’exploitation des données, avec mention des objectifs visés ainsi que de la durée d’utilisation de ces données.

  • Le partage, le transfert et la vente des neuro-données devraient être également strictement régulés à l’instar de qui existe pour les dons d’organes.

  • Enfin l’utilisation de technologies désignées pour être plus protectrices du point de vue de l’individu doit être incitée. En particulier, les systèmes distribués type Blockchain, smart contracts, car permettant une meilleure traçabilité et auditabilité des systèmes sans nécessité d’un tiers de confiance centralisateur de l’information.

L’intelligence artificielle pourrait détourner les interfaces cerveau-machine

Augmentation, identité et inégalités

Les individus pourraient connaître une pression croissante pour utiliser les neurotech dés lors que les premiers le font et disposent alors de capacités plus importantes. Cette pression à adopter les neurotech risque de changer les normes sociales et soulever des problèmes d’inégalité flagrants et de nouvelles formes de discrimination. Plus encore, lorsqu’il s’agit de course à l’utilisation des neurotech à des fins militaires. Déjà, l’armée américaine forment leurs soldats d’élite et leurs analystes et les équipent avec ces « nouvelles technologies » afin d’augmenter leurs capacités cognitives et physiques.

Une neuro-ingénierie responsable

De manière sous-jacente dans l’ensemble des recommandations des 27, il s’agit avant tout d’un appel à la prise de conscience et de responsabilités qui s’adjoignent à l’énorme potentiel des neurotech en prenant en compte les aspects sociaux et éthiques de ces innovations, à l’instar de ce qui est fait par l’IEEE Standards association concernant l’IA et les systèmes autonomes.

Une gouvernance proactive et éviter le neuro-hype

La société dans son ensemble et l’industrie de la Brain tech pourrait profiter d’un cadre de discussions anticipées et inclusive sur les enjeux éthiques, légaux et les implications sociétales de la mise sur le marché de ces nouvelles technologies. Par exemple, l’impact des devices neuromodulaires qui viseraient à améliorer nos capacités cognitives y compris notre moral, les impacts sur la dignité humaine ou l’accès équitable à ces solutions, pourraient être considérés de manière anticipée dans le processus de recherche et de développement.

Dans ce domaine comme dans tout nouveau domaine technologique disruptif, la désinformation et les publicités mensongères peuvent être légions. Le risque de défiance du public peut être alors important empêchant ainsi la formation de marchés vertueux et le développement de solutions et de produits viables économiquement.

Les régulateurs doivent en ce sens intervenir afin de favoriser l’émergence d’un écosystème sain viable et durable.

Ce panorama de la Brain tech, de ses perspectives et de ses enjeux, ne doit pas nous faire oublier que ces neurotechnologies sont encore loin d’être pleinement intégrées dans les usages et la vie quotidienne de chacun. Néanmoins, les progrès technologiques actuels de la neurotech et l’engouement des grands groupes indiquent que nous y arriverons peut-être plus rapidement que prévu.

L’opportunité actuelle d’améliorer la vie des personnes à mobilité fortement réduite ou des personnes atteintes de dysfonctionnements neuraux ou neuronaux doit être évidemment poursuivie et accélérée.

En faisant cela, nous nous rapprochons d’un avenir où il sera possible de manipuler facilement les mécanismes du cerveau, de décrypter les intentions, les émotions et les décisions. D’un avenir où les individus pourront interagir sur le monde qui les entoure par la pensée via des devices et des machines.

Il nous semble finalement que deux questions majeures doivent être traitées : l’une du point de vue de l’individu dont on doit protéger l’intégrité et l’identité et l’autre du point de vue de la collectivité à laquelle on doit assurer l’équité d’accès et minimiser les risques de discrimination majeure rendus possible par cette technologie si laissée entre les mains de privilégiés uniquement.

Sans être foncièrement néo-luddite, ne serait-il pas, à l’instar du moratoire qui avait été demandé s’agissant de CRISPR Cas 9, pertinent d’envisager un moratoire sur ces technologies une fois arrivées à un stade d’application suffisamment avancé ?

sources : IEEE Spectrum: Silicon Valley’s Latest Craze: Brain Tech. Elon Musk, Mark Zuckerberg, and other big Silicon Valley players want to make commercial gadgets for your brain.
Stat News: New brain technologies pose threats to privacy and autonomy that are all too real, experts warn.
DARPA and the Brain Initiative.
The World Economic Forum: Five reasons the future of brain enhancement is digital, pervasive and (hopefully) bright
The World Economic Forum: 5 ways brain science is changing our world.
The Conversation: Considering ethics now before radically new brain technologies get away from us. Andrew Maynard Director, Risk Innovation Lab, Arizona State University.
LSE Business Review: How to ensure future brain technologies will help and not harm society
Nature 551, 159–163 (09 November 2017) doi:10.1038/551159a Four ethical priorities for neurotechnologies and AI

Le posthumain comme dessein (2nd partie)

Contre-argumentation

Face à l’éventualité du posthumain, ceux qualifiés de « bioconservateurs », opposent généralement la dégradation de l’humain, sa « déshumanisation » et l’affaiblissement, voire la disparition de la dignité humaine. Alors que le médecin et biochimiste américain Leon Kass met en avant son profond respect pour ce que la nature nous a donné1, Nick Boström lui réplique que certains dons de la nature sont empoisonnés, et que l’on ne devrait plus les accepter : cancer, paludisme, démence, vieillissement, famine, etc. Les spécificités même de notre espèce, comme notre vulnérabilité à la maladie, le racisme, le viol, la torture, le meurtre, le génocide sont aussi inacceptables2. Nick Boström réfute l’idée que l’on puisse encore relier la nature avec le désirable ou le normativement acceptable. Il a une formule :

« Had Mother Nature been a real parent, she would have been in jail for child abuse and murder3. »

Plutôt que de se référer à un ordre naturel, il préconise une réforme de notre nature en accord avec les valeurs humaines et nos aspirations personnelles4.

Nick Boström dénonce l’instrumentalisation qui est faite du roman dystopique d’Adlous Huxley Le meilleur des mondes (1932). Selon lui, si dans le monde dépeint par Huxley, les personnages sont déshumanisés et ont perdu leur dignité, ce ne sera pas le cas des posthumains. Le meilleur des mondes n’est pas, selon lui, un monde où les êtres sont augmentés, mais une tragédie, dans laquelle l’ingénierie technologique et sociale a été utilisée délibérément afin de réduire leurs potentialités, les affecter moralement et intellectuellement5. L’ouvrage d’Huxley décrit un eugénisme d’État dans lequel sont dissociées fécondation et sexualité mais aussi procréation et gestation corporelle. Tout commence par une mise en relation artificielle des gamètes mâles et femelles, puis une « bokanovskification », qui permet de faire bourgonner l’embryon pour produire au maximum 96 jumeaux identiques, et enfin une gestation extra-corporelle complète dans une couveuse, une sorte d’utérus artificiel6. Les « individus » « prédestinés » par une anoxie plus ou moins brève qui altère chez certains leur capacités physiques et cognitives sont ensuite ventilés en castes (alpha, bêta, gamma, epsilon, etc.).

« Plus la caste est basse […] moins on donne d’oxygène. Le premier organe affecté, c’est le cerveau. Ensuite le squelette7. »

À leur naissance, les enfants sont ensuite exposés à un conditionnement de type pavlovien qui oriente leur sensibilité – aux livres et aux fleurs par exemple.

En contrepoint, Nick Boström revendique la liberté morphologique et reproductive contre toute forme de contrôle gouvernemental8. Selon lui, il est moralement inacceptable d’imposer un standard : les gens doivent avoir la liberté de choisir le type d’augmentation qu’ils souhaitent9.

Le philosophe américain Francis Fukuyama considère qu’avec l’augmentation, une menace pèse sur la dignité humaine. L’égalité des chances, encore toute relative, fut l’histoire d’un long combat, l’augmentation ruinera cette conquête inscrite notamment dans la constitution des États-Unis10. En réponse, Nick Boström inscrit le posthumain dans une perspective historique d’émancipation progressive en considérant que de la même manière que les sociétés occidentales ont étendu la dignité aux hommes sans propriété et non nobles puis aux femmes et enfin aux personnes qui ne sont pas blanches, il faudrait selon lui étendre le cercle moral aux posthumains, aux grands primates et aux chimères homme-animal qui pourraient être créés11. La dignité est ici entendue au sens d’un droit inaliénable à être traité avec respect ; la qualité d’être honorable, digne12.

Nick Boström estime que nous devons travailler à une structure sociale ouverte inclusive, une reconnaissance morale et en droit pour ceux qui en ont besoin, qu’il soit homme ou femme, noir ou blanc, de chair ou de silicone13. Si l’on considère que la dignité peut comporter plusieurs degrés, non seulement le posthumain pourrait en avoir une, mais plus encore atteindre un niveau de moralité supérieur au nôtre14.

Valeurs transhumanistes Explorer le royaume posthumain

Pour le philosophe allemand Hans Jonas, l’eugénisme libéral individuel, qui consiste à choisir les traits de son enfant, est une tyrannie parentale qui de manière déterministe conditionne la dignité à venir de l’enfant et aliène ses choix de vie. Le choix de maintenant conditionne le futur. À ce déterminisme, Nick Boström rétorque que l’individu dont les parents auront choisi quelques gènes ou la totalité n’aura pas moins de choix dans la vie. Il réplique qu’entre avoir été sélectionné génétiquement et faire des choix dans sa vie il y a un monde et de manière générale être plus intelligent, en bonne santé, avoir une grande gamme de talents ouvrent plus de portes qu’il n’en ferme15. Ironiquement, il affirme que le posthumain aura les moyens technologiques de décider d’être moins intelligent16.

Soucieux, semble-t-il, de justice sociale, il imagine que certaines augmentations jugées bonnes pour les enfants pourraient être prise en charge par l’État comme cela existe déjà pour l’éducation, surtout si les parents ne peuvent pas se le permettre. Comme nous avons une scolarisation obligatoire, une couverture médicale pour les enfants, une augmentation pourrait être obligatoire, éventuellement contre l’avis même des parents17 .

L’ « explosion de l’intelligence »

Parmi les différentes voies devant conduire à une augmentation cognitive, une « explosion de l’intelligence », Nick Boström en évalue au moins deux comme prometteuses : l’augmentation cognitive par la sélection génétique et la digitalisation du cerveau et le téléchargement de l’esprit. L’augmentation cognitive par la sélection génétique accélérée est une méthode directe pour accéder au posthumain. Voici sa recette : choisir dans un premier temps des embryons dont le potentiel est souhaitable par un détournement du diagnostique préimplantatoire, extraire des cellules souches de ces embryons et les convertir en gamètes mâles et femelles jusqu’à maturation (six semaines) croiser le sperme et l’ovule pour donner un nouvel embryon, réitérer à l’infini puis implanter dans l’utérus (artificiel) et laisser incuber pendant neuf mois18.

Une autre voie consisterait à « plagier » la nature en digitalisant le cerveau. Dans un premier temps, il s’agirait de scanner finement post-mortem un cerveau biologique, stabilisé par vitrification, afin d’en modéliser la structure neuronale. Pour ce faire, il faudrait au préalable découper ce cerveau en fines lamelles. Les données extraites, issues du scan, alimenteraient ensuite un ordinateur, qui reconstruirait le réseau neuronal en trois dimensions, qui permet la cognition. In fine, la structure neurocomputationnelle serait implémentée dans un ordinateur puissant qui reproduirait l’intellect biologique. Avec cette méthode, il n’est pas nécessaire de comprendre l’activité neuronale, ni de savoir programmer l’intelligence artificielle19.

Vers une spéciation ?

Allons-nous vers une divergence si souvent décrite par la science fiction, une spéciation ? Une espèce se définit soit par la ressemblance morphologique soit, de manière génétique, par l’interfécondité. Il existe deux types de spéciation : l’anagénèse, une humanité unique deviendrait une posthumanité unique, ou la cladogénèse qui entraînerait une divergence. Deux moteurs favorisent la spéciation dans la biologie évolutionniste. Le premier est la dérive génétique, c’est-à-dire la transmission aléatoire de caractères qui apparaissent par mutation dans une population, sans fonction adaptive spécifique. Le second, est la sélection naturelle des caractères aléatoires en fonction de leur potentiel adaptatif à un environnement en changement. Dans notre cas, la sélection se ferait artificiellement, l’humanité prenant en charge sa propre évolution20.

Alors que la sélection naturelle se fait au hasard, au filtre de l’adaptation sur la très longue durée, avec le techno-évolutionisme l’évolution se ferait à un rythme rapide, pour des raisons fonctionnelles. L’idée que l’augmentation puisse mener à une spéciation par cladogénèse, relève, selon Nick Boström, d’un scénario de science-fiction :

« The assumption that inheritable genetic modifications or other human enhancement technologies would lead to two distinct and separate species should also be questioned. It seems much more likely that there would be a continuum of differently modified or enhanced individuals, which would overlap with the continuum of as-yet unenhanced humans21. »

De même, il évalue comme peu plausible l’idée qu’un jour le posthumain considérant l’homme « normal », comme inférieur, puisse le réduire en esclavage, voire l’exterminer22.

« The scenario in which ‘the enhanced’ form a pact and then attack ‘the naturals’ makes for exciting science fiction but is not necessarily the most plausible outcome23. »

Le devenir humain met au défi notre imaginaire. Nick Boström y voit l’espérance d’une émancipation biologique devant nous conduire à une extase permanente.

Néanmoins, cette désinhibition souffre d’une contradiction majeure : elle sous-tend des ruptures anthropologiques, qui par différents biais, et notamment le conformisme, s’imposeraient à tous.

1ère partie

Le posthumain comme dessein

Notes :

1 Nick Boström, « In defense of posthuman dignity », Bioethics, vol. 19, no 3, 2005, 2007, p. 5
2 Idem.
3 Ibid., p. 12
4 Idem.
5 Ibid., p. 6.
6 Aldous Huxley [1932], Le meilleur des mondes, Paris, Presses Pocket, 1977, voir chap 1, p. 21 à 36.
7 Ibid., p. 33.
8 Nick Boström, « In defense of posthuman dignity », op. cit., p. 6.
9 Ibid.
10 Francis Fukuyama, « The world’s most dangerous idea: transhumanism », Foreign Policy, 2004.
11 Nick Boström, « In defense of posthuman dignity », op. cit., p. 10.
12 Ibid., p. 9.
13 Idem.
14 Ibid., p. 11
15 Ibid., p. 12.
16 Idem.
17 Nick Boström, « Human genetic enhancements: a transhumanist perspective », op. cit.
18 Nick Boström, Superintelligence. Paths, dangers, strategies, Oxford, OUP, 2014, p. 38.
19 Ibid., p. 30.
20 Elaine Després et Hélène Machinal (dir.), Posthumains : frontières, évolutions, hybridités, Rennes, PUR, 2014, p. 2.
21 Nick Boström, « In defense of posthuman dignity », op. cit., p. 8.
22 Idem.
23 Idem.

« Réinventer le rêve américain » : Le parti transhumaniste

Publié in Marianne Celka, Matthijs Gardenier, Éric Gondard et Bertrand Vidal (éd.), Utopies, dystopies et uchronies, RUSCA, revue électronique de sciences humaines et sociales, n° 9, 2016/2, p. 16-24.

« Vote for Zoltan if you want to live forever »

Digitaliser le cerveau, télécharger la conscience dans un ordinateur, le cloud computing, naître d’un utérus artificiel, créer des bébés sur mesure, vivre indéfiniment et en bonne santé : science-fiction ? Pas pour Zoltan Istvan, candidat à l’élection présidentielle aux États-Unis.

Zoltan Istvan est transhumaniste, un courant de pensée qui prône l’affranchissement des limites physiques, cognitives et émotionnelles humaines par les technosciences et une prise en main de l’évolution naturelle jugée imparfaite1. En 2014, il a fondé le parti transhumaniste américain. Depuis, il s’est lancé dans la campagne présidentielle. En décembre dernier, après trois mois de voyage à travers les États-Unis à bord du « bus de l’immortalité » (en forme de cercueil), il a déposé symboliquement une Bill of Rights au Capitol, à Washington, revendiquant entre autres, pour les humains mais aussi les intelligences artificielles « sensibles » et les cyborgs, que des recherches soient effectuées afin de favoriser l’extension de la longévité en bonne santé2.

L’objet de ce texte est d’observer un désir d’insuffler, donner du sens, à une perfectivité technoscientifique radicale, un « nulle part3 » en quête de légitimité.

Qui est Zoltan Istvan ?

Zoltan Istvan est né aux États-Unis en 1973 de parents ayant fui la Hongrie et le régime communiste4. Il étudié la philosophie et la religion à Colombia University de New York5. C’est lors d’un cours qu’il découvre la cryonie : c’est une révélation6.

À 21 ans, il embarque sur un bateau avec 500 livres et entreprend un voyage transocéanique de plusieurs années. Devenu reporter, il publie pour The New York Times Syndicate, National Geographic.com, Sunday San Francisco Chronique, etc7. Il sera ensuite recruté par National Geographic Channel. En 1999, il couvre la guerre du Cachemire opposant l’Inde et le Pakistan et réalise Pawns of paradise : inside the brutal Kachmir Conflit, un documentaire qui sera récompensé par plusieurs prix. Athlète de l’extrême, il inaugure une pratique sportive pour le moins originale : la planche sur volcan8.

En 2004, alors qu’il accompagne des « chasseurs de bombes » américains au Vietnam, directement exposé à la mort, il revient avec deux convictions : vivre le plus longtemps possible et pour cela consacrer sa vie à promouvoir le combat contre la mort9.

En 2013, il publie The transhumanist Wager (Le pari transhumaniste), un roman de science-fiction. L’action se situe aux États-Unis dans un futur proche. Alors que des changements technologiques radicaux sont en cours dans l’intelligence artificielle, l’ingénierie génétique, la cryonie, etc., les transhumanistes font l’objet d’attaques de la part de politiciens, de religieux chrétiens, des scientifiques sont assassinés. Dans ce contexte, Jethro Knights, son personnage principal, défend une philosophie radicale qu’il nomme Teleological Egocentric Functionalism, qui consiste à promouvoir l’augmentation et l’immortalité.

Pour Zoltan Istvan, il s’agit d’explorer ce que nous serions prêts à faire pour vivre indéfiniment10. En partie autobiographique : Jethro Knights est étudiant en philosophie, il a traversé les Océans, couvert le conflit du Cachemire, fait de la planche sur les volcans et oeuvre pour le magazine International Geographic. Récusant la posture radicale, violente, de son personnage, Zoltan Istvan évoque la fiction.

Le parti transhumaniste américain

En octobre 2014, il passe à l’action et fonde le parti transhumaniste américain11. Jusqu’alors les éventuels sympathisants, souvent ingénieurs, scientifiques, étaient peu versés dans la politique12. Simultanément il crée, avec l’Anglais Amon Twyman, le Party Transhumanism Global qui vise à favoriser le développement et la coopération entre les différents partis transhumanistes émergeants13.

La naissance de ce parti est une nouvelle étape dans l’histoire du transhumanisme. Si le terme est né sous la plume du biologiste Julian Huxley (frère d’Aldous) en 192714, c’est seulement dans les années 1980 qu’il prend son sens contemporain. Longtemps diffuse, cette constellation s’incarne en 1998 avec le World Transhumanist Association, une organisation créée par les philosophes David Pearce et Nick Boström qui a pour but non seulement de donner corps au transhumanisme, mais aussi du crédit à ses idées afin de générer des recherches académiques15.

L’objectif de Zoltan Istvan est d’unifier politiquement le transhumanisme, lui donner une voix16. Le parti est affilié à un think tank : Zero State/Institute for Social Futurism. L’expression Social Futurism, forgée par Amon Twyman est synonyme de techno-progressisme. Apparenté à la gauche libérale, se présentant comme une alternative aux libertariens, il a pour slogan « positif social change throught technology ». Le Social Futurism, qui associe socialisme et technologie, a pour objectif de faire converger justice sociale et transformation radicale de la société par la technologie17. Dans la nébuleuse transhumaniste, les technoprogressistes tranchent par leur volonté de favoriser des changements devant bénéficier à tous18.

En octobre 2014, Zoltan Istvan s’est ouvertement déclaré candidat à la présidence des États-Unis. À cette fin, il s’est entouré des célébrités anciennes et montantes du transhumanisme. Le « biogérontologue » anglais Aubrey de Grey et la jeune biophysicienne Maria Konovalenko, cofondatrice en Russie du Parti de la longévité, sont ses conseillers anti-âges. Natasha Vita-More, figure mythique du transhumanisme, est sa conseillère transhumanisme, Jose Luis Cordeira, membre de la Singularity University, est son conseiller technique. Gabriel Rothblatt, qui a concouru comme démocrate pour un siège au Congrès en 2014, est son conseiller politique19.

Il évalue ses supporters, regroupant ingénieurs, scientifiques, futuristes et techno-optimistes à 25 00020. Initialement constitué surtout d’hommes blancs, situés académiquement, le mouvement serait en train de se diversifier, avec de jeunes hommes et femmes, d’horizons géographiques, politiques et professionnels divers. Certains seraient LGBT, d’autres handicapées, beaucoup athées21.

L’objectif de la campagne est de toucher ces trois groupes spécifiques : les athées, les LGBT et la communauté handicapée, soit environ 30 millions de personnes aux États-Unis22.

Lucide, il considère ses chances de remporter l’élection proche de 0. Ses ambitions sont toutes autres : faire croître le parti, promouvoir des idées politiques qui unissent les nations dans une vision techno-optimiste, favoriser des désirs illimités23. Avec une population américaine à 75 % chrétienne et alors que 100 % du Congrès est religieux, il estime que son plus grand obstacle est son athéisme24.

En octobre dernier, Amon Twyman apportait une autre limite à l’ambition politique de Zoltan Istvan en réaffirmant la pluralité du transhumanisme. Selon lui, la force du parti réside dans sa diversité. Les idées de Zoltan Istvan, perçues comme libertariennes25 et potentiellement schismatiques, risquent d’affaiblir le transhumanisme. Tout en reconnaissant le bien fondé de son action, Amon Twyman considère qu’un discours centré sur la longévité fait oublier les autres aspects du transhumanisme et se heurte au techno-progressivisme26. Confrontée au réel, l’utopie s’affaiblit.

« Réinventer le rêve américain »

Trois thèmes dominent la campagne : la superintelligence artificielle, le devenir cyborg et le dépassement de la culture mortifère.

Zoltan Istvan défend l’idée que dans 30 ans le président des États-Unis pourrait être une intelligence artificielle27. Considérée comme peu influençable par un lobby, une intelligence artificielle agirait, « de manière altruiste », pour le bien de la société. Mais un dysfonctionnement, une prise de contrôle par une autorité malveillante, un devenir « égocentré » de la machine seraient les faiblesses de cette prospective28. Cette idée fait écho aux préoccupations « académiques » de deux transhumanistes : Eliezer Yudkowsky du Machine Intelligence Research Institute et Nick Boström (Université d’Oxford), directeur de l’Institut for Future of Humanity. Ces derniers sont inquiets des risques anthropiques liés, entre autres, à l’émergence possible d’une superintelligence inamicale29. Zoltan Istvan occulte ce danger en postulant que les transhumanistes n’ont pas pour ambition de laisser les machines agir à leur guise. Proche du discours techno-optimiste libertarien de Ray Kurzweil et Peter Diamandis, dans une vision plutôt adaptative qu’émancipatoire30, la fusion avec la machine, le devenir cyborg, permettra selon lui de réduire le risque31. La faiblesse de l’argumentaire éthico-politique est ici frappante.

Techno-évolutionniste, se positionnant ouvertement au-delà de l’humain, il souhaite améliorer le corps humain par la science et la technologie, faire mieux et plus rapidement que la sélection naturelle. Zoltan Istvan se dit porteur d’une « nouvelle façon de penser », un nouveau territoire pour l’espèce humaine32. Qualifiant d’anti-progrès, d’anti-innovation le moratoire sur l’ingénierie génétique, il souhaite que les recherches se poursuivent dans un cadre éthiquement borné ; l’enjeu : vivre mieux. Il défend l’idée qu’avec cette ingénierie les maladies du cœur, les cancers, les hérédités pathogènes seront éliminées. Dans une approche résolument eugéniste, il serait donné aux parents le choix de leur enfant : couleur des cheveux, taille, genre, aptitudes athlétiques et cognitives. Récusant les critiques, il les estime infondées et fruits de la religion. La crainte de créer une race non-humaine, des êtres monstrueux, est, selon lui, surestimée et habitée par un imaginaire hollywoodien. À cela, il oppose la création d’une population libérée de la maladie. Ici techno-progressiste, il évoque le risque que seuls les riches pourraient se le permettre33. Au-delà du devenir cyborg, c’est la mort qui est visée.

Un des obstacles majeurs à la croissance du transhumanisme résiderait, selon Zoltan Istvan dans la culture mortifère (deathist culture). 85 % de la population mondiale croit à la vie après la mort et au moins 4 milliards d’habitants considèrent le dépassement de celle-ci par la technologie comme un blasphème. Beaucoup de gens souscrivent à une culture qui suit les principes de La Bible : mourir et aller au paradis34. Partant du constat que 150 000 personnes meurent chaque jour, pour la plupart de vieillesse et de maladie, il suggère deux voies « prometteuses » pour réduire cette mortalité : la digitalisation du cerveau et le téléchargement de l’esprit ainsi que l’inversion du processus de vieillissement développé par Aubrey de Grey35. Les millions de dollars investis dans la recherche anti-âge et la longévité grâce notamment par Google et le projet Calico, Human LLC et Insilico, le rendent optimiste. Mieux encore, l’idée de faire une fortune autour de l’immortalité ferait son chemin36. Matérialiste, comme Aubrey de Grey, il perçoit le corps comme une voiture que l’on peut réparer37. Il ne s’agit pas de vivre éternellement mais plutôt de choisir de mourir ou non. C’est une transcendance opératoire, un ici et maintenant, qu’il propose38.

Récemment, Zoltan Istvan a fait scandale en évoquant le contrôle des naissances. Dans la perspective d’une conquête de la mort, il s’interroge : « Devra-t-on encore permettre à n’importe qui d’avoir autant d’enfants qu’il souhaite ? » Il imagine un permis, accordé suite à une série de tests, qui permettrait l’accès à la procréation et la possibilité d’élever des enfants. En seraient exclus les sans domicile fixe, les criminels et les drogués. Mobilisant, tout à tour, l’argument humanitaire – donner une meilleure vie aux enfants –, environmental, démographique, féministe – les enfants qui nuisent à la carrière professionnelle –, il conclut qu’il ne s’agit pas de restreindre la liberté mais de maximiser les ressources pour les enfants présents et à venir39. Ces propos tenus dans la revue libertarienne Wired co.uk, lui ont valu l’ire d’une presse40 qu’il qualifie de « conservatrice ». Il aurait même reçu des menaces de mort41.

Conclusion

Le transhumanisme sort de sa sphère techno-scientifique et philosophique, il s’aventure maintenant sur le terrain politique, éprouve ses forces. Sans surprise, cette irruption dans le réel attise le conflit entre les bioconservateurs et les bioprogressistes. Plus intéressant, cette campagne électorale révèle un obstacle encore largement invisible : la colonisation politique de l’utopie, qui s’incarne dans les tensions entre les libertariens et les technoprogressistes.

Si les résultats de l’élection seront sans surprise pour Zoltan Istvan, le « pari » de faire connaître le transhumanisme à une large audience est d’ores et déjà remporté, quant à l’idée d’unifier les forces potentielles en présence : nous le verrons lors de l’élection.

Cette candidature doit attirer notre attention sur les mutations technologiques radicales en cours, leurs ressorts et motivations. Plus encore, c’est une invitation cruciale à penser les implications politiques et sociales et la nécessité d’anticiper les arbitrages et risques associés.

Notes :

1 MORE M. & VITA-MORE N., The transhumanist reader, Hoboken, John Wiley & Sons, 2013 ; BOSTROM, N., « A history of transhumanist Though », Journal of Evolution & Technology, 14, 1, 2005.
2 ISTVAN Z., « Immortality Bus delivers Transhumanist Bill of Rights to US Capitol », IBT, 21 décembre 2015.
3 RICOEUR P., L’idéologie et l’utopie, Paris, Seuil, 1997, p. 37.
4 LESNES C., « Zoltan Istvan, le candidat de la vie éternelle », Le Monde, 14 septembre 2015.
5 RAJ A., « The transhumanist who would be president », Reform, 6 mars 2014.
6 NUSCHKE M., « Fireside Chat with Zoltan Istvan – Author of ‘The Transhumanist Wager’ », Retirement singularity, 4 mai 2014.
7 Site de Zoltan Istvan.
8 ISTVAN Z., « EXTREME SPORTS / Really Good Pumice, Dude! / Volcano boarding: Russian roulette on a snowboard », Sfgate, 8 décembre, 2002.
9 ISTVAN Z., « Forget Donald Trump. Meet Zoltan Istvan, the only presidential candidate promising eternal life », Vox, 8 septembre 2015.
10 Idem.
12 RAJ A., « The transhumanist who would be president », Op. Cit.
14 HUXLEY J., Religion without revelation, Santa Barbara, Greenwood Press, 1979 (1927).
15 BOSTROM, N., « A history of transhumanist Though », Op. Cit.
16 ISTVAN Z., « An interview with Zoltan Istvan, founder of the transhumanist party and 2016 U.S. presidential candidate », Litost Publishing Collective, 23 novembre 2014.
17 Institute for social futurism, Op. Cit.
18 TREDER M., « Technoprogressives and transhumanists : What’s the difference ? », IEET, 25 juin 2009.
19 ISTVAN Z., « Why I’m running for president as the transhumanist candidat », GIZMODO, 5 juillet 2015.
20 Idem.
21 ISTVAN Z., « A new generation of transhumanists is emerging », Huffpost, 3 octobre 2014.
22 ISTVAN Z., « Why I’m running for president as the transhumanist candidat », Op. Cit.
23 Idem.
24 Idem.
25 BENEDIKTER R et al., « Zoltan Istvan’s ‘Teleological Egocentric Functionalism’: A approach to viable politics ? », Op. Cit.
26 TWYMAN A., « Zoltan Istvan does not speak for the Transhumanist Party », Transhumanity.net, 12 octobre 2015.
27 HENDRICKON J., « Can this man and his massive robot network save America », Esquire predicts, 19 mai 2005.
28 Idem.
29 Cf. Superintelligence, Paths, Dangers, Strategies de Nick Bostrom (oup, 2014).
30 DEVELEC LE N., « De l’humanisme au post-humanisme : mutations de la perfectibilité humaine », Revue MAUSS, 21 décembre 2008.
31 ISTVAN Z., « The morality of artificial intelligence and the three laws of transhumanism », Huffpost, 2 février 2014.
32 ISTVAN Z., « The culture of transhumanism is about self-improvement », Huffpost, 4 septembre 2015.
33 ISTVAN Z., « Transhumanist party scientists frown on talk of engineering moratorium », Huffpost, 5 avril 2015.
34 ISTVAN Z., « Why I’m running for president as the transhumanist candidat », Op. Cit.
35 ISTVAN Z., « Transhumanism is booming and big business is noticing », Huffpost, 17 juillet 2015.
36 Idem.
37 GREY A. de avec RAE M., Ending Aging. The Rejuvenation Breakthrought That could Reverse Human Aging in Our Lifetime, NY, St Martin Griffin, 2007, p. 326.
38 ISTVAN Z., « Can transhumanism overcome a widespread deathist Culture ? », Huffpost, 26 mai 2015.
39 ISTVAN Z., « It’s time to consider restricting human breeding », Wired. co.uk, 14 août 2014.
40 McCLAREY D., « Hitler : “Born Before this time” », The American Catholic, 21 août 2014 ; SMITH WESLEY J., « Tranhumanism’s Eugenics Authoritarianism », Evolution. News.net, 15 août 2014.
41 ISTVAN Z., « Death, threats, freedom, Transhumanism, and the future », Huffpost, 25 août 2014.

Les spécialistes sont-ils inquiets du risque existentiel associé à l’intelligence artificielle ?

« Many of the points made in this book are probably wrong […]. I don’t know which ones1. »

Nick Boström

Les spécialistes sont-ils vraiment inquiets du risque existentiel associé à l’intelligence artificielle2 ? C’est la question que pose Oren Etzioni dans le MIT Technology Review3, en écho à des articles récents sur le philosophe transhumaniste Nick Boström (université d’Oxford) qui a publié Superintelligence, paths, dangers, strategies en 20144.

Las du discours associant IA et menace5, Oren Etzioni a décidé de réaliser son propre sondage auprès des membres de l’American association for artificial intelligence (AAAI). Ses résultats apparaissent, a priori, beaucoup moins tranchés que ceux exposés par Nick Boström dans son ouvrage6.

Superintelligence, paths, dangers, strategies – non traduit à ce jour en français – a pour objectif d’attirer l’attention sur le risque existentiel anthropique associé à l’intelligence artificielle qui pourrait, selon Nick Boström, menacer l’humanité d’extinction. Cette menace est largement relayée par des personnalités aussi célèbres que Bill Gates et Elon Musk (SpaceX, Tesla Motors, etc.) qui vient de fonder (2015) avec Sam Altman (Loopt, Y Combinator), une organisation non lucrative, dotée d’un milliard de dollars, nommée OpenAI7. Ce laboratoire a pour objet de stimuler des recherches en open source afin de promouvoir largement une IA bénéfique, qui auraient pour effet de « neutraliser la menace » en évitant le monopole8.

Au filtre du transhumanisme, ce risque existentiel menacerait prématurément l’extinction de l’intelligence née sur Terre avant qu’elle ne puisse atteindre sa maturité, l’expression de sa plénitude : le posthumain et ses potentialités comme l’exploration de l’univers9.

L’ « explosion de l’intelligence » peut être schématisée ainsi : lorsque la machine aura atteint le stade de l’intelligence humaine (human-level machine intelligence – HLMI) autrement appelée intelligence artificielle générale ou forte (une notion très subjective), elle pourrait se reprogrammer, puis à nouveau se reprogrammer à partir de cette nouvelle programmation et ainsi de suite jusqu’à produire une évolution exponentielle : la super-intelligence.

L’ouvrage de Nick Boström s’inscrit dans une ligne de recherche plus générale portant sur la catastrophe globale qui a donné naissance en 2005 à la création du Futur of Humanity Institute (FHI), une institution rattachée à la Martin Oxford School et dont Nick Boström est le directeur. Le FHI est constitué d’une équipe pluridisciplinaire ayant pour but de générer des recherches académiques sur les risques anthropiques afin de les identifier et les prévenir : comme ici le « décollage » (takeoff) d’une IA hostile. Cette institution vient de recevoir un financement d’un million de dollars de la part d’Elon Musk pour encourager ses activités.

Ce livre paraît dans un contexte marqué par le développement d’une IA polymorphe, extrêmement conquérante10. Ce phénomène suscite de multiples questionnements, qui favorisent, en retour, des spéculations jusqu’alors marginales, comme l’idée d’ultra-intelligence développée en 1965 par Irving J. Good devenue par la suite11, sous la plume du mathématicien et auteur de science-fiction Venor Vinge12 et Ray Kurzweil (Google)13, singularité technologique14. Ceux qui adhèrent à la faisabilité prochaine de l’intelligence artificielle générale, évoquent l’évolution des puissances de stockage et de calcul, la réalité augmentée15, etc.

Oren Etzioni est loin d’être un inconnu : chercheur de renom, il travaille dans de nombreux domaines de l’intelligence artificielle mais plus particulièrement dans la reconnaissance automatique de texte, notamment en ligne (Web search, Data mining et Information extraction). Entrepreneur fécond, il est à l’origine de plusieurs entreprises comme MetaCrawler (Infospace), Netbot (Excite), ClearForest (Reuters) et Decide (Ebay). Membre de l’American association of artificial intelligence depuis 2003, il est aussi PDG d’Allen institute for artificial intelligence (AI2) dont la mission est de contribuer au développement d’une IA pour le bien de l’humanité16. Récemment, ses interventions médiatiques ont eu majoritairement pour but de relativiser les progrès de l’IA. Il s’est manifesté dernièrement après les « victoires » du programme informatique AlphaGo (Google DeepMind) sur les joueurs de go Fan Hui et Lee Sedol, avec un article au titre explicite : « Deep Learning isn’t a dangerous magic genie. It’s just math »17.

Dans son article daté du 20 septembre dernier, Oren Etzioni s’attaque ainsi aux résultats du sondage effectué par Nick Boström dans Superintelligence. Ce faisant, il questionne habilement un passage clé du livre. En effet, les deux pages incriminées donnent du crédit au reste du texte, qui est, par nature, spéculatif ; un aspect assumé par le philosophe qui donne ainsi un habillage académique à des idées qui existent, pour certaines, depuis longtemps et indépendamment du transhumanisme.

L’étude réalisée par Nick Boström et Vincent C. Müller repose sur l’agrégation de quatre sondages distincts obtenus auprès de quatre groupes entre 2012 et 2013. Le premier a été réalisé auprès des membres d’une conférence intitulée « Philosophy and theory of IA » (PT-AI) qui s’est tenue en 2011 à Thessalonique (Grèce) et organisée Vincent C. Müller. Cependant, aux yeux d’Oren Etzioni ce sondage apparaît comme obscur. Il manque, selon lui, les questions et les réponses. Le second sondage a été réalisé auprès des participants de deux conférences autour de l’intelligence artificielle générale (AGI), un groupe a priori acquis à cette idée (cf. résultats du sondage). Le troisième a été fait auprès des membres de la Greek association for artificial intelligence (EETN). Cette association est-elle représentative ? L’ensemble est complété par un sondage effectué auprès « des plus grandes figures de l’histoire l’intelligence artificielle » selon Microsoft academic search.

Un document donne des détails sur les différents sondages : nature des groupes, effectifs ainsi que les questions et les réponses18. Nous savons ainsi que sur 549 personnes sollicitées, 170 ont répondu (soit 31 %).

Source : Vincent C. Müller et Nick Boström, « Future Progress in Artificial Intelligence : A survey of Expert
Opinion », http://www.nickBoström.com/papers/survey.pdf

Cette enquête menée par Nick Boström et Vincent C. Müller a pour objectif de sonder l’opinion des experts sur une hypothétique émergence de l’intelligence artificielle générale, qu’ils définissent par la capacité pour une IA d’exercer, aussi bien que les humains, toutes les métiers19. Une définition utilisée par un des pères historiques de l’intelligence artificielle : Nils J. Nilsson20. Cette question centrale est assortie d’un jeu de sous-questions. Quelle sous-discipline de l’IA contribuera le plus à cette réalisation ? À cette question ce sont les sciences cognitives qui arrivent en tête. Nick Boström et Vincent C. Müller font remarquer à cet endroit la grande disparité d’appréciation sur la digitalisation du cerveau (whole brain emulation) qui obtient 0 % dans le Top 100 mais 46 % dans le groupe de l’intelligence artificielle générale. Mais aussi, dans combien de temps l’intelligence artificielle forte (human-level machine intelligence) sera-t-elle effective21? Enfin, en considérant que nous accédions un jour au stade de l’intelligence artificielle générale (stade 1), combien de temps faudra-t-il pour atteindre la super-intelligence (stade 2) ? Sera-t-elle neutre, positive, négative ? Le sondage réalisé auprès du Top 100, envoyé par e-mail, précisait l’usage qui en serait fait, à savoir la contribution à la nouvelle publication de Nick Boström : Superintelligence22. Selon les chercheurs sollicités, l’intelligence artificielle générale pourrait émerger selon cette projection :

Quand émergera l’intelligence artificielle générale (HLMI) ?

Source : Nick Boström, Superintelligence, paths, dangers, strategies, op. cit., p. 19.

Soit :

10 % en 2022

50 % en 2040

90 % en 2075

Ils complètent cette question par :

Combien de temps faudra-t-il pour passer de l’IAG (HLMI) à la super-intelligence ?

Source : Nick Boström, Superintelligence, paths, dangers, strategies, op. cit., p. 19.

En réalisant son propre sondage, l’idée d’Oren Etzioni est de donner la parole à des chercheurs actifs qu’il estime signifiants dans ce champ. Celui-ci a été réalisé auprès de 193 membres de l’Americain association of artificial intelligence (AAAI). La question est formulée ainsi : Nick Boström, dans son livre, définit la super-intelligence comme un intellect plus intelligent que les meilleurs cerveaux humains dans pratiquement tous les domaines incluant la créativité scientifique, la sagesse et l’intelligence sociale. Quand pensez-vous que nous réaliserons cette super-intelligence ? 41 % des membres contactés ont répondu soit 80 personnes. La question pose ici probléme, en effet alors que Nick Boström sonde l’émergence de l’intelligence artificielle générale (stade 1), Oren Etzioni fait référence à la super-intelligence (stade 2). Sur cette base, il paraît impossible de comparer les deux sondages.

Oren Etzioni conclut, commentaires à l’appui, que la majorité des personnes sondées considèrent la super-intelligence comme au-delà de l’horizon prévisible23.

« We’re competing with millions of years’ evolution of the human brain. We can write single-purpose programs that can compete with humans, and sometimes excel, but the world is not neatly compartmentalized into single-problem questions24. »

Il rapporte par ailleurs des propos qui dénoncent « le marchand de peur professionnel » :

« Nick Bostrom is a professional scare monger. His Institute’s role is to find existential threats to humanity. He sees them everywhere. I am tempted to refer to him as the ‘Donald Trump of AI’25. »

En réalisant ce contre-sondage, Oren Etzioni s’attaque au point névralgique du texte de Nick Boström : sa justification académique. Ce faisant, il tente d’affaiblir la portée de l’ouvrage. Déjà en 2014, répondant aux craintes formulées par Elon Musk et Bill Gates, il affirmait et expliquait dans un article pourquoi, en tant que chercheur en intelligence artificielle, il n’avait pas peur. Dans ce texte, il laissait déjà apparaître l’exaspération du chercheur contre cette vision dystopique qu’il qualifie, en référence à Isaac Asimov, de complexe de Frankenstein (la créature qui se retourne contre son créateur). Il illustre son point de vue par la formule du philosophe américain John Searle utilisée suite à au succès de Watson en 2011 dans le jeu populaire américain : Jeopardy! : « Watson doesn’t know it won Jeopardy! ». Oren Etzioni considère que l’évolution de l’IA, qui n’est qu’à ses balbutiements, est nécessairement disruptive, mais elle est aussi tissée d’opportunités. Il concluait que ce climat de crainte contrariait les bénéfices que pouvaient apporter l’IA à l’humanité26.

Indépendamment des résultats qui finalement ne sont que des spéculations, cette prise de position montre que les travaux du philosophe Nick Boström, ses propos, commencent à exaspérer un certain nombre de personnes dans le champ de l’intelligence artificielle…

Notes :

1 Raffi Khatchadourian, « The doomsday invention. Will artificial intelligence bring us utopia or destruction? », The New Yorker, no 23, novembre 2015.
2 Je remercie Daniel Lewkowicz et Béatrice Guérin-Gorgeard pour leurs remarques judicieuses.
3 Oren Etzioni, « Are the experts worried about the existential risk of artificial intelligence », MIT Technology Review, 20 septembre, 2016.
4 Nick Boström, Superintelligence, paths, dangers, strategies, Oxford, OUP, 2014.
5 Tim Adams, « Artificial Intelligence : ‘We’re like children playing with a bomb’ », TheGuardian, 12 juin 2016 ; et Seung Lee, « Artificial Intelligence is coming and it could wipe us out », Newsweek, 4 mars 2016.
6 « Opinions about the future of machine intelligence », in Nick Boström, Superintelligence, paths, dangers, strategies, op. cit. p. 18-21
7 Site OpenAI.
8 Cade Metz, « Inside OpenIA, Elon Musk’s wild plan to set artificial intelligence free », Wired, 27 avril 2016.
9 Nick Boström, « Existential risk prevention as global priority », Global Policy, vol. 4, no 1, 2013, p. 15.
10 Lire Erik Brynjolfsson et Andrew McAfee, The second machine age. Work, progress, and prosperity in a time of brilliant technologies, NY, Norton, 2014 [Le deuxième âge de la machine. Travail et prospérité à l’heure de la revolution technologique, Paris, Odile Jacob, 2015.
11 Irving J. Good, « Speculations concerning the first ultraintelligent machine », in F. Alt et M. Ruminoff (eds.), Advances in computers, vol. 6, 1965, p. 33.
12 Venor Vinge, « The coming technological singularity: How to survive in the post-human era », Vision-21, Interdisciplinary science and engineering in the era of cyberspace, Ohio March 30-31, 1993, p. 11.
13 Ray Kurzweil, The singularity is near. When humans transcend biology, London, Penguin Books, 2005.
14 Pour une critique : Drew McDermott, Kurzweil’s argument for the success of AI, Artificial intelligence, no 170, 2006, p. 1227-1233 ; et la réponse de Ben Goertzel, «Huma-level artificial general intelligence and the possibility of a technological singularity. A reaction to Ray Kurzweil’s The singularity is near, and McDermott’s critique of Kurzweil», Artificial intelligence, no 171, 2007, p. 1161-1173.
15 Hugo de Garis et Ben Goertzel, Report on the first conference on artificial general intelligence (AGI-08), AI Magazine, printemps 2009, p. 122.
17 Oren Etzioni, « Deep Learning isn’t a dangerous magic genie. It’s just math », Wired, 15 juin 2016.
18 Vincent C. Muller et Nick Boström, « Future Progress in Artificial Intelligence : A survey of Expert Opinion », op. cit.
19 Idem.
20 Nils J. Nilsson, « Human-level artificial intelligence? Be serious! », AAAI, hiver 2005.
21 Dans Superintelligence Nick Bostrom utilise HLMI pour human-level machine intelligence, alors que dans le texte commentant le sondage il fait référence à high-Level machine intelligence.
22 Idem.
23 Oren Etzioni, « Are the experts worried about the existential risk of artificial intelligence », op. cit.
24 Idem.
25 Idem.
26 Oren Etzioni, « It’s time to intelligently discuss artificial intelligence. I am AI researcher and I’m not scared. Here’s why », BlackChannel, 9 décembre 2014.

L’histoire de la superintelligence et la question de l’éthique des machines

Publié in Marianne Celka et Fabio La Rocca (dir.), Transmutations, Esprit Critique, Revue internationale de sociologie et sciences sociales, vol. 24, n° 1, été 2016, p. 43-57. Par Vincent Guérin, Docteur en histoire contemporaine.

Résumé : Ce texte a pour objet d’analyser, chez les transhumanistes, le couplage de l’éthique des machines avec les risques inhérents à la superintelligence. La première favorisant l’émergence de la seconde. Par ce biais, nous observons une accentuation du rapprochement de l’homme et de la machine, initié par le paradigme informationnel ; un renversement même avec une machine considérée comme « smarter than us ».

Introduction

En 2014, l’informaticien et cofondateur de Skype Jaan Tallinn a créé The Future of Life Institute (FLI) avec entre autres les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT). Dans le comité scientifique se trouve une constellation de personnalités célèbres comme Stephen Hawking, des auteurs à succès comme Erik Brynjolfsson (MIT Center for Digital Business), mais aussi l’acteur Morgan Freeman (film Transcendance de Wally Pfister, 2015) et l’inventeur et chef d’entreprise Elon Musk. Jaan Tallinn était déjà à l’initiative du Centre For The Study Of Existential Risk (CSER) ou Terminator studies en 2012 à l’Université de Cambridge avec le cosmologiste Martin Rees. Ces deux institutions ont pour ambition, entre autres, d’anticiper les risques majeurs qui menacent l’humanité, notamment ceux inhérents à l’intelligence artificielle (IA).

Dernièrement, Bill Gates, fondateur de Microsoft, lui-même, se dit préoccupé par l’IA. Ces deux institutions et Bill Gates ont un dénominateur commun : Nick Boström. l’auteur de Superintelligence, Paths, Dangers, Strategies (2014), qui a impressionné Bill Gates, est membre du comité scientifique de la FLE et du CSER. Il est professeur à la faculté de philosophie de la prestigieuse Université d’Oxford et fondateur de la Future of humanity Institute (FHI) qui a pour objet d’anticiper les risques majeurs qui menacent l’humanité (existential risks). Ses recherches portent sur l’augmentation de l’homme, le transhumanisme, les risques anthropiques et spécifiquement celui de la superintelligence. En 2008, il a codirigé avec Milan M. Ćirković Global Catastrophic Risks (Boström, Ćirković, 2008). Cet ouvrage dénombre dix risques catastrophiques au sens d’un bouleversement radical qui menacerait l’humanité (anthropiques ou non) 1 . Parmi les risques anthropiques recensés, Eliezer S. Yudkowsky (1979-), chercheur au Machine Intelligence Research Institute à Berkeley (MIRI), développe le chapitre sur l’IA (Yudkowsky, 2008).

Nick Boström et Eliezer Yudkowsky sont transhumanistes, un courant de pensée qui conçoit l’humain, l’humanité comme imparfaits et prône une prise en main de leur évolution par la technologie. En 1998, Nick Boström a fondé avec David Pearce la World Transhumanist Association (WTA) et l’Institute for Ethics & Emerging Technologies (IEET) avec James Hughes.

Plusieurs objectifs irriguent le transhumanisme, dont le devenir postbiologique (posthumain), la superintelligence et l’amortalité (une immortalité relative). Parmi les NBIC, deux technologies ont leur faveur. La première, la nanotechnologie (une construction à partir du bas à l’échelle du nanomètre soit un milliardième de mètre) est en devenir, et la seconde, l’intelligence artificielle générale (IAG) reste un fantasme. Nick Boström et Eliezer Yudkowsky pensent que l’IA favorisera la nanotechnologie, elle-même porteuse d’inquiétude (Drexler, 1986). Eric Drexler, transhumaniste et membre du FHI, a créé en 1986, le Foresight Institute afin de prévenir les risques technologiques et favoriser un usage bénéfique de la nanotechnologie. Qu’est-ce-que la (super) intelligence artificielle ? Quelles sont les corrélations entre le transhumanisme et cette inquiétude montante vis-à-vis de l’IA, ou plus exactement la superintelligence ? Comment et quand pourrait-elle émerger ? Comment s‟articule le complexe dit de Frankenstein et l’éthique des machines ?

pour lire la suite, télécharger le PDF


Sommaire :

Introduction
La (super) intelligence artificielle
Le complexe dit de Frankenstein et l’éthique des machines
Épilogue
Références bibliographiques

Infléchir le futur ? Le transhumanisme comme auto-transcendance

Vincent Guérin, International Psychology, Practice and Research, 6, 2015


Résumé : Comment le transhumanisme oriente-t-il notre futur ? Entre l’eschatologie de la singularité technologique et la société de l’abondance promise par les nouvelles technologies (NBIC), il s’agit de saisir l’émergence et la diffusion d’une transcendance opératoire, son « inquiétante étrangeté ».


« The best way to predict the future is to create it yourself. » (17e loi de Peter H. Diamandis)

Introduction

Dans cet article, nous allons nous intéresser à la « communauté » des « singularitariens » de la Silicon Valley (Grossman, 2011). Deux de ses figures, Ray Kurzweil et Peter H. Diamandis ont créé, en 2008, l’université de la singularité. Son ambition : préparer l’humanité au changement induit par une accélération technologique à venir annoncée comme foudroyante. Cette entreprise qui prépare l’avenir tout en favorisant leurs ambitions. Au final, il s’agit d’explorer le tissage des forces en présence, mais aussi la réthorique utilisée par les « ingénieurs » singularitariens pour stimuler, orienter des recherches « stratégiques » devant favoriser leurs desseins. Sont-ils en mesure d’infléchir le futur, le faire advenir ?

Pour lire la suite, télécharger le PDF

Sommaire :

La singularité technologique : enfer ou âge messianique ?

L’Université de la singularité

La possibilité de l’abondance

Conclusion

Bibliographie

Le prix Nobel de Physique hongrois Dennis Garbor affirme que « tout ce qui est techniquement faisable doit être réalisé, que cette réalisation soit jugée moralement bonne ou condamnable » (Gabor, 1973) ⇒ Le transhumanisme : Ce qui est possible est-il toujours souhaitable ?