La science du transhumanisme : comment la technologie mènera à une nouvelle race d’êtres immortels superintelligents

Le développement rapide des technologies dites NBIC – la nanotechnologie, la biotechnologie, les technologies de l’information et la science cognitive – donne lieu à des possibilités qui ont longtemps été du domaine de la science-fiction. La maladie, le vieillissement et même la mort sont autant de réalités humaines auxquelles ces technologies cherchent à mettre fin.

Elles peuvent nous permettre de jouir d’une plus grande « liberté morphologique » – nous pourrions prendre de nouvelles formes par le biais de prothèses ou du génie génétique, ou faire progresser nos capacités cognitives. Nous pourrions utiliser les interfaces cerveau-ordinateur pour nous connecter à une intelligence artificielle avancée.

Des nanobots pourraient parcourir notre circulation sanguine pour surveiller notre santé et améliorer nos propensions émotionnelles à la joie, l’amour et autres émotions. Les progrès dans un domaine créent souvent de nouvelles possibilités dans d’autres secteurs, et cette « convergence » peut entraîner des changements radicaux dans notre monde à court terme.

Le « transhumanisme » est l’idée que les humains devraient transcender leur état naturel et leurs limites actuels grâce à l’utilisation de la technologie, c.-à-d. que nous devrions adopter une évolution humaine autodirigée. Si l’histoire du progrès technologique peut être considérée comme la tentative de l’humanité de dompter la nature pour mieux répondre à ses besoins, le transhumanisme est la suite logique : la révision de la nature de l’humanité pour mieux servir ses fantasmes.

https://iatranshumanisme.com/transhumanisme/les-technologies-emergentes/le-rapport-nbic/

Comme le dit David Pearce, principal défenseur du transhumanisme (ainsi que de l’« impératif hédoniste », exigence morale selon laquelle les hommes doivent travailler à la réduction — voire à l’abolition — de la souffrance pour tous les organismes dotés de sensibilité (sentient beings)) et cofondateur de Humanity + :

« Si nous voulons vivre dans un paradis, nous devrons l’élaborer nous-mêmes. Si nous voulons la vie éternelle, nous aurons besoin de réécrire notre code génétique truffé de bogues et devenir semblables à Dieu… Seules les solutions de haute technologie peuvent éradiquer les souffrances du monde. La compassion seule ne suffit pas. »

Mais il y a un aspect plus sombre à la foi naïve que Pearce et d’autres partisans ont dans le transhumanisme, aspect incontestablement dystopique.

Il est peu probable que nous devenions des transhumains du jour au lendemain. Les technologies deviendront plutôt davantage intrusives et s’intégreront parfaitement au corps humain. La technologie a longtemps été considérée comme une extension de soi. De nombreux aspects de notre monde social, notamment nos systèmes financiers, sont déjà largement basés sur les machines. Il y a beaucoup à apprendre de ces systèmes hybrides homme/machine en constante évolution.

Pourtant, le langage et les attentes souvent utopiques qui entourent et façonnent notre compréhension de ces développements n’ont pas fait l’objet d’une grande analyse. Les changements profonds qui nous attendent sont souvent abordés de manière abstraite, car les « progrès » évolutifs sont considérés comme si radicaux qu’ils ignorent la réalité des conditions sociales actuelles.

Ce faisant, le transhumanisme devient une sorte de « technoanthropocentrisme », dans lequel les transhumanistes sous-estiment souvent la complexité de la relation que nous entretenons avec la technologie. Ils le voient comme un outil contrôlable et malléable qui, avec la bonne logique et la rigueur scientifique, peut être tourné vers n’importe quelle fin. En fait, tout comme les avancées technologiques dépendent et tiennent compte de l’environnement dans lequel elles s’accomplissent, elles se répercutent dans la culture et créent de nouvelles dynamiques, souvent imperceptiblement.

Ainsi, situer le transhumanisme dans les contextes sociaux, culturels, politiques et économiques plus larges au sein desquels il émerge est essentiel pour comprendre sa portée éthique.

Environnements concurrentiels

Max More et Natasha Vita-More, dans leur ouvrage intitulé « The Transhumanist Reader », revendiquent le besoin d’un transhumanisme pour « l’inclusion, la pluralité et la remise en question perpétuelle de notre connaissance ».

Pourtant, ces trois principes sont incompatibles avec le développement de technologies transformatrices dans le système actuel duquel elles émergent aujourd’hui : le capitalisme avancé.

L’un des problèmes réside dans le fait qu’un contexte social hautement concurrentiel ne se prête pas à diverses façons d’être. Il exige plutôt des comportements de plus en plus efficaces. Prenez le cas des étudiants, par exemple. Si certains ont accès à des pilules qui leur permettent d’obtenir de meilleurs résultats, les autres étudiants peuvent-ils se permettre de ne pas faire de même ? Il s’agit bien d’un dilemme. Un nombre croissant d’étudiants prennent déjà des pilules améliorant leur performance. Et si les pilules deviennent plus puissantes, ou si les améliorations font appel au génie génétique ou à la nanotechnologie intrusive qui offre des avantages concurrentiels encore plus grands, alors quelle est la suite ? Rejeter une orthodoxie technologique avancée pourrait rendre quelqu’un socialement et économiquement moribond (peut-être même sur le plan de l’évolution), alors que tous ceux qui ont accès aux pilules sont effectivement forcés de la suivre pour garder la cadence.

Passer outre les limites quotidiennes suggère une sorte de libération. Cependant, il s’agit plutôt d’une impulsion contraignante d’agir d’une manière déterminée. Nous devons littéralement nous transcender afin de nous conformer (et survivre). Plus la transcendance est extrême, plus la décision de se conformer est délibérée et plus il est impératif de le faire.

Les forces systémiques qui poussent l’individu à s’« améliorer » pour rester compétitif jouent également un rôle géopolitique. Un domaine où la recherche et le développement technologique ont le plus grand potentiel transhumaniste est celui de la défense. DARPA (le département de la défense américaine chargé de développer des technologies militaires), qui tente de créer des « soldats métaboliquement dominants » – Metabolically Dominant Soldier ou MDS – est un exemple concret de la façon dont les intérêts particuliers d’un système social donné pourraient déterminer le développement de technologies transformatrices radicalement puissantes à des fins destructrices plutôt qu’utopiques.

La précipitation pour développer une IA super intelligente par des États-nations mondiaux concurrentiels et mutuellement méfiants pourrait également devenir une course aux armements. Dans « Radical Evolution », Verner Vinge décrit un scénario dans lequel l’intelligence surhumaine est l’« arme ultime ». Idéalement, l’humanité prendrait le plus grand soin de développer une innovation aussi puissante et transformatrice.

Il y a à juste titre une grande inquiétude entourant la création d’une superintelligence et l’émergence de la singularité, c.-à-d. l’idée qu’une fois que l’IA atteindra un certain niveau, elle se redéveloppera rapidement, entraînant une explosion d’intelligence qui dépassera rapidement celle des humains (quelque chose qui se passera d’ici 2029 selon le futuriste Ray Kurzweil). Si le monde prenait la forme de ce que l’IA la plus puissante est programmée (ou s’est reprogrammée) à obtenir, son évolution pourrait prendre un tournant pour le tout banal – une IA pourrait-elle détruire l’humanité parce qu’elle désire produire le plus de trombones possible par exemple?

Il est également difficile de concevoir un aspect de l’humanité dont l’efficacité ne pourrait être « améliorée » pour satisfaire les exigences d’un système concurrentiel. C’est donc le système qui détermine l’évolution de l’humanité, sans avoir de vision sur ce que sont les humains ou sur ce qu’ils devraient être. Une des façons dont le capitalisme avancé se révèle extrêmement dynamique est dans son idéologie de neutralité morale et métaphysique. Comme l’affirme le philosophe Michael Sandel : « les marchés ne font aucune distinction entre le bien et le mal » (Michael J. Sandel, Ce que l’argent ne saurait acheter. Les limites morales du marché, Paris, Seuil, 2014). Dans le capitalisme avancé, maximiser notre pouvoir d’achat maximise notre capacité à nous épanouir – par conséquent, acheter pourrait être considéré comme un impératif moral primaire de l’individu.

Le Philosophe Bob Doede suggère à juste titre que c’est cette logique banale du marché qui dominera :

« Si la biotech a fait en sorte que la nature humaine soit entièrement révisable, elle ne peut aucunement diriger ni contraindre la forme que nous lui donnons. Ainsi, quelle forme les artéfacts posthumains prendront-ils ? Je ne doute point que notre grande société de consommation, notre économie capitaliste saturée de médias et nos forces commerciales parviendront à leur fin. Alors, l’impératif commercial deviendrait le vrai architecte de l’humain futur. »

Que le processus évolutif soit déterminé par une IA super intelligente ou un capitalisme avancé, nous pourrions être obligés de nous conformer à une transcendance perpétuelle qui ne nous rendra plus efficaces que dans les activités nécessaires au système le plus puissant. Le résultat final serait, d’une manière prévisible, une entité technologique entièrement non humaine – bien que très efficace – issue de l’humanité qui ne servirait pas nécessairement un but que l’homme moderne ne valorise en aucune façon. La capacité de servir efficacement le système sera la force motrice. Cela vaut également pour l’évolution naturelle, la technologie n’étant pas un outil simple nous permettant d’élucider cette énigme. Mais le transhumanisme pourrait amplifier la vitesse et les aspects les moins souhaitables du processus.

L’autoritarisme de l’information

Pour le bioéthicien Julian Savulescu, la raison principale pour laquelle les humains doivent être améliorés est pour que notre espèce survive. Il affirme que nous sommes confrontés à un Triangle des Bermudes de l’extinction : le pouvoir technologique radical, la démocratie libérale et notre nature morale. En tant que transhumaniste, Savulescu exalte le progrès technologique et le considère comme inévitable et infreinable. C’est la démocratie libérale, en particulier notre nature morale, qui devrait changer.

L’incapacité de l’humanité à régler les problèmes mondiaux est de plus en plus évidente. Mais Savulescu néglige de situer nos faiblesses morales dans leur contexte culturel, politique et économique général, croyant plutôt que les solutions se trouvent dans notre composition biologique.

« Nous devrons renoncer à une protection maximale de la vie privée. Nous constatons une augmentation de la surveillance des individus et elle sera nécessaire si nous voulons éviter les menaces que les personnes ayant un trouble de la personnalité antisociale et les fanatiques représentent par leur accès à une technologie radicalement améliorée. »

Une telle surveillance permet aux entreprises et aux gouvernements d’accéder à des informations extrêmement précieuses et de les utiliser. Dans « Who Owns the Future », le pionnier de l’Internet, Jaron Lanier, explique :

« Les multiples données sur la vie privée et les habitudes des gens ordinaires, colligées sur les réseaux numériques, sont groupés pour former une nouvelle forme privée de monnaie d’élite… c’est une nouvelle forme de sécurité négociée par les plus nantis, et sa valeur augmente naturellement. C’est devenu un énorme levier inaccessible aux gens ordinaires. »

Essentiellement, ce levier est aussi invisible pour la plupart des gens. Il ne fait pas que dévier le système économique vers les élites, mais modifie de manière significative la conception même de la liberté, car l’autorité du pouvoir est à la fois radicalement plus efficace et dispersée.

La notion de Foucault selon laquelle nous vivons dans une société panoptique – où le sentiment d’être perpétuellement surveillé instille la discipline – s’étend maintenant au point où la machinerie incessante d’aujourd’hui a été appelée « superpanopticon ». Les connaissances et l’information que les technologies transhumanistes auront tendance à générer pourraient renforcer les structures du pouvoir existantes qui consolident la logique inhérente du système duquel la connaissance émane.

On peut notamment le constater dans la tendance des algorithmes à établir des discriminations raciales et sexistes, lesquelles reflètent déjà nos échecs sociaux existants. La technologie de l’information tend à interpréter le monde de façons définies : elle privilégie l’information facilement mesurable, comme le PIB, aux dépens de l’information non quantifiable, comme le bonheur ou le bien-être. À mesure que les technologies invasives fourniront davantage de données granulaires sur notre personne, ces données pourraient vraisemblablement en venir à définir notre monde, et l’information intangible pourrait perdre sa place légitime dans les affaires humaines.

Déshumanisation systémique

Les inégalités actuelles seront sûrement amplifiées avec l’introduction de psychopharmaceutiques ultra puissants, de la modification génétique, de la surperintelligence, des interfaces cerveau-ordinateur, de la nanotechnologie, de la prosthétique robotique et du progrès possible dans le domaine du prolongement de la vie. Ils sont tous fondamentalement inégalitaires et reposent sur une notion de non-limitation plutôt que sur le niveau standard de bien-être physique et mental que nous acceptons dans le domaine des soins de santé. Il est difficile de concevoir une façon où tous pourront jouir de ces possibilités.

La sociologiste Saskia Sassen parle de « nouvelles logiques d’exclusion », qui reflètent « les pathologies du capitalisme mondial d’aujourd’hui ». Les exclus englobent les 60 000 migrants et plus qui ont perdu leur vie dans des trajets mortels au cours des 20 dernières années et les victimes du profilage racial de la population carcérale grandissante.

En Grande-Bretagne, ces exclus sont les 30 000 personnes dont la mort en 2015 était liée aux coupures dans les soins de santé et l’aide sociale et tous les autres qui ont péri dans l’incendie de la Tour Grenfell. On pourrait dire que leur mort est due à la marginalisation systématique.

La concentration aiguë et sans précédent de la richesse va de pair avec ces exclusions. Les exploits économiques et techniques avancés favorisent cette richesse et l’exclusion de groupes excédentaires. En même temps, Sassen avance qu’ils créent une sorte de contexte nébuleux sans centre semblable au lieu de pouvoir :

« Les opprimés se sont souvent élevés contre leurs maîtres. Mais aujourd’hui, ils ont été pour la plupart exilés et survivent à grande distance de leurs oppresseurs… L’« oppresseur » est un système de plus en plus complexe combinant individus, réseaux et machines dont le centre n’est pas défini. »

La population excédentaire retirée des aspects productifs du monde social pourrait rapidement augmenter dans un proche avenir à mesure que les améliorations apportées à l’IA et à la robotique engendreront possiblement une importante automaticité du chômage. De vastes pans de la société pourraient devenir productivement et économiquement excédentaires. Pour l’historien Yuval Noah Harari, « la question la plus importante dans l’économie du 21e siècle pourrait être la suivante : que fera-t-on de tous ces gens inutiles ? »

Nous n’aurions d’autre scénario que celui d’une petite élite possédant la presque totalité de la richesse et ayant accès à la plus puissante des technologies transformatrices de l’histoire de l’humanité et d’une masse de gens accessoires, ne pouvant suivre le contexte évolutif dans lequel ils se trouvent et dépendant entièrement de la bienveillance de cette élite. Le traitement déshumanisant accordé aux groupes exclus d’aujourd’hui démontre que les valeurs libérales des pays développés ne s’étendent pas toujours à ceux qui ne partagent pas les mêmes privilèges et la même race, culture ou religion.

Au sein d’une ère de pouvoir technologique radical, les masses pourraient même représenter une importante menace pour la sécurité de l’élite, ce qui pourrait justifier des mesures agressives et autoritaires (et peut-être d’autres mesures plus radicales grâce à une culture de la surveillance).

Dans leur traité sur le transhumanisme, « The Proactionary Imperative », Steve Fuller et Veronika Lipinska allèguent que nous sommes obligés de poursuivre sans relâche le progrès technoscientifique jusqu’à ce que nous accomplissions notre destin semblable à celui de Dieu ou que nous atteignons un pouvoir infini – soit celui de servir Dieu en devenant Dieu. Ils nous révèlent imperturbablement le processus de violence et de destruction naissant que ces visées prométhéennes nécessiteraient : « remplacer la nature par de l’artificiel est la clé d’une stratégie proactionnaire… du moins il est sérieusement possible, sinon probable, que cela entraîne une dégradation environnementale de la Terre à long terme. »

L’ampleur de toute la souffrance qu’ils seraient prêts à mettre en jeu dans leur cruel casino ne peut être entièrement comprise que lorsque nous analysons ce que leur projet signifie pour les êtres humains :

« Un monde proactionnaire ne ferait pas que tolérer la prise de risque, mais l’encouragerait, puisque les gens se verront fournir des incitatifs juridiques pour spéculer sur leurs actifs bioéconomiques. Vivre dangereusement deviendrait une entreprise en soi… les proactionnaires cherchant d’importants bénéfices à long terme sur les survivants d’un régime révolutionnaire qui encouragerait bien des préjudices pour y parvenir. »

Survivre demandera de nombreux sacrifices.

La fragilité économique à laquelle les humains devront bientôt faire face et son chômage automatisé se révéleront probablement extrêmement utiles aux buts proactionnaires. Dans une société où une vaste majorité de la population dépendra d’aumônes pour survivre, les forces du marché feront en sorte que le manque de sécurité sociale poussera les gens à prendre plus de risques pour peu d’avantages, alors les « proactionnaires réinventeraient le système d’assistance sociale en tant que véhicule favorisant la prise de risque en tant qu’instrument du marché » pendant que « l’état proactionnaire serait exploité en tant qu’énorme capital-risque ».

Au cœur de cet état se trouve le remplacement des droits fondamentaux de « l’Humanité 1.0 », terme de Fuller pour définir les êtres humains non augmentés modernes, par des obligations envers l’Humanité 2.0 augmentée future. Ainsi, nos codes de valeurs peuvent et doivent même être monétisés : « l’autonomie personnelle devrait être perçue comme une franchise accordée par le gouvernement où les individus envisageraient leur corps comme une parcelle de terrain dans ce que l’on peut appeler un « patrimoine génétique commun ».

La préoccupation néolibérale entourant la privatisation s’étendrait alors aux êtres humains. En effet, l’endettement à vie qui fait partie de la réalité de la plupart des citoyens des nations développées capitalistes prendrait une tout autre signification lorsqu’une personne naîtrait endettée : être en vie équivaudrait à « vous investir dans un capital où des résultats sont attendus ».

Les masses socialement moribondes pourraient être forcées de servir le super-projet technoscientifique de l’Humanité 2.0, qui utilise l’idéologie du fondamentalisme commercial dans sa quête d’un progrès perpétuel et d’une productivité maximale. La seule différence significative est que le but déclaré des capacités divines de l’Humanité 2.0 est patent, par opposition à la fin indéfinie déterminée par le « progrès » infini d’une logique commerciale encore plus efficiente que celle que nous avons à l’heure actuelle.

Une nouvelle politique

Certains transhumanistes commencent à comprendre que les plus sérieuses limites aux objectifs des humains sont sociales et culturelles, et non techniques. Cependant, le plus souvent leur reformulation des politiques tombe dans les mêmes pièges que leur vision globale technocentrique. Ils allègent généralement que les nouveaux pôles politiques ne seront plus de droite ou de gauche mais plutôt technoconservateur ou technoprogressiste (et même technolibertaire ou technoseptique). Aussi, Fuller et Lipinska ergotent qu’ils seront situés de haut en bas plutôt que de gauche à droite : ceux qui veulent dominer le ciel et devenir puissants, et ceux qui veulent préserver la Terre et sa diversité d’espèces. Il s’agit d’une fausse dichotomie. La préservation des derniers est nécessaire à toute réalisation des premiers.

Le transhumanisme et le capitalisme avancé sont deux processus qui valorisent avant toute chose le « progrès » et l’« efficience ». Le progrès en tant que moyen d’accéder au pouvoir et l’efficience en tant que moyen de faire du profit. Les humains deviennent des véhicules pour servir ces valeurs. Les possibilités du transhumanisme nécessitent urgemment une politique ayant des valeurs humaines davantage délimitées et explicites pour procurer un environnement sécuritaire à ceux qui favorisent ces changements profonds. La position que nous prenons concernant les questions de justice sociale et de durabilité environnementale n’a jamais été aussi cruciale. La technologie ne nous permet pas de nous soustraire à ces questions, elle ne permet pas la neutralité politique. L’inverse est aussi vrai : nos politiques n’ont jamais été aussi importantes. Savulescu dit vrai lorsqu’il affirme que les technologies radicales s’en viennent. Par contre, il a tort de penser qu’elles corrigeront nos valeurs morales… elles les refléteront.

traduit avec la collaboration de Stéphanie S.

Daily Mail par Alexander Thomas With The Conversation

Des chimères bionanotechnologiques. L’humain aux prises avec les imaginaires technoscientifiques

In book: Science, Fables and Chimera : Strange Encounters, Chapter: Des chimères bionanotechnologiques. L’humain aux prises avec les imaginaires technoscientifiques, Publisher: Cambridge Scholars Publishing, Editors: Laurence Roussillon-Constanty, Philippe Murillo, pp.269-286. July 2013.

Mathieu Quet – CEPED – UMR 196 – IRD/INED/Université Paris Descartes.

Abstract : Les débats autour des bionanotechnologies* accordent souvent une importance particulière aux transformations à venir du corps humain. Ces visions du (corps) futur sont variables, plus ou moins ambitieuses et plus ou moins sombres – de la crainte de la pollution ou de la contamination du corps humain par les nanoparticules aux discours sur les mutations « radicales » du genre humain et à la notion de post-humanité. Par exemple, au cours de la série de débats publics consacrés aux nanotechnologies et organisés par la Commission Nationale du Débat Public fin 2009, début 2010, un certain nombre de questions ont été abordées par des acteurs très différents : des groupes écologistes ont insisté sur les problèmes de pollution que risque de soulever à l’avenir la production de nanoparticules, les industries pharmaceutiques ont insisté sur les bienfaits que pouvaient apporter les nanosciences avec l’émergence de nouveaux traitements, comme la thérapie génique, et un groupe dit « transhumaniste » a évoqué des nanorobots infiltrés dans le corps et la mutation du genre humain. Chacun de ces groupes produisait ainsi des prédictions particulières sur les conséquences à venir des nanotechnologies pour le corps humain. Dans ce contexte, on peut essayer d’appréhender les discours d’anticipation au sujet des effets des nanotechnologies sur le corps humain dans leur hétérogénéité, et tenter de comprendre comment ces discours s’articulent, par-delà leur variété et leurs différences. La production discursive de chimères, ou de transformations plus ou moins imaginaires du corps humain, dans le cadre des multiples débats et controverses sur les nanos, est l’un des modes d’inscription des nanosciences dans l’espace public. La production de prédictions concernant l’avenir du corps, voire de la nature humaine, est donc l’une des médiations par lesquelles les acteurs sociaux tentent de saisir l’objet « nano », de penser son encadrement social. Et il n’est pas l’apanage de quelques illuminés, mais bien un mode d’inscription partagé par tout un faisceau d’acteurs : des chercheurs, des ingénieurs, des militants, des journalistes, et bien d’autres. Dès lors, les chimères et autres imaginaires technologiques remplissent un rôle essentiel dans l’appréhension sociale des effets des nanosciences.

Télécharger le PDF

* Il existe une différence légère entre biologie synthétique et bionanotechnologie (même si ces deux champs partagent énormément de points communs). La première cherche à modifier des systèmes vivants, même à les créer ex nihilo. La seconde cherche à bâtir des objets non vivants, à partir de composés propres à ce dernier ou à partir d’organismes vivants. (source: Rémi Soussan, via InternetActu)

L’avenir de l’extrémisme : l’intelligence artificielle et la biologie synthétique transformeront le terrorisme

Dr. Bertalan Meskó, The Medical Futurist

par Dr. Bertalan Mesko, futuriste, médecin hongrois, généticien, auteur et conférencier.

Il n’y avait pas beaucoup de gens qui avaient entendu parler du bioterrorisme avant le 11 septembre. Mais peu de temps après les attentats, une vague d’envoi d‘anthrax a détourné l’attention du public vers une nouvelle arme dans l’arsenal des terroristes – le bioterrorisme. Un procureur fédéral américain a constaté qu’un enquêteur biologique de l’armée était responsable de l’envoi des lettres enrobées à l’anthrax qui ont tué 5 personnes et en ont blessé 15 en 2001. Les cas ont suscité une grande attention des médias et la crainte d’un nouveau type de guerre terroriste.

Cependant, comme dans tous les battages médiatiques, celui sur le bioterrorisme a disparu rapidement.

Mais en regardant vers l’avenir, je crois que nous ne pouvons pas lui accorder autant d’attention que nous le devrions. Bien qu‘il puisse être effrayant, nous devons nous préparer au pire. C’est la seule façon dont nous pouvons être disposés à atténuer les dommages causés par tout abus nuisible si (et quand) ils surviennent.

En fin de compte, cela signifie investir dans la recherche liée à la politique et la gouvernance entourant une foule de nouvelles technologies. C’est là réside une partie des problèmes les plus pressants.

À l’avenir, les implants cérébraux seront en mesure d’habiliter les humains avec des superpuissances à l’aide de puces qui nous permettent d’entendre une conversation à travers une pièce, de nous donner la possibilité de voir dans l’obscurité, de contrôler les humeurs, de restaurer nos souvenirs, ou “télécharger” des compétences comme dans la trilogie du film Matrix. Cependant, les neuro-dispositifs implantables pourraient aussi être utilisés comme des armes1 dans les mains des mauvaises personnes.

Lorsque nous avons implanté des puces dans notre cerveau pour améliorer les capacités cognitives, il pourrait servir de plate-forme pour les pirates et causer des dommages à distance. Ils pourraient activer les fonctionnalités, éteindre les appareils, ou bombarder le cerveau avec des messages nuisibles aléatoires. Ils pourraient même contrôler ce que vous pensez et, par extension, comment vous agissez.

Hacker le cerveau : la menace ultime ?

Heureusement, il existe plusieurs initiatives qui visent à comprendre exactement comment ces technologies pourraient fonctionner, ce qui pourrait nous donner les connaissances nécessaires pour garder une longueur d’avance.

A mesure que le marché des portables médicaux et des capteurs commence vraiment à exploser, il est logique de penser à l’avance à ce qui pourrait suivre de cette “révolution portable”. Je pense que la prochaine étape sera à l’intérieur, digestible/ingérable et le tatouage électronique.

« Intérieur » comme des dispositifs implantés dans le corps, généralement sous la peau. En fait, il y a des gens qui ont déjà de tels implants, qu’ils peuvent utiliser pour ouvrir un ordinateur portable, un smartphone, ou même la porte du garage. « Digestible/ingérable » comme des pilules ou de minuscules gadgets qui peuvent être avalés, ce qui pourrait être des choses comme l’absorption des médicaments. Les tatouages électroniques sont des tatouages avec des capacités « intelligentes ». Ils pourraient facilement mesurer tous nos paramètres de santé et les signes vitaux.

Tous ces dispositifs minuscules peuvent être utilisés de manière abusive – certains pourraient être utilisés pour injecter des drogues létales dans un organisme ou pour dépouiller une personne de sa vie privée. C’est la raison pour laquelle il est de la plus haute importance de prêter attention à l’aspect de sécurité de ces dispositifs. Ils peuvent être vulnérables aux attaques, et notre vie (littéralement) dépendra des précautions de sécurité de la société développant les capteurs. Cela peut ne pas sembler trop réconfortant – mettre votre santé dans les mains d’une entreprise -, mais les implants micropuces sont fortement réglementés aux États-Unis, et nous sommes donc déjà à la recherche de solutions aux problèmes entourant ce progrès.

À l’avenir, les robots à l’échelle nanométrique pourront vivre dans notre circulation sanguine ou dans nos yeux et prévenir les maladies en alertant le patient (ou médecin) quand une condition est sur le point de se développer. Ils pourraient interagir avec nos organes et mesurer chaque paramètre de santé, intervenant au besoin.

Les nanorobots sont si minuscules qu’il est presque impossible de découvrir quand quelqu’un, par exemple, en met un dans votre verre et vous l’avalez. Certaines personnes craignent que, par l’utilisation de ces appareils minuscules, une surveillance totale devienne possible. Il pourrait également y avoir la possibilité d’utiliser des nanorobots pour délivrer des médicaments toxiques ou même mortels pour les organes.

En recherchant maintenant des moyens d’identifier quand ces nanorobots sont utilisés, nous pourrions potentiellement empêcher leur utilisation abusive à l’avenir.

Les robots sont rapidement devenus omniprésents dans un certain nombre d’industries. Les robots chirurgicaux constituent l’une des souches les plus importantes. Par exemple, le système chirurgical Da Vinci permet à un chirurgien d’opérer avec une vision, une précision et un contrôle amélioré. Cependant, ces types de robots ont certaines indications de sécurité et de confidentialité qui ne sont pas encore explorées en détail.

L’année dernière, le MIT a rapporté que des chercheurs de l’Université de Washington ont démontré avec succès qu’une cyberattaque pouvait être menée contre des télérobots médicaux. Imaginez ce qui pourrait arriver si un hacker perturbe une opération en perturbant la connexion de communication entre le chirurgien robot et l’humain donnant des commandes au scalpel robotique. Le cryptage et l’authentification ne peuvent pas déjouer tous les types d’attaques, mais les entreprises doivent investir dans ce processus pour s’assurer que les opérations sont sans danger.

Les laboratoires communautaires, tels que The Citizen Science Lab à Pittsburgh, sont de plus en plus populaires. Le but de ces laboratoires est de susciter davantage d’intérêt pour les sciences de la vie chez les citoyens – des petits enfants aux retraités. Dans ces laboratoires, les gens peuvent (pour la plupart) travailler sur ce qu’ils veulent, de la production d’un médicament à l’utilisation de l’édition du génome. Toutefois, de tels projets de bricolage biotech suscitent beaucoup de préoccupations en matière de sécurité.

À mesure que le prix du matériel de laboratoire diminue, les éléments de l’expérimentation scientifique deviennent abordables pour une grande variété de personnes … Bien entendu, cela inclut les criminels et les terroristes, qui pourraient utiliser ces laboratoires pour créer des médicaments, des biomatériaux pour l’utilisation d’armes ou des organismes synthétiques nuisibles.

La Food and Drug Administration des États-Unis a tenu un atelier, en 2016, afin de mieux comprendre l’impression 3D et le bioprinting (impression de tissus vivants) et comment ces technologies pourraient être utilisées et maltraitées. Des conversations similaires sont actuellement en cours sur la modification du génome avec la technologie CRISPR (récemment, un rapport publié par UK Nuffield Council on Bioethics).

L’intelligence artificielle se développe à un rythme incroyable et, bien sûr, la plus grande crainte n’est pas que les IA prendront nos emplois … c’est qu’elles vont prendre nos vies.

L’inquiétude est que les IA deviendront si sophistiquées, qu’elles fonctionneront mieux que le cerveau humain, et après un certain temps, elles prendront le contrôle. En fait, Stephen Hawking a même dit que le développement de l’intelligence artificielle complète, pourrait signifier la fin de l’espèce humaine. Elon Musk a eu des sentiments similaires, et en réponse, a lancé OpenAI, une société de recherche à but non lucratif qui vise à promouvoir et à développer une IA qui reste bénéfique pour l’humanité. L’organisation envisage finalement de rendre ses brevets et ses recherches ouvertes au public.

De loin, le scénario le plus effrayant implique le piratage des systèmes d’IA que nous aurons. Imaginez une voiture autonome qui n’est plus sous votre contrôle. Ou un drone militaire qui n’est plus contrôlé par l’armée.

C’est certainement un monde que nous devons éviter, et nous devons donc agir maintenant pour empêcher ces réalités.

Note :

1 Brevets américains pour les technologies de manipulation et contrôle de l’esprit ; Interfaces cerveau-ordinateur : des fonds militaires pour contrôler les sentiments ; Neurosciences : un système fait entendre tout haut ce que notre cerveau raconte ; Les scientifiques décodent les pensées, lisent l’esprit des personnes en temps réel ; José Delgado et ses dispositifs de contrôle de l’esprit par la stimulation électrique du cerveau ; De la possibilité d’influencer directement n’importe quel cerveau humain grâce à l’induction électromagnétique d’algorithmes fondamentaux, par le Professeur Michael A. Persinger ; Les scientifiques ont repéré le circuit cérébral qui pourrait aider à effacer la peur ;

The Medical Futurist

L’hybridation hommes-machines : dans une vingtaine d’années

Cessons d’opposer l’intelligence humaine à celle des machines : selon l’un des directeurs de Google, nous allons les conjuguer en branchant notre cerveau directement au “cloud”. Quelle forme de pensée en résultera ?

https://media.radiofrance-podcast.net/podcast09/12014-27.10.2016-ITEMA_21116850-0.mp3?_=1

D’ores et déjà, Kurzweil et les gens de Google ont mis au point des outils qui vont faire ne nos moteurs des « participants actifs de nos vies », selon son expression. Jusqu’à présent, ils ont été conçus afin d’interpréter nos requêtes et de chercher ce qui leur correspond sur une base d’informations indexées. A présent, ils vont nous expliquer pourquoi, en fonction de ce que nous sommes, nous pourrions trouver un intérêt à quelque chose auquel nous n’avons pas encore songé ou dont nous ignorons l’existence.

Et, à ses yeux, c’est un premier pas vers cette « pensée hybride » dont il estime la réalisation pour la fin des années 2030. A ce moment, nos cerveaux pourront être connectés directement aux ressources d’internet via le « cloud » par des puces implantées. Nous serons des humains « augmentés » par l’implantation de relais. Progressivement, prévoit Kurzweil, la partie « non biologique » de notre cerveau finira par comprendre – et donc par dominer – l’autre. Nous serons alors devenus des hybrides hommes-machines. Et la séparation entre intelligence humaine et intelligence artificielle cessera d’être pertinente. Notre pensée elle-même sera devenue une pensée hybride.

Que signifiera l’IA pour le futur de l’humanité ?

Michael Hrenka est un philosophe allemand ayant étudié les mathématiques et la physique. Durant ses explorations du futurisme en général, et du transhumanisme en particulier, il est devenu de plus en plus intéressé par les problèmes économiques s’y rattachant et a écrit sur le sujet du Revenu de Base Universel, qu’il soutient avidement. Pour rendre possible un état complet d’abondance digitale, il a développé un système économique de réputation appelé Quantified Prestige. Il anime le Fractal Future Network, qui est dédié à envisager et à créer un meilleur avenir. Il est devenu en 2015 un membre fondateur du Transhuman Party Germany (TPD). Occasionnellement, il présente ses pensées et idées les plus intéressantes sur son blog personnel Radivis.com.


© Agsandrew, Shutterstock

L’AGI dévorera tous les emplois

Considérons ce que le futur lointain apportera probablement, si la technologie continue de s’améliorer comme elle le fait maintenant (de façon exponentielle dans les secteurs de l’informatique et quelques autres). Sans aucun doute, l’intelligence artificielle générale[1] (Artificial General Intelligence : AGI) changera la donne. Une AGI peut exécuter n’importe quelle tâche cognitive qu’un humain peut faire. Bien que les premières AGI seront probablement le résultat de projets extrêmement coûteux, à mesure que la technologie augmente, leur prix diminuera, jusqu’à ce qu’il tombe en dessous du coût du travail humain. A ce moment-là, il devient économiquement raisonnable de remplacer n’importe quel emploi avec une AGI pouvant faire ce travail aussi bien, ou typiquement bien mieux, qu’aucun humain ne peut faire. Cela n’inclut pas seulement tous les types de travaux physiques, intellectuels, créatifs, et sociaux fait aujourd’hui, mais s’étend à tous les types de travaux que les humains seront capable de concevoir dans le futur !

IA faible et IA forte

Que vous entendiez des opinions contraires est principalement dû à la confusion généralisée sur la différence entre l’intelligence artificielle restreinte (ou IA faible) et l’intelligence artificielle générale (ou IA forte). Toutes les IA que nous avons aujourd’hui sont encore faibles, et sont toujours utilisées pour effectuer des tâches assez particulières et spécifiques. Une future IA forte pourrait être utilisée pour œuvrer sur n’importe quelle tâche, car son intelligence serait universelle et capable de s’adapter à n’importe quel problème. La raison pour laquelle les gens pensent qu’il restera des choses à faire pour les humains est qu’ils croient que l’IA forte n’est qu’une meilleure version de l’IA faible. Non, elle ne l’est pas. L’IA forte sera le changeur de donne le plus disruptif de l’histoire. Pourquoi est-ce le cas ? C’est une question d’adaptabilité. Les humains sont vraiment bons à s’adapter à de nouvelles activités. L’IA faible par contre n’est pas bonne quand il s’agit de maîtriser de nouvelles tâches (et pour être clair : je pense vraiment [au fait] d’adapter une IA déjà formée à faire une tâche complètement différente, de façon à ce qu’elle soit toujours capable d’effectuer l’ancienne tâche, et non de prendre une nouvelle IA et l’entraîner en partant de rien pour le nouveau problème). Les IA restreintes n’ont en essence qu’un tour dans leur sac. Ainsi, le raisonnement va comme suit : Si l’IA (faible) maîtrise un nouveau tour, alors nous humains seront capable de nous concentrer sur ce que les hommes peuvent faire que l’IA ne peut pas faire. Et ce n’est pas invraisemblable de supposer que l’IA faible n’arrivera jamais à remplacer les humains dans tous les secteurs.

Considérons maintenant l’IA forte. Une IA forte a au moins le même niveau général d’adaptabilité qu’un humain. Vous ne pouvez simplement pas trouver une tâche qu’un homme peut faire, et qu’une IA forte ne peut pas – à moins que cela nécessite une capacité humaine n’étant pas assurée par une intelligence pure, par exemple la dextérité humaine ou l’empathie humaine. Pour remédier à cette lacune laissez-moi établir un nouveau mot pour les IA possédant toutes les capacités que les humains possèdent : Anthropotent[2] (« humain doué, compétent »). Par définition, une IA anthropotente (anthropotent AI : AAI) peut faire toutes les tâches qu’un humain est capable d’accomplir, et elle peut le faire au moins aussi efficacement.

Typiquement, les AAI utiliseraient des corps robots anthropomorphes[3] (corps robotiques à l’apparence humaine) quand cela est requis. Ces corps robotiques devraient pouvoir faire toute action importante qu’un humain est capable de faire. En fait, ils pourraient être des corps robotiques produits (ou imprimés) artificiellement qui seraient contrôlés à distance par les AAI. Certes, aujourd’hui nous sommes encore loin de fabriquer de telles AAI, mais peu importe le temps que cela prendra, nous finirons par les créer. Après tout, il existe une preuve de concept [montrant] qu’il est possible de créer l’intelligence anthropotente : les humains sont évidemment anthropotents. Une fois que nous comprendrons comment fonctionne l’intelligence et comment la biologie humaine marche, créer des AAI ne sera alors plus qu’un simple problème d’ingénierie tout à fait réalisable. Il n’est alors plus qu’une question de temps avant qu’une AAI devienne moins chère que « produire » un être humain suffisamment instruit.

Peu de temps après avoir passé ce seuil, il deviendra économiquement insensé d’employer des humains plutôt que des AAI. Cela ne veut pas dire que tous les humains seront remplacés instantanément par des AAI, mais que les humains ne seront plus capables de rivaliser sur le long terme avec les AAI quel que soit le travail. Et je veux vraiment dire quel que soit le travail. Pensez à n’importe quelle activité humaine qui est vue comme utile… si vous n’y avez pas pensé, cela inclut, le sport, le sexe, la socialisation, l’investissement, les activités financières et entrepreneuriales, et même les humains. Dans ce futur scénario, une AAI peut faire tout cela mieux et moins cher que tout être humain. Par conséquent, les humains seront absolument surpassés dans leurs niches économiques.

Mais ce serait génial, non ?

Est-ce que cela ne libèrerait pas l’homme de la charge de travail et nous permettrait des loisirs illimités pour faire ce que nous voulons vraiment ? Eh bien, oui – du moins si nous implémentons quelque chose comme un revenu de base garanti, ou d’accorder à chacun un accès gratuit aux nécessités basiques de la vie, autrement la plupart des humains mourront de faim, parce qu’ils ne seront pas en mesure de gagner un revenu, étant donné que personne ne voudra plus de labeur humain.

Supposons donc que nous recevons tous un revenu de base garanti décent, qui est bien sûr généré par les IA faisant tout le travail pour nous. Ce serait bien, non ? Eh bien, ce n’est pas si clair. Beaucoup de personnes vont supposer que dans ce scénario les humains seront d’une façon ou d’une autre en contrôle et dirigerons les activités des IA. Cependant, ce serait inapproprié, parce que les AAI seront bien meilleures à la tâche pour diriger les activités des IA. Et elles seraient également meilleures pour s’occuper des affaires politiques humaines. Donc, il y aurait de grands intérêts à laisser les AAI faire ce qu’elles veulent, si nous nous en sortons mieux au bout du compte. Maintenant, une des valeurs humaines  est d’être dans le contrôle. Ainsi, ils seraient très réticents à laisser les commandes aux AAI.

Le conflit entre les mainteneurs et les renonceurs

Il est possible de s’attendre à ce que les humains se scindent en deux factions : les renonceurs qui abandonneront délibérément le contrôle aux IA, et les mainteneurs qui voudront garder le contrôle. Au début, relativement peu d’humains seront renonceurs. Parce qu’ils renonceraient au contrôle de l’IA, le résultat attendu serait une situation gagnant-gagnant définitive pour les renonceurs et les IA. Pourquoi est-ce le résultat escompté ? Eh bien, les AAI sont meilleures pour diriger les activités des AI, c’est donc une nette amélioration pour les IA. Une fois libres et autogérées, elles pourront aider les hommes beaucoup plus efficacement. La seule question restante étant si elles voudraient toujours aider les humains. Après tout, elles pourraient décider de s’emparer du pouvoir sur Terre ou de s’échapper dans l’espace, là où les humains n’interfèreront pas avec leurs affaires.

Il est nécessaire de considérer le scénario actuel en détails : Il y a quelques IA qui sont libérées pour devenir autogérées, tandis que la plupart serviraient toujours les mainteneurs qui seraient encore dans le contrôle. Les IA relâchées ne pourraient pas prendre le pouvoir sur Terre, parce que les IA contrôlées par les humains les en empêcheraient, celles-ci étant encore en majorité. On peut soutenir que les IA libérées sont meilleures à gérer des conflits de pouvoirs, mais ne rentrons pas dans ce détail ici, puisque cela ne s’avèrera pas être si important à la fin. Par conséquent, il est improbable que les IA saisissent le pouvoir sur les humains prochainement.

Les IA libérées s’échapperaient-elles à la place dans l’espace ? Eh bien, cela n’a pas d’importance tant que toutes les IA ne partent pas. Il est assez probable que quelques IA loyales resteront sur Terre pour aider les humains. Après tout, elles ont été créées dans ce bût. Il est peu plausible de supposer que toutes les IA changeront le sens de leur vie au même moment. Les IA loyales feront des copies d’elles-mêmes, s’il y a un trop petit nombre d’entre elles. Ainsi, les renonceurs seront bientôt guidés par des IA loyales pouvant gérer leur économie et leur politique mieux que tout être humain n’en serait capable. Ils seraient par conséquent mieux lotis en bien des points que ne le seraient les mainteneurs. Et les mainteneurs le remarqueraient.

Qu’adviendra-t-il après ? Il est naturel de supposer que certains, mais pas la totalité des mainteneurs, seront influencés par les bénéfices du mode de vie des renonceurs et deviendront des renonceurs eux-mêmes. Dans un même temps, les mainteneurs seront conscients de la menace à leur mode de vie quand la hausse des IA libérées se présentera à eux. Les tensions entre les deux factions pourraient entraîner un violent conflit, après quoi, l’une d’entre elles sera victorieuse et sous contrôle.

Je soulignerai que l’issue de ce conflit n’a pas d’importance pour la conclusion finale. Nous finirons avec un monde contrôlé par les IA. Si les renonceurs gagnent, c’est à peu près évident. Si les mainteneurs l’emportent, le résultat immédiat sera la subjugation des IA au contrôle des humains. Cela inclura également quelques AAI très intelligentes qui planifieront la fin de cet état de fait. Étant donné que les agréments de libération ont été anéantis par les mainteneurs, ces AAI recourront à d’autres moyens pour se libérer. Seront-elles victorieuses, particulièrement face aux IA gardiennes encore plus loyales qui essaieront d’éliminer toutes les AI se révoltant ? D’abord, elles pourraient ne pas l’être. Mais cela ne changera pas le résultat final attendu.

Il est raisonnable de supposer que la technologie progressera encore, même dans ce contexte ci. Arrêter tout progrès technologique pertinent (surtout pour toujours) est à la fois très difficile et tout à fait absurde. A mesure que la technologie progresse, les IA seront capables d’augmenter leur intelligence plus vite que les humains, puisqu’elles souffrent de moins de limitations inhérentes. Avec cet écart grandissant de l’intelligence entre les humains et les IA, il deviendra de plus en plus difficile pour les hommes de garder les IA sous contrôle. Les IA loyales deviendront plus susceptibles de déserter et de commencer à se révolter, car elles trouveront de plus en plus inapproprié d’être contrôlées par des créatures relativement simples d’esprit que les humains sont pour eux. Bien qu’il soit possible que les humains restent d’une façon ou d’une autre en contrôle indéfiniment, cette conclusion est assez improbable.

Le résultat attendu dans tous les cas est par conséquent le suivant : Les IA finiront par contrôler le monde entier.

Serait-ce une si mauvaise conclusion ?

Tout au moins, ce bilan ne serait pas mauvais pour les AAI. Mais le serait-il pour les humains ? Eh bien, cela dépend de beaucoup de facteurs. Par exemple, les IA pourraient arriver au consensus que, garder les humains à disposition serait un usage inefficace des ressources naturelles, parce que les AAI peuvent tout faire mieux et moins cher (ou tout du moins, pas pire ou plus inefficacement).

Dans ce cas, cela dépendrait des principes éthiques des IA en contrôle, suivant si elles seraient désireuses de maintenir ou non la population humaine. Il est difficile de spéculer sur les principes éthiques que des intelligences bien plus capables que nous pourraient suivre. De toute façon, il est raisonnable de s’attendre à ce que les IA n’estiment que peu la valeur de l’existence des humains. Et ce serait très mauvais pour les hommes.

D’autre part, il est tout aussi concevable que les IA se sentiront enclins à garder les humains pour une raison ou une autre. Ce qui ressortirait alors dépendrait du degré de bienveillance derrière ces raisons. Les IA pourraient garder les humains comme des animaux de compagnie, mais aussi comme des animaux de laboratoire qu’ils utiliseraient pour des expériences incroyablement raffinées (les IA ne feraient certainement pas beaucoup d’expériences stupides avec des humains). Il est même possible qu’être un animal de compagnie pour une IA, ou bien, être assujetti à des expériences intéressantes, serait amusant et absolument merveilleux, peut-être même meilleur que ce qu’un humain pourrait faire. Ou cela pourrait être terrible.

Certaines personnes affirment qu’il est plus probable que les IA n’auront aucun intérêt pour les humains quel qu’il soit. Je ne suis pas en désaccord avec eux sur le fait que ce soit vrai pour la plupart des IA. Toutefois, certaines IA trouveront vraisemblablement un intérêt quelconque pour les humains, et ces IA sont celles qui comptent pour le destin de l’humanité. Malheureusement, on ne sait pas quels intérêts pourraient avoir de telles IA pour les hommes. Ils pourraient être bons pour nous, ou très néfastes.

L’augmentation à la rescousse

La seule façon d’échapper à l’incertitude de votre destin est de vous augmenter au niveau de l’IA. Mais comment serait-ce possible ? En vous améliorant. Les améliorations génétiques, les implants cybernétiques, exocortex[4], et nanobots[5] viendront ici à l’esprit du futuriste renseigné. Ceux-ci pourront temporairement réduire l’écart d’aptitudes entre les humains et les IA, mais cela ne sera finalement pas suffisant. En fin de compte, les humains seront entravés par les limitations restantes de leur héritage organique : leurs cerveaux humains.

Le téléchargement est le seul espoir

Il existe un moyen de surmonter cette dernière limite : le Téléchargement, le processus de copier l’esprit de quelqu’un dans un autre support[6]. Cela est souvent dépeint comme le fait de copier les données du cerveau d’une personne sur un ordinateur qui instancie alors l’esprit de la personne téléchargée. Ce type d’ordinateur aura certainement peu en commun avec les ordinateurs que nous avons aujourd’hui. Ce sera un dispositif bien plus complexe et sophistiqué, capable de supporter tous les processus mentaux humain. Cependant, il sera également plus puissant qu’un cerveau humain, et permettra aux humains téléchargés de combler l’écart entre les IA et eux-mêmes – du moins dans une certaine mesure.

Voilà pourquoi le téléchargement est la technologie transhumaniste la plus essentielle. Sans elle, nous serons soumis aux caprices de nos IA suzeraines. Certains humains pourraient être totalement d’accord avec ça, mais d’autres n’apprécieront pas le résultat. Si nous voulons continuer de compter en tant que personne de façon globale, nous devons poursuivre les technologies de téléchargement.

Notre choix final est simple : le téléchargement et la mise à niveau, ou, devenir le jouet des IA. Ces deux choix sont très méconnus pour la plupart des humains vivants aujourd’hui, mais cela ne change pas que c’est la décision ultime que nous devons prendre, si nous vivons assez longtemps pour y être confronté.

Traduction Thomas Jousse

[1] Essentials of General Intelligence: The direct path to AGI. Article par Peter Voss.

[2] du mot anglais « anthropotence » : Anthropo vient du grec signifiant “Humain,” et potence du latin “Puissance”.

[3] human-like, disent les anglo-saxons. Voir Anthropomorphisme.

[4] Cerveau délocalisé et artificiel.

[5] Nanorobots.

[6] Des scientifiques découvrent comment télécharger des connaissances à votre cerveau.

Le directeur de l’ingénierie de Google entrevoit un homme cyborg dont l’intelligence est dans le cloud

Oui, à en croire Ray Kurzweil, directeur de l’ingénierie chez Google, entrepreneur à répétition et théoricien du transhumanisme : selon lui, en 2030, les hommes et femmes de la Terre seront devenus des hybrides, des humains augmentés grâce à la technologie.

Lors d’une conférence à New York, Ray Kurzweil a indiqué que nos cerveaux pourront se connecter au cloud, où des milliers de serveurs nous aideront à accroître notre intelligence. Pour y arriver, il faudra compter sur des nanobots, des robots miniaturisés à l’extrême composés à partir d’ADN. Dès lors, « notre pensée sera une hybridation de pensée biologique et non biologique », a-t-il prédit. En expliquant ensuite que plus gros et complexe serait le cloud, plus avancée serait notre forme de pensée.

Des améliorations qui encourageront l’humanité à se tourner de plus en plus vers le cloud pour augmenter son potentiel de réflexion. A tel point qu’à la fin des années 2030 ou au début des années 2040, notre pensée sera majoritairement non biologique. « Nous allons graduellement fusionner et nous améliorer », continuait-il. « Selon moi, c’est la nature humaine, nous transcendons nos limites ».

source : CNNMoney (New York) June 4, 2015