Stephen Hawking, transhumaniste ?

Des essais posthumes révèlent que Stephen Hawking a prédit la race des “surhumains” et croyait au transhumanisme.

Stephen Hawking a suscité la controverse en suggérant qu’une nouvelle race de surhumains pourrait se développer à partir de personnes fortunées choisissant de modifier leur ADN et celui de leurs enfants.

Le scientifique a présenté la possibilité que le génie génétique pourrait créer une nouvelle espèce de surhumain qui pourrait détruire le reste de l’humanité.

Dans Brèves réponses aux grandes questions (Brief Answers to the Big Questions) il répond aux questions que ses lecteurs lui ont posées au cours des longues décennies de sa vie professionnelle et de sa maladie invalidante.

L’humanité survivra-t-elle ? Ça reste à voir.
Faut-il coloniser l’espace ? Oui.
Est-ce que Dieu existe ? Non.
Les humains génétiquement modifiés menacent-ils l’humanité ? Oui.

« Je suis sûr qu’au cours de ce siècle, les gens découvriront comment modifier à la fois l’intelligence et les instincts tels que l’agression », a-t-il écrit.

« Des lois vont probablement être adoptées contre le génie génétique chez l’homme. Mais certaines personnes ne pourront pas résister à la tentation d’améliorer les caractéristiques humaines, telles que la mémoire, la résistance aux maladies et la durée de vie. »

« Une fois que de tels surhumains apparaîtront, il y aura des problèmes politiques importants avec des humains non améliorés, qui ne pourront pas rivaliser », a-t-il écrit. « Vraisemblablement, ils mourront ou deviendront sans importance. Au lieu de cela, il y aura une course d’êtres auto-conçus qui progressera à un rythme toujours croissant. »

Les commentaires font référence à des techniques telles que Crispr-Cas9, un système d’édition d’ADN inventé il y a six ans, permettant aux scientifiques de modifier des gènes nuisibles ou d’en ajouter de nouveaux. L’hôpital Great Ormond Street de Londres a eu recours à l’édition de gènes pour traiter les enfants atteints d’une forme de leucémie par ailleurs incurable.

En dépit de son talent, il était tracassé par notre dépendance croissante à l’égard de la technologie.

« Notre avenir est une course entre la puissance croissante de notre technologie et la sagesse avec laquelle nous l’utiliserons. Faisons en sorte que la sagesse gagne », a-t-il écrit.

The Guardian, BioEdge

Hacking Darwin : génie génétique et avenir de l’humanité

Le dernier livre de Stephen Hawking

Voici ce que les experts pensent des prédictions posthumes de Stephen Hawking sur l’intelligence artificielle, le piratage de gènes et la religion

ISBN-13: 978-1984819192

Dans son dernier livre : Brief Answers to the Big Questions » publié à titre posthume, Stephen Hawking y énonce un certain nombre d’affirmations audacieuses concernant l’avenir de l’édition génétique, de l’intelligence artificielle et même de la religion. Voici comment les experts évaluent ses prédictions.

Seigneurs surhumains

Stephen Hawking haussa le ton en affirmant que des personnes puissantes pirateraient leurs gènes pour devenir plus intelligentes, plus fortes et plus longtemps. Finalement, il écrit dans son dernier livre, le reste d’entre nous «mourra ou deviendra sans importance». De nombreux généticiens considèrent déjà cela comme inévitable. Certains craignent que les gens utilisent CRISPR pour modifier leurs gènes avant que la technologie ne soit considérée comme sûre, ils préconisent de nouvelles lois pour protéger les humains non augmentés.

« Nous aurons probablement besoin de nouvelles structures de supervision internationales, afin de ne pas réaliser ces exemples dystopiques du “Nouveau Grand Monde” », a déclaré George Daley, doyen de la faculté de médecine de la Harvard Medical School, au Sommet international sur l’édition du génome humain en 2015.

> Qu’est ce que le Transhumanisme ?

L’intelligence artificielle tueuse

Au cours de sa vie, Stephen Hawking a parlé de sa peur de la puissante intelligence artificielle. Il réitère ses réserves dans ce livre, écrivant qu’ignorer la menace de l’intelligence artificielle super puissante pourrait être la «pire erreur de l’humanité». Cela pourrait nous détruire avec des armes que «nous ne pouvons même pas comprendre», a-t-il écrit.

Il y a un débat sur ce point. De nombreux technologues, y compris le milliardaire Elon Musk, conviennent que l’IA avancée pourrait constituer une menace existentielle pour l’humanité.

Mais d’autres le minimisent. «Il n’y a aucune raison à l’heure actuelle de s’inquiéter des algorithmes d’intelligence artificielle auto-conscients qui fixent leurs propres objectifs et deviennent fous», a déclaré à Fortune Richard Socher, professeur de machine learning à Stanford.

Et un sondage auprès de chercheurs en intelligence artificielle a révélé que la plupart des personnes interrogées pensent qu’il faudra au moins 25 ans pour créer une super intelligence artificielle – nous avons donc au moins un peu de temps pour nous préparer.

Ni dieux ni maîtres

«Croire à l’après-vie n’est qu’un vœu pieux», écrit-il, ajoutant qu’il n’y a pas de Dieu.

De nombreux scientifiques sont certainement d’accord avec Stephen Hawking sur cette affirmation, mais pas tous. Une enquête menée en 2015 a révélé que de nombreux chercheurs du monde entier étaient religieux, mais que dans la plupart des pays, les scientifiques sont généralement moins religieux que les non-scientifiques.

Stephen Hawking croyait que le Big Bang nous avait donné notre univers, et non pas un dieu jouant avec l’idée de la création. Il croyait que la mécanique quantique avait déclenché une étincelle qui avait fait que notre univers se développait d’une particule subatomique à une étendue infinie dont nous ne retrouverions jamais les angles. Cela aurait pu “émerger sans violer les lois connues de la nature”, écrit-il, dans LiveScience.

Les travaux de Stephen Hawking sur la mécanique quantique lui ont également fourni une explication de ce qui a précédé l’univers. Ce n’était pas un dieu solitaire qui claquait des doigts et créait la vie. La théorie quantique explique que le Big Bang est né d’une singularité, comme un trou noir, où l’espace et le temps étaient tellement déformés qu’ils n’existaient même pas. Rien ne s’est passé avant le Big Bang, car le temps ne s’est pas passé.

« La science peut faire un meilleur travail pour expliquer le miracle de la vie », déclare Stephen Hawking.

En effet, des scientifiques bien respectés ont également affirmé que la conscience humaine vit après la mort, qu’il n’y a pas de mort de la conscience – juste la mort du corps. Que la mécanique quantique permettrait à la conscience de vivre après la mort du corps.

L’IA pourrait égaler les capacités d’apprentissage humaines d’ici 2050

Le président-directeur général de Breyer Capital, Jim Breyer, a parlé à beaucoup d’experts de l’intelligence artificielle, et sa plus grande solution est que l’intelligence artificielle développera les mêmes capacités d’apprentissage que les humains d’ici 2050. Breyer est excité par le bien qui viendra des applications d’intelligence artificielle.

“Lorsque je visite les campus et que je parle aux experts de l’intelligence artificielle, il y a une année médiane de 2050 où ils pensent que la capacité d’auto-apprentissage de l’intelligence artificielle sera singulière et sera au niveau de l’intelligence humaine”, a-t-il expliqué. “Alors, 2050 ? Est-ce que cela se produira ? Beaucoup de gens pensent que ça ne se produira pas. Ce sont des données médianes de certains des meilleurs chercheurs de l’intelligence artificielle dans le monde”.

Beaucoup de gens dans l’industrie de la technologie ont parlé de l’intelligence artificielle et de son potentiel – pour le meilleur et pour le pire. Le chef de la direction de Tesla, Elon Musk, a considéré l’intelligence artificielle comme la plus grande menace pour la civilisation, alors que Stephen Hawking a déclaré qu’elle pourrait avoir un impact négatif sur les emplois de la classe moyenne et conduire potentiellement à la fin de l’humanité, ce qui a entraîné l’élaboration d’un plan pour arrêter l’apocalypse de l’IA.

CNBC

Stephen Hawking : “Je suis convaincu que les humains doivent quitter la Terre”

En mai dernier, le physicien renommé Stephen Hawking a encore fait une prédiction de fin du monde. Il a déclaré que l’humanité avait 100 ans à vivre sur Terre, ce qui ampute de 900 années la prédiction qu’il a faite en novembre 2016, qui donnait plus de 1 000 ans à l’humanité. Avec sa nouvelle estimation, Hawking a suggéré que la seule manière de prolonger l’existence de l’humanité est pour nous de trouver une nouvelle maison, sur une autre planète.

Au cours du Festival de Starmus à Trondheim, en Norvège, Hawking a réitéré son point de vue :

« Si l’humanité doit continuer pendant encore un million d’années, notre avenir consiste à aller hardiment là où personne d’autre n’est allé avant ».

Plus précisément, Hawking a déclaré que nous devrions viser un autre alunissage pour 2020, et travailler pour construire une base lunaire dans les 30 prochaines années – des projets qui pourrait nous aider à nous préparer à envoyer des humains sur Mars d’ici 2025.

“Nous manquons d’espace et les seules endroits où aller sont d’autres mondes. Il est temps d’explorer d’autres systèmes solaires. Nous disperser pourrait être la seule chose qui nous sauve de nous-mêmes. Je suis convaincu que les humains doivent quitter la Terre”, a ajouté Hawkins.

“J’espère que cela unira des nations compétitives dans un seul but, faire face au défi commun pour nous tous”, a-t-il déclaré. “Un nouveau programme spatial et ambitieux enthousiasmerait (les jeunes) et stimulerait l’intérêt pour d’autres domaines, comme l’astrophysique et la cosmologie”.

Le directeur de l’Agence spatiale européenne (European Space Agency – Esa) Jan Woerner a déclaré qu’il envisageait la construction d’une base lunaire pour remplacer la Station Spatiale Internationale en 2024 et collaborerait avec la Russie afin d’envoyer une sonde pour évaluer un site potentiel. La Chine s’est fixé comme objectif d’envoyer un astronaute sur la Lune.

La NASA n’a pas l’intention de revenir sur la Lune, concentrant ses efforts sur l’envoi d’astronautes sur Mars dans les années 2030. Bien que si d’autres agences spatiales commençaient à collaborer à la construction d’une base lunaire, il serait difficile de ne pas voir participer la NASA.

Le professeur Hawking a déclaré qu’il n’y avait pas d’avenir à long-terme pour notre espèce à rester sur Terre : elle serait frappée par un nouvel astéroïde, ou éventuellement engloutie par notre propre Soleil. Il a ajouté que voyager vers des mondes lointains “élèverait l’humanité”.

traduction Benjamin Prissé

BBC

Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ?

Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ?
Livre de Jean-Gabriel Ganascia

L’intelligence artificielle va-t-elle bientôt dépasser celle des humains ? Ce moment critique, baptisé « Singularité technologique », fait partie des nouveaux buzzwords de la futurologie contemporaine et son imminence est proclamée à grand renfort d’annonces mirobolantes par des technogourous comme Ray Kurzweil (chef de projet chez Google !) ou Nick Bostrom (de la vénérable université d’Oxford). Certains scientifiques et entrepreneurs, non des moindres, tels Stephen Hawking ou Bill Gates, partagent ces perspectives et s’en inquiètent.
Menace sur l’humanité et/ou promesse d’une transhumanité, ce nouveau millénarisme est appelé à se développer. Nos machines vont-elles devenir plus intelligentes et plus puissantes que nous ? Notre avenir est-il celui d’une cybersociété où l’humanité serait marginalisée ? Ou accéderons-nous à une forme d’immortalité en téléchargeant nos esprits sur les ordinateurs de demain ?

Voici un essai critique et concis sur ce thème à grand retentissement par l’un des meilleurs experts des humanités numériques.

Jean-Gabriel Ganascia est professeur à l’université Pierre-et-Marie-Curie, où il mène des recherches sur l’intelligence artificielle au Laboratoire informatique de Paris 6 (LIP6). Il est président du comité national d’éthique du CNRS et a publié divers ouvrages dont le précurseur L’Âme machine, au Seuil en 1990.

 

De quoi discutent Larry Page, Elon Musk et Yann Le Cun ? (Beneficial AI 2017)

« Technology is giving life the potential to flourish like never before… or to self-destruct. Let’s make a difference ! » Future of Life Institute

En janvier dernier s’est tenu à Asilomar (Californie) le second colloque organisé par Future of life Institute (FLI) dont l’objectif était d’anticiper l’évolution de l’intelligence artificielle afin qu’elle soit bénéfique pour l’humanité.

Cette association a été créée en 2014 par Jaan Tallinn, informaticien et cofondateur de Skype et Kazaa, Meia Chita-Tegmark (Université de Boston), Vicktorya Krakovna (DeepMind) et les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT).

On trouve au sein du comité scientifique Stephen Hawking (Cambridge), Erik Brynjolfsson (MIT), Martin Rees (Cambridge), Nick Boström (Oxford), Elon Musk (Tesla, Space X), etc1. En 2015, ce dernier a fait don au FLI de 10 millions de dollars.

L’objectif de cette institution est d’anticiper les risques existentiels (qui menacent l’humanité toute entière) anthropiques (du fait de l’homme) comme le réchauffement climatique global, l’arsenal nucléaire2, les biotechnologies mais aussi et surtout ceux liées à l’IA3.

En janvier 2015, le FLI avait publié une lettre ouverte sur les risques/bénéfices liés à l’IA qui a reçu à ce jour plus de 8000 signatures.

L’idée : impulser une réflexion pluridisciplinaire afin de stimuler des recherches dans le sens d’une intelligence artificielle puissante (robust AI) tout en prenant soin qu’elle soit bénéfique pour la société. L’esprit : « Our AI systems must do what we want them to do ».

Ce colloque interdisciplinaire constitué de conférences et d’ateliers (workshops) fait suite à celui qui s’était déroulé à Puerto Rico en 2015 et qui avait réuni des chercheurs du champ de l’IA mais aussi des spécialistes de l’économie, du droit, de l’éthique et de la philosophie.

Au programme, cette année, se trouvait un panel de « célébrités » comme Erik Brynjolfsson (MIT), Yann Le Cun (Facebook/NYU), Ray Kurzweil (Google), Andrew McAfee (MIT), Nick Boström (Oxford), Elon Musk (Tesla/Space X), David Chalmers (NYU), Stuart Russel (Berkeley), Peter Norvig (Google), Larry Page (Google), Yoshua Bengio (Montreal Institute for learning algorithms), Oren Etzioni (Allen Institute), Martin Rees (Cambridge/CSER), Wendell Wallach (Yale), Eric Drexler (MIT), Eliezer Yudkowsky (MIRI), etc4. Les thématiques des conférences et workshops, très riches, portaient sur l’impact à venir de l’automatisation, le concept de superintelligence, les chemins possibles vers l’IA « réelle », la gestion des risques liés à l’IA, etc. On trouvera ici les PowerPoints et vidéos des intervenants.

Des discussions sont nées 23 principes dits « Asilomar » signés d’ores et déjà par plus de 3500 personnalités dont 1171 du champ de l’IA. Non figés, ces principes ont pour objectif de générer des discussions et réflexions sur le site du FLI et ailleurs.

Notes :

2 Une lettre ouverte signée par 3400 scientifiques a récemment été communiquée à l’ONU afin de soutenir son initiative de bannir les armes nucléaires.
3 Depuis quelques années, de nombreuses institutions se sont développées pour anticiper les risques existentiels naturels et anthropogènes. Parmi ces dernières, l’intelligence artificielle est souvent mise en avant. Ainsi, outre le FLI, on citera Machine intelligence research institute (MIRI/Berkeley), Future of humanity institute (FHI/Oxford), Centre for the study of existential risk (CSER/Cambridge), Open AI (Elon Musk), One hundred years study on artificial intelligence (AI100/Stanford), Global catastrophic risk institute (GCRI) et dernièrement Leverhulme centre for the future of intelligence (Cambridge). Sur le Leverhulme centre for the future of intelligence et Center for the study of existential risk on peut lire « Meet Earth’s guardians, the real-world X-men and women saving us from existential threats », Wired, 12 février 2017 ; sur Future of humanity institute Ross Andersen, « Omens », Aeon, 25 février 2013.

Stephen Hawking : l’automatisation et l’IA vont décimer les emplois de la classe moyenne

L’intelligence artificielle et l’automatisation croissante vont décimer les emplois de la classe moyenne, aggravant les inégalités et risquant d’importants bouleversements politiques, a prévenu Stephen Hawking.

Dans une colonne de The Guardian, le célèbre physicien a écrit que « l’automatisation des usines a déjà décimé les emplois dans la fabrication traditionnelle, et la montée de l’intelligence artificielle est susceptible d’étendre cette destruction d’emplois profondément dans les classes moyennes. »

Il ajoute sa voix à un chœur croissant d’experts préoccupés par les effets que la technologie aura sur la main d’œuvre au cours des prochaines années et des décennies. La crainte est que, tandis que l’intelligence artificielle apportera une augmentation radicale de l’efficacité dans l’industrie, pour les gens ordinaires, cela se traduira par le chômage et l’incertitude, car leurs emplois humains seront remplacés par des machines.

La technologie a déjà supprimé de nombreux emplois manufacturiers et ouvriers traditionnels – mais elle est maintenant prête à faire des ravages similaires avec les classes moyennes.

Un rapport publié en février 2016 par Citibank en partenariat avec l’Université d’Oxford a prédit que 47 % des emplois aux États-Unis sont à risque d’automatisation. Au Royaume-Uni, 35 % le sont. En Chine, c’est un énorme 77 % – tandis que dans l’ensemble de l’OCDE, en moyenne 57 %.

Citi indique “des prévisions suggérant qu’il y aura 9,5 millions de nouveaux emplois et 98 millions d’emplois qui vont être remplacés par des machines intelligentes dans l’UE de 2013 à 2025. L’analyse montre que la moitié des emplois disponibles dans l’UE aurait besoin de travailleurs hautement qualifiés.

Oui, l’automatisation et la robotique apporteront des progrès et des avantages aux gens – mais seulement à quelques-uns. Les actionnaires, les principaux bénéficiaires et les personnes bien formées, bénéficieront de la plupart des avantages découlant de la productivité accrue des entreprises et de la demande de rôles techniques et hautement qualifiés.

Pendant ce temps, la majorité de la société – les classes moyennes et, en particulier, les pauvres – connaîtront un bouleversement important et peu de potentiel. Ils seront forcés de se recycler et de déménager puisque leurs anciens emplois seront remplacés par des machines intelligentes.

Rapport de l’ONU : les robots vont remplacer les deux tiers des emplois dans les pays en développement
850 000 emplois supplémentaires vont être automatisés d’ici 2030 au Royaume-Uni
L’intelligence artificielle et l’automatisation : seulement 1,5 % des emplois perdus pourraient être remplacés par les emplois créés
ING Focus Belgique – les emplois les plus « robotisables » (PDF)
L’évolution de l’intelligence artificielle pourrait sonner le glas de nombreuses professions
La Banque d’Angleterre et Bank of America Merrill Lynch annoncent une apocalypse de l’emploi

Le Forum économique mondial, prévoit une « quatrième révolution industrielle » caractérisée par des développements sans précédent dans la génétique, l’ intelligence artificielle, la robotique, la nanotechnologie, l’ impression 3D, et biotechnologie.

Trois des dix plus grands employeurs au monde remplacent maintenant leurs travailleurs par des robots.

L’automatisation va, “à son tour accélérer l’inégalité économique déjà grandissante dans le monde”, a écrit Hawking. “L’Internet et les plates-formes permettent à de très petits groupes d’individus de réaliser d’énormes profits tout en employant très peu de personnes. C’est inévitable, c’est le progrès, mais c’est aussi socialement destructeur.”

Il calcule cette inquiétude économique comme une raison de la montée de la politique populiste de droite en Occident : « Nous vivons dans un monde d’inégalités financières croissantes et non décroissantes, dans lesquelles beaucoup de gens ne voient pas seulement leur niveau de vie disparaître, mais aussi leur capacité à gagner leur vie.

Il n’est pas étonnant alors qu’ils cherchent une nouvelle donne, que Trump et le Brexit auraient pu sembler représenter. Il ne fait aucun doute dans l’esprit des commentateurs que ce fut un cri de colère par des personnes qui estimaient qu’ils avaient été abandonnés par leurs dirigeants. Les préoccupations sous-jacentes à ces votes sur les conséquences économiques de la mondialisation et de l’accélération du changement technologique sont absolument compréhensibles.

Combinée avec d’autres questions – la surpopulation, le changement climatique, la maladie – Hawking avertit de manière inquiétante : « Nous sommes au moment le plus dangereux du développement de l’humanité. L’humanité doit se rassembler si nous voulons surmonter ces défis. »

«Nous pouvons surmonter ces défis. Je dis cela car j’ai toujours été optimiste. Mais il faudra pour cela que les élites, qu’elles soient à Londres ou à Harvard, à Cambridge ou à Hollywood, tirent les leçons de l’année qui vient de s’écouler et apprennent à retrouver une once d’humanité», fait savoir Stephen Hawking.

Stephen Hawking avait déjà exprimé ses préoccupations au sujet de l’intelligence artificielle pour une autre raison – qu’elle pourrait dépasser et remplacer les humains. “Le développement de l’intelligence artificielle pourrait signifier la fin de l’espèce humaine”, a-t-il déclaré fin 2014. “Elle prendrait son envol et se restructurait à un rythme toujours croissant. Les humains, qui, sont limités par l’évolution biologique lente, ne pourraient pas concurrencer, et seraient remplacés”.

Business Insider

TECHNOLOGY AT WORK v2.0 – The Future Is Not What It Used to Be

[su_document url=”https://iatranshumanisme.com/wp-content/uploads/2016/12/Citi_GPS_Technology_Work_2.pdf” width=”640″]

L’histoire de la superintelligence et la question de l’éthique des machines

Publié in Marianne Celka et Fabio La Rocca (dir.), Transmutations, Esprit Critique, Revue internationale de sociologie et sciences sociales, vol. 24, n° 1, été 2016, p. 43-57. Par Vincent Guérin, Docteur en histoire contemporaine.

Résumé : Ce texte a pour objet d’analyser, chez les transhumanistes, le couplage de l’éthique des machines avec les risques inhérents à la superintelligence. La première favorisant l’émergence de la seconde. Par ce biais, nous observons une accentuation du rapprochement de l’homme et de la machine, initié par le paradigme informationnel ; un renversement même avec une machine considérée comme « smarter than us ».

Introduction

En 2014, l’informaticien et cofondateur de Skype Jaan Tallinn a créé The Future of Life Institute (FLI) avec entre autres les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT). Dans le comité scientifique se trouve une constellation de personnalités célèbres comme Stephen Hawking, des auteurs à succès comme Erik Brynjolfsson (MIT Center for Digital Business), mais aussi l’acteur Morgan Freeman (film Transcendance de Wally Pfister, 2015) et l’inventeur et chef d’entreprise Elon Musk. Jaan Tallinn était déjà à l’initiative du Centre For The Study Of Existential Risk (CSER) ou Terminator studies en 2012 à l’Université de Cambridge avec le cosmologiste Martin Rees. Ces deux institutions ont pour ambition, entre autres, d’anticiper les risques majeurs qui menacent l’humanité, notamment ceux inhérents à l’intelligence artificielle (IA).

Dernièrement, Bill Gates, fondateur de Microsoft, lui-même, se dit préoccupé par l’IA. Ces deux institutions et Bill Gates ont un dénominateur commun : Nick Boström. l’auteur de Superintelligence, Paths, Dangers, Strategies (2014), qui a impressionné Bill Gates, est membre du comité scientifique de la FLE et du CSER. Il est professeur à la faculté de philosophie de la prestigieuse Université d’Oxford et fondateur de la Future of humanity Institute (FHI) qui a pour objet d’anticiper les risques majeurs qui menacent l’humanité (existential risks). Ses recherches portent sur l’augmentation de l’homme, le transhumanisme, les risques anthropiques et spécifiquement celui de la superintelligence. En 2008, il a codirigé avec Milan M. Ćirković Global Catastrophic Risks (Boström, Ćirković, 2008). Cet ouvrage dénombre dix risques catastrophiques au sens d’un bouleversement radical qui menacerait l’humanité (anthropiques ou non) 1 . Parmi les risques anthropiques recensés, Eliezer S. Yudkowsky (1979-), chercheur au Machine Intelligence Research Institute à Berkeley (MIRI), développe le chapitre sur l’IA (Yudkowsky, 2008).

Nick Boström et Eliezer Yudkowsky sont transhumanistes, un courant de pensée qui conçoit l’humain, l’humanité comme imparfaits et prône une prise en main de leur évolution par la technologie. En 1998, Nick Boström a fondé avec David Pearce la World Transhumanist Association (WTA) et l’Institute for Ethics & Emerging Technologies (IEET) avec James Hughes.

Plusieurs objectifs irriguent le transhumanisme, dont le devenir postbiologique (posthumain), la superintelligence et l’amortalité (une immortalité relative). Parmi les NBIC, deux technologies ont leur faveur. La première, la nanotechnologie (une construction à partir du bas à l’échelle du nanomètre soit un milliardième de mètre) est en devenir, et la seconde, l’intelligence artificielle générale (IAG) reste un fantasme. Nick Boström et Eliezer Yudkowsky pensent que l’IA favorisera la nanotechnologie, elle-même porteuse d’inquiétude (Drexler, 1986). Eric Drexler, transhumaniste et membre du FHI, a créé en 1986, le Foresight Institute afin de prévenir les risques technologiques et favoriser un usage bénéfique de la nanotechnologie. Qu’est-ce-que la (super) intelligence artificielle ? Quelles sont les corrélations entre le transhumanisme et cette inquiétude montante vis-à-vis de l’IA, ou plus exactement la superintelligence ? Comment et quand pourrait-elle émerger ? Comment s‟articule le complexe dit de Frankenstein et l’éthique des machines ?

pour lire la suite, télécharger le PDF


Sommaire :

Introduction
La (super) intelligence artificielle
Le complexe dit de Frankenstein et l’éthique des machines
Épilogue
Références bibliographiques