Des experts prédisent quand l’intelligence artificielle dépassera la performance humaine

Le transport routier sera informatisé bien avant la chirurgie, disent des chercheurs en informatique.

L’intelligence artificielle change le monde et le fait à une vitesse vertigineuse. La promesse est que les machines intelligentes seront en mesure de faire chaque tâche mieux et à moindre coût que les humains. À tort ou à raison, une industrie après l’autre tombe sous son charme, même si peu en ont considérablement profité jusqu’à présent.

Et cela soulève une question intéressante : quand l’intelligence artificielle dépassera-t-elle les performances humaines ? Plus précisément, quand est-ce qu’une machine fera-t-elle votre travail mieux que vous ?

Aujourd’hui, nous avons un début de réponse grâce au travail de Katja Grace de la Future of Humanity Institute de l’Université d’Oxford et à quelques confrères. Pour le savoir, ces personnes ont demandé aux experts. Ils ont interrogé les principaux chercheurs mondiaux en intelligence artificielle en leur demandant à quel moment ils pensent que les machines intelligentes dépasseront les humains dans un large éventail de tâches. Et la plupart des réponses sont assez surprenantes.

Les experts avec qui Grace et son équipe ont coopéré étaient des universitaires et des experts de l’industrie qui ont donné des communications à la conférence internationale sur le machine learning en juillet 2015 et la conférence Neural Information Processing Systems en décembre 2015. Ces deux événements étaient très importants pour les experts en intelligence artificielle, il était donc bon de parier que de nombreux experts mondiaux étaient sur cette liste.

Grace Katja et son équipe leur ont demandé à tous – les 1 634 d’entre eux – de compléter un sondage sur à quel moment l’intelligence artificielle deviendra-t-elle meilleure et moins chère que les humains dans un large éventail de tâches. Parmi ces experts, 352 ont répondu. Grave et son équipe ont ensuite calculé leurs réponses médianes.

Les experts prédisent que l’intelligence artificielle dépassera les humains au cours des 10 prochaines années dans des tâches telles que la traduction des langues (d’ici à 2024), la rédaction de manuels scolaires (d’ici à 2026) et la conduite de camions (d’ici 2027).

Cependant, beaucoup d’autres tâches prendront beaucoup plus de temps à maîtriser pour les machines. L’IA ne sera pas plus compétente que les humains pour travailler dans le commerce de détail jusqu’en 2031, capable d’écrire un best-seller jusqu’en 2049, ou capable de travailler en tant que chirurgien jusqu’en 2053.

Les experts sont loin d’être infaillibles. Ils avaient prédit que l’IA serait plus douée que les humains au Go qu’en 2027 (c’était en 2016, rappelez-vous). En fait, la filiale DeepMind de Google a déjà développé une intelligence artificielle capable de battre les meilleurs humains. Cela a pris deux ans au lieu de 12. Il est facile de penser que cela puisse permettre de démentir ces prédictions.

Les experts pensent avec une probabilité de 50 % que l’intelligence artificielle sera meilleure que les humains dans environ 45 ans.

C’est le genre de prédiction qui doit être prise avec des pincettes. L’horizon de prédiction à 40 ans devrait toujours être vu comme un signal d’alarme. Selon certains experts en énergie, une énergie de fusion rentable est à environ 40 ans, mais ça a toujours été le cas. C’était déjà à 40 ans lorsque les chercheurs ont exploré la fusion il y a plus de 50 ans. Mais c’est resté un rêve lointain parce que les défis se sont révélés plus importants que ce qu’on imaginait.

Quarante ans est un nombre important lorsque les humains font des prédictions parce que c’est la durée de la vie active de la plupart des gens. Ainsi, tout changement prédit allant plus loin que cela, signifie que le changement se produira au-delà de la durée de vie active de tous ceux qui travaillent aujourd’hui. En d’autres termes, cela ne peut se produire avec une technologie dont les experts d’aujourd’hui ont une expérience pratique. Cela suggère qu’il s’agit d’un nombre à traiter avec prudence.

Mais taquiner les chiffres montre quelque chose d’intéressant. Cette prédiction sur 45 ans est la figure médiane de tous les experts. Peut-être qu’un sous-ensemble de ce groupe est plus expert que les autres ?

Pour savoir si différents groupes ont fait des prédictions différentes, Grace Katja et ses confrères ont examiné comment les prédictions ont changé avec l’âge des chercheurs, le nombre de leurs rapports (c’est-à-dire leur expertise) et leur région d’origine.

Il s’avère que l’âge et l’expertise ne font aucune différence dans la prédiction, mais c’est le cas avec l’origine. Alors que les chercheurs nord-américains s’attendent à ce que l’IA surpasse tous les humains d’ici 74 ans, les chercheurs d’Asie s’y attendent d’ici seulement 30 ans.

C’est une grande différence qui est difficile à expliquer. Et cela soulève une question intéressante : qu’est-ce que les chercheurs asiatiques savent que les nord-américains ne savent pas (ou vice versa) ?

Ref: arxiv.org/abs/1705.08807 : When Will AI Exceed Human Performance? Evidence from AI Experts

traduction Thomas Jousse

MIT Technology Review

De quoi discutent Larry Page, Elon Musk et Yann Le Cun ? (Beneficial AI 2017)

« Technology is giving life the potential to flourish like never before… or to self-destruct. Let’s make a difference ! » Future of Life Institute

En janvier dernier s’est tenu à Asilomar (Californie) le second colloque organisé par Future of life Institute (FLI) dont l’objectif était d’anticiper l’évolution de l’intelligence artificielle afin qu’elle soit bénéfique pour l’humanité.

Cette association a été créée en 2014 par Jaan Tallinn, informaticien et cofondateur de Skype et Kazaa, Meia Chita-Tegmark (Université de Boston), Vicktorya Krakovna (DeepMind) et les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT).

On trouve au sein du comité scientifique Stephen Hawking (Cambridge), Erik Brynjolfsson (MIT), Martin Rees (Cambridge), Nick Boström (Oxford), Elon Musk (Tesla, Space X), etc1. En 2015, ce dernier a fait don au FLI de 10 millions de dollars.

L’objectif de cette institution est d’anticiper les risques existentiels (qui menacent l’humanité toute entière) anthropiques (du fait de l’homme) comme le réchauffement climatique global, l’arsenal nucléaire2, les biotechnologies mais aussi et surtout ceux liées à l’IA3.

En janvier 2015, le FLI avait publié une lettre ouverte sur les risques/bénéfices liés à l’IA qui a reçu à ce jour plus de 8000 signatures.

L’idée : impulser une réflexion pluridisciplinaire afin de stimuler des recherches dans le sens d’une intelligence artificielle puissante (robust AI) tout en prenant soin qu’elle soit bénéfique pour la société. L’esprit : « Our AI systems must do what we want them to do ».

Ce colloque interdisciplinaire constitué de conférences et d’ateliers (workshops) fait suite à celui qui s’était déroulé à Puerto Rico en 2015 et qui avait réuni des chercheurs du champ de l’IA mais aussi des spécialistes de l’économie, du droit, de l’éthique et de la philosophie.

Au programme, cette année, se trouvait un panel de « célébrités » comme Erik Brynjolfsson (MIT), Yann Le Cun (Facebook/NYU), Ray Kurzweil (Google), Andrew McAfee (MIT), Nick Boström (Oxford), Elon Musk (Tesla/Space X), David Chalmers (NYU), Stuart Russel (Berkeley), Peter Norvig (Google), Larry Page (Google), Yoshua Bengio (Montreal Institute for learning algorithms), Oren Etzioni (Allen Institute), Martin Rees (Cambridge/CSER), Wendell Wallach (Yale), Eric Drexler (MIT), Eliezer Yudkowsky (MIRI), etc4. Les thématiques des conférences et workshops, très riches, portaient sur l’impact à venir de l’automatisation, le concept de superintelligence, les chemins possibles vers l’IA « réelle », la gestion des risques liés à l’IA, etc. On trouvera ici les PowerPoints et vidéos des intervenants.

Des discussions sont nées 23 principes dits « Asilomar » signés d’ores et déjà par plus de 3500 personnalités dont 1171 du champ de l’IA. Non figés, ces principes ont pour objectif de générer des discussions et réflexions sur le site du FLI et ailleurs.

Notes :

2 Une lettre ouverte signée par 3400 scientifiques a récemment été communiquée à l’ONU afin de soutenir son initiative de bannir les armes nucléaires.
3 Depuis quelques années, de nombreuses institutions se sont développées pour anticiper les risques existentiels naturels et anthropogènes. Parmi ces dernières, l’intelligence artificielle est souvent mise en avant. Ainsi, outre le FLI, on citera Machine intelligence research institute (MIRI/Berkeley), Future of humanity institute (FHI/Oxford), Centre for the study of existential risk (CSER/Cambridge), Open AI (Elon Musk), One hundred years study on artificial intelligence (AI100/Stanford), Global catastrophic risk institute (GCRI) et dernièrement Leverhulme centre for the future of intelligence (Cambridge). Sur le Leverhulme centre for the future of intelligence et Center for the study of existential risk on peut lire « Meet Earth’s guardians, the real-world X-men and women saving us from existential threats », Wired, 12 février 2017 ; sur Future of humanity institute Ross Andersen, « Omens », Aeon, 25 février 2013.

Catastrophe globale et transhumanisme

Les transhumanistes ne sont pas tous techno-optimistes

« Only a singleton could control evolution1 »

Nick Bostrom

En 2008, le philosophe transhumaniste Nick Bostrom (université d’Oxford) publiait un article au titre singulier : « Où sont-ils ? Pourquoi j’espère que la quête de la vie extraterrestre ne donnera rien2. » Tandis que la sonde spatiale américaine Phoenix poursuivait ses investigations sur Mars, il développait l’idée que si nous trouvions une trace de vie intelligente, ce serait un mauvais présage pour l’humanité.

Inspiré du paradoxe du physicien Enrico Fermi, son raisonnement procède de la sorte : alors que nous sondons l’univers depuis plus de 60 ans (notamment dans le cadre du projet SETI – Search for extraterrestrial intelligence)3, que la Voie lactée recèle plus de 200 milliards d’étoiles et l’univers observable entre 100 et 200 milliards de galaxies, pourquoi n’avons-nous pas trouvé de traces tangibles de vie extraterrestre ? En d’autres termes, alors que la probabilité de la vie semble si grande, pourquoi aucune intelligence extraterrestre n’a encore entrepris l’exploration de l’univers ? Comment expliquer ce paradoxe ? Reprenant le concept de l’économiste américain Robin Hanson4, Nick Bostrom s’interroge : existe-t-il « un grand filtre »5, un obstacle, un goulot d’étranglement, une étape critique, au saut évolutionniste nécessaire à l’expansion de la vie et l’essaimage d’une l’intelligence dans l’univers, la civilisation galactique ? Partant de là, il distingue deux possibilités. Soit le « grand filtre » se situe dans notre passé et nous l’avons franchi : au seuil de notre expansion dans l’univers, il est vrai encore timide, cela revient à dire que la vie est rare, peut-être unique, et qu’elle nécessite d’improbables coïncidences pour émerger, sinon d’autres intelligences seraient venues nous rendre visite. La vie étant peu répandue et l’univers immense, on peut aussi imaginer qu’elle a pu émerger loin de nous, dans ce cas les deux intelligences resteront peut-être pour toujours étrangères l’une à l’autre. Dans l’autre hypothèse, le « grand filtre » se situe devant nous, dans le futur, cela signifierait qu’il y a dans le développement technologique de la civilisation un stade critique, qui expliquerait que quelque chose a empêché l’essaimage de l’intelligence. Dans ce cas c’est le risque anthropique, lié à l’homme lui-même, qu’il faut redouter.

Ces considérations liminaires mettent en relief le primat de l’intelligence et le risque anthropique existentiel, qui pourrait nuire à l’étape prochaine de l’évolution désirée par certains transhumanistes, un mouvement philosophique, scientifique et politique, qui s’est cristallisé notamment en Californie dans les années 1960 et qui a pour ambition de prendre en main l’évolution humaine, jugée imparfaite, par la technologie.

Souvent présentés comme techno-fétichistes, il s’agit ici d’explorer un aspect moins connu des transhumanistes : les liens qui unissent certains d’entre eux à l’idée de catastrophe globale6 et comprendre les ressorts de cette inquiétude. Après quelques éléments biographiques sur Nick Bostrom et une définition du risque anthropique existentiel, nous développeront l’exemple de l’« explosion de l’intelligence ».

Nick Bostrom

Niklas Bostrom est né en Suède. Mû par une curiosité intellectuelle intense, adolescent, il décide de faire sa propre éducation7. Au début des années 1990, il réussi le tour de force d’être diplômé de l’université de Göteborg en philosophie, en logique mathématique et en intelligence artificielle. Il poursuit ensuite sa formation à Stockholm où il étudie la philosophie et les mathématiques puis au King’s College de Londres où il s’initie à l’astrophysique et aux neurosciences8.

Acteur transhumaniste historique, il fonde, en 1998, avec le philosophe anglais David Pearce, le World Transhumanist Association (maintenant Humanity +), une institution qui a pour ambition de donner corps au transhumanisme mais aussi lui donner du crédit afin de stimuler des recherches académiques9. La même année, il participe à la rédaction de La déclaration transhumaniste ainsi qu’à la création du Journal of Transhumanism (devenu Journal of Evolution & Technology).

Son doctorat de philosophie obtenu à la London School of Economics porte sur le paradoxe de l’Apocalypse (Doomsday argument), un raisonnement probabiliste sur le risque d’extinction de l’humanité inspiré par l’astrophysicien Brandon Carter que, selon Nick Bostrom, l’on sous-estime trop souvent, notamment dans sa dimension anthropique10. En 2005, il donne naissance, au sein d’Oxford Martin School11, au laboratoire Future of Humanity Institute (FHI)12. Son objectif : générer des outils pluridisciplinaires pour appréhender les risques technologiques émergents mais aussi les opportunités civilisationnelles associées afin de clarifier les choix qui façonnent le futur de l’humanité sur le long terme, en tirer le meilleur profit. En 2014, son livre, Superintelligence, paths, dangers, strategies, a eu un grand retentissement13. En écho à cette publication, qui alimente l’inquiétude autour de l’intelligence artificielle, Elon Musk (Tesla Motors, PayPal, SpaceX, SolarCity) a doté le FHI d’une somme d’un million de dollars14. Récemment on a pu voir Nick Bostrom témoigner sur le risque existentiel à l’ONU au côté du cosmologiste Max Tegmark (MIT)15 fondateur du Future of Life Institute16.

Le risque existentiel

Nick Bostrom définit le risque existentiel comme un risque qui menace prématurément l’extinction de l’intelligence née sur Terre avant qu’elle ne puisse atteindre sa maturité, l’expression de sa plénitude17.

Depuis 500 millions d’années, 15 extinctions de masse auraient eu lieu dont 5 ont failli faire disparaître la vie sur Terre. Une en particulier, au Permien-Trias, il y a 250 millions d’années, aurait éliminé 90 % des espèces18. Dans un passé plus récent, la chute d’un astéroïde comme celui du Yucatán (Mexique), il y a 65 millions d’années, mais aussi l’impact du supervolcan Toba (Indonésie) sont à l’origine d’extinctions massives, directement et indirectement par l’absence de luminosité et le refroidissement induit.

Cependant, si l’humanité a survécu aux risques naturels depuis des centaines de milliers d’années, Nick Bostrom est moins optimiste quant aux menaces nouvelles introduites par celle-ci, depuis peu : c’est le risque existentiel anthropique19. Outre le réchauffement climatique global, l’usage de l’arme nucléaire, d’autres risques sont mis en avant comme une pandémie anthropogène liée au bioterrorisme, l’altération du climat par la géo-ingénierie et l’avènement d’une superintelligence artificielle hostile.

Nick Bostrom fait aussi état du risque nanotechnologique, pas seulement le très fantasmé gray goo20, une écophagie environnementale liée à la perte de contrôle d’un assembleur moléculaire popularisée par Eric Drexler (FHI)21, mais aussi l’usage d’armes nanométriques22. Il ajoute quelque chose d’imprévisible23. Focalisons-nous sur le risque inhérent à l’émergence de la superintelligence artificielle.

« 10 scénarios pour la fin de l’homme (avec Nick Bostrom) :

Partie 2

L’ « explosion de l’intelligence »

Le statisticien Irving John Good (1916-2009) serait le premier à l’avoir exposée officiellement en 1965 :

« Supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. […] cette machine pourrait à son tour créer des machines meilleures qu’elle-même ; cela aurait sans nul doute pour effet une réaction en chaîne du développement de l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en résulte que la machine ultra-intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir. Il est curieux que ce point soit si rarement abordé en dehors de la science-fiction. Il faudrait parfois prendre la science-fiction au sérieux24. »

Cette ultra-intelligence devient singularité technologique sous la plume du mathématicien et auteur de science fiction Vernor Vinge en 1993.

« Within thirty years, we will have the technological means to create superhuman intelligence. Shortly after, the human era will be ended25. »

En 2008, Robin Hanson (FHI) et Eliezer Yudkowsky (Machine Intelligence Research Institute) ont débattu à ce propos, l’un considérant que le « décollage » (takeoff) sera lent, qu’il prendra des années, des décennies et l’autre, au contraire, fulgurant26. Nick Bostrom pense aussi que le décollage sera explosif27.

L’ « explosion de l’intelligence » peut être résumée de cette manière : lorsque la machine aura atteint le stade de l’intelligence humaine, elle pourrait se reprogrammer, puis à nouveau se reprogrammer à partir de cette nouvelle programmation et ainsi de suite jusqu’à produire une évolution exponentielle.

Les techno-optimistes de la Silicon Valley comme Peter Diamandis et Ray Kurzweil utilisent ce concept de singularité technologique pour illustrer l’émergence de la superintelligence28. Nous serions au seuil d’une « accélération technologique », objectivement impensable, qui passé un point d’inflexion deviendra explosive et profondément transformatrice. Cette singularité technologie échappe à nos catégories de pensée car nous pensons de façon linéaire, alors que l’évolution technologique se fait de manière exponentielle. Peter Diamandis utilise cette métaphore : si 30 pas linéaires (1, 2, 3, etc.) amènent approximativement à 30 mètres, 30 pas exponentiels (1, 2, 4, 8, 16, etc.) nous feraient parcourir 26 fois le tour de la planète29. Dans le cadre de cette accélération, Ray Kurzweil prophétise l’émergence de la super-intelligence autoréplicante pour 204530. Nous sommes dans un compte à rebours quasi messianique, espéré auto-réalisateur, comme l’a été la loi de Moore31. C’est le retour en grâce du fantasme de l’intelligence artificielle « forte » stimulé par le l’augmentation des capacités de stockage de l’information et des puissances de calcul.

Pour Nick Bostrom, parmi les leviers devant conduire à une augmentation cognitive, si la digitalisation du cerveau (whole brain emulation) semble la voie la plus prometteuse, la méthode la plus rapide à mettre en œuvre serait le couplage avec la superintelligence artificielle32. Seulement, cette méthode qui conditionne un devenir hybride, cyborg, comporte un risque existentiel ; nous sommes revenus au « grand filtre ».

Nick Bostrom considère que l’évolution ne sera pas toujours nécessairement avantageuse pour l’humanité33. Contrairement aux libertariens de la Silicon Valley, il n’est pas techno-optimiste, il redoute les risques existentiels qui pourraient nuire à l’humanité toute entière.

Plus précisément, ces risques menacent de façon prématurée l’extinction, selon lui, non pas de l’humanité au sens de l’Homo sapiens, une incarnation transitoire, mais de l’ « intelligence d’origine terrestre » et sa « maturité technologique », c’est-à-dire le maximum de ses potentialités : le posthumain et ses promesses comme la colonisation de l’espace, etc34.

Selon Nick Bostrom, nous sous-estimons le risque anthropique existentiel et notamment celui inhérent à la superintelligence artificielle.

Comment se prémunir contre cette catastrophe ? Une manière d’éviter le désastre consisterait à prendre en main l’évolution de l’humanité, aussi suggère-t-il de développer ce qu’il appelle un singleton (en mathématiques, un ensemble formé d’un seul élément), un ordre mondial présidé par une entité indépendante qui nous permettrait d’éviter les risques existentiels35. Ce singleton pourrait être un gouvernement mondial démocratique, une dictature  ou… une superintelligence, une sorte de gouvernement pastoral machinique36.

Finalement, la création d’un singleton, quelque soit sa nature, pourrait anticiper et ainsi réduire certains risques. Il pourrait aussi en faire advenir d’autres comme un régime oppressif global et permanent37.

Notes

1 Nick Bostrom, « The future of human evolution », in Charles Tanguy (ed), Death and anti-death: two hundred years after Kant, fifty years after Turing, Palo Alto, rup, 2004, 2009, [version en ligne], p. 16.

2 Nick Bostrom, « Where are they. Why I hope the search for extraterrestrial Life Finds Nothing », MIT Technology review, mai/juin, 2008, p. 72-77.

3 SETI Institute Home.

4 Robin Hanson, « The great filter – Are we almost in the past ? », 15 septembre 1998.

5 Ce concept est utilisé en exobiologie (ou astrobiologie). Lire Aditya Chopra et Charles H. Lineweaver, « The case for a Gaian bottleneck. The biology of habitability », Astrobiology, vol. 16, no 1, 2016.

6 Le rapport de la fondation Global challenges définit la catastrophe globale comme un événement qui tuerait au moins 10 % de l’humanité, soit actuellement 750 millions de personnes. Lire Global Challenges Foundation/Global Priorities Project (Future of Humanity Institute), Global Catastrophic Risks, 2016, p. 6.

7 Raffi Khatchadourian, « The doomsday invention. Will artificial intelligence bring us utopia or destruction ? », The New Yorker, no 23, novembre 2015.

8 Curriculum vitae de Nick Bostrom.

9 Nick Bostrom, « A history of transhumanist thought », Journal of Evolution & Technology, vol. 14, no 1, avril 2005, p. 15.

10 Cet argument est discuté par John A. Leslie dans The end of the world. The science and ethics of human extinction, London, Routeldge, 1996

11 Fondé en 2005 par James Martin, un spécialiste des technologies de l’information, Oxford Martin School, est un centre de recherche pluridisciplinaire qui porte sur les enjeux  globaux pour le XXIe siècle.

13 Nick Bostrom, Superintelligence, paths, dangers, strategies, Oxford, OUP, 2014.

14 Ideas into action, 10 years of groundbreaking research, Oxford Martin School/University of Oxford, 2015, p. 9.

15 Prof. Max Tegmark and Nick Bostrom speak to the UN about the threat of AI.

17 Nick Bostrom, « Existential risk prevention as global priority », Global Policy, vol. 4, no 1, 2013, p. 15.

18 Nick Bostrom et Milan M. Ćirković, « Introduction », Global Catastrophic Risks, Oxford, OUP, 2008, p. 8.

19 Nick Bostrom, « The future of humanity », in Jan-Kyrre Berg Olsen, Evan Selinger et Soren Riis (eds),  New Wages in philosophy of technology, NY, Palgrave McMilla, 2009 [version en ligne], p. 10-11.

20 Nick Bostrom, Existential risks: Analyzing human, extinction scenarios and related hazards, Journal of Evolution and Technology, vol. 9, mars 2009, p. 8.

21 Eric K. Drexler, Engins de création : l’avènement des nanotechnologies, Paris, Vuilbert, 2005 [Engines and creation. The coming era of nanotechnology, 1986].

22 Nick Bostrom, « The future of humanity », op. cit., p. 10-11.

23 Nick Bostrom, Existential risks : Analyzing human, extinction scenarios and related hazards, op.cit., p. 8.

24 Irving J. Good, « Speculations concerning the first ultraintelligent machine », in F. Alt et M. Ruminoff (eds.), Advances in computers, vol. 6, 1965, p. 33.

25 Venor Vinge, « The coming technological singularity: How to survive in the post-human era », Vision-21, Interdisciplinary science and engineering in the era of cyberspace. Proceedings of a symposium cosponsored by the NASA Lewis Research Center and the Ohio Aerospace Institute and held in Westlake, Ohio March 30-31, 1993, p. 11.

26 Robin Hanson et Eliezer Yudkowsky, The Hanson-Yudkowsky AI foom debate, Berkeley, CA, Machine Intelligence Research Institute, 2013.

27 Nick Bostrom, Superintelligence, paths, dangers, strategies, op. cit., p. 64-65.

28 Voir Ray Kurzweil, The singularity is near. When humans transcend biology, London, Penguin Books, 2005.

29 Peter Diamandis et Steven Kotler, Bold. How to go big, create wealth and impact the world, NY, Simon and Schuster Books, 2014, p. 16.

30 Peter Diamandis, « Ray Kurzweil’s mind-boggling predictions for the next 25 years », Singularity Hub, 20 janvier 2015.

31 Walter Isaacson, Les innovateurs. Comment un groupe de génies, hackers et geeks a fait la révolution numérique, Paris, JC Lattès, 2015, p. 247.

32 Nick Bostrom, Superintelligence, paths, dangers, strategies, op. cit.

33 Nick Bostrom, « The future of human evolution », op. cit., p. 1-2.

34 Nick Bostrom, « Existential risk prevention as global priority », op. cit., p. 15-31.

35 Nick Bostrom, « The future of human evolution », op. cit., p. 16-18.

36 Nick Bostrom, « What is a Singleton », Linguistic and Philosophical Investigations, vol. 5, no 2, 2006, p. 48-54.

37 Nick Bostrom, « The future of human evolution », op. cit. p. 18.

L’histoire de la superintelligence et la question de l’éthique des machines

Publié in Marianne Celka et Fabio La Rocca (dir.), Transmutations, Esprit Critique, Revue internationale de sociologie et sciences sociales, vol. 24, n° 1, été 2016, p. 43-57. Par Vincent Guérin, Docteur en histoire contemporaine.

Résumé : Ce texte a pour objet d’analyser, chez les transhumanistes, le couplage de l’éthique des machines avec les risques inhérents à la superintelligence. La première favorisant l’émergence de la seconde. Par ce biais, nous observons une accentuation du rapprochement de l’homme et de la machine, initié par le paradigme informationnel ; un renversement même avec une machine considérée comme « smarter than us ».

Introduction

En 2014, l’informaticien et cofondateur de Skype Jaan Tallinn a créé The Future of Life Institute (FLI) avec entre autres les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT). Dans le comité scientifique se trouve une constellation de personnalités célèbres comme Stephen Hawking, des auteurs à succès comme Erik Brynjolfsson (MIT Center for Digital Business), mais aussi l’acteur Morgan Freeman (film Transcendance de Wally Pfister, 2015) et l’inventeur et chef d’entreprise Elon Musk. Jaan Tallinn était déjà à l’initiative du Centre For The Study Of Existential Risk (CSER) ou Terminator studies en 2012 à l’Université de Cambridge avec le cosmologiste Martin Rees. Ces deux institutions ont pour ambition, entre autres, d’anticiper les risques majeurs qui menacent l’humanité, notamment ceux inhérents à l’intelligence artificielle (IA).

Dernièrement, Bill Gates, fondateur de Microsoft, lui-même, se dit préoccupé par l’IA. Ces deux institutions et Bill Gates ont un dénominateur commun : Nick Boström. l’auteur de Superintelligence, Paths, Dangers, Strategies (2014), qui a impressionné Bill Gates, est membre du comité scientifique de la FLE et du CSER. Il est professeur à la faculté de philosophie de la prestigieuse Université d’Oxford et fondateur de la Future of humanity Institute (FHI) qui a pour objet d’anticiper les risques majeurs qui menacent l’humanité (existential risks). Ses recherches portent sur l’augmentation de l’homme, le transhumanisme, les risques anthropiques et spécifiquement celui de la superintelligence. En 2008, il a codirigé avec Milan M. Ćirković Global Catastrophic Risks (Boström, Ćirković, 2008). Cet ouvrage dénombre dix risques catastrophiques au sens d’un bouleversement radical qui menacerait l’humanité (anthropiques ou non) 1 . Parmi les risques anthropiques recensés, Eliezer S. Yudkowsky (1979-), chercheur au Machine Intelligence Research Institute à Berkeley (MIRI), développe le chapitre sur l’IA (Yudkowsky, 2008).

Nick Boström et Eliezer Yudkowsky sont transhumanistes, un courant de pensée qui conçoit l’humain, l’humanité comme imparfaits et prône une prise en main de leur évolution par la technologie. En 1998, Nick Boström a fondé avec David Pearce la World Transhumanist Association (WTA) et l’Institute for Ethics & Emerging Technologies (IEET) avec James Hughes.

Plusieurs objectifs irriguent le transhumanisme, dont le devenir postbiologique (posthumain), la superintelligence et l’amortalité (une immortalité relative). Parmi les NBIC, deux technologies ont leur faveur. La première, la nanotechnologie (une construction à partir du bas à l’échelle du nanomètre soit un milliardième de mètre) est en devenir, et la seconde, l’intelligence artificielle générale (IAG) reste un fantasme. Nick Boström et Eliezer Yudkowsky pensent que l’IA favorisera la nanotechnologie, elle-même porteuse d’inquiétude (Drexler, 1986). Eric Drexler, transhumaniste et membre du FHI, a créé en 1986, le Foresight Institute afin de prévenir les risques technologiques et favoriser un usage bénéfique de la nanotechnologie. Qu’est-ce-que la (super) intelligence artificielle ? Quelles sont les corrélations entre le transhumanisme et cette inquiétude montante vis-à-vis de l’IA, ou plus exactement la superintelligence ? Comment et quand pourrait-elle émerger ? Comment s‟articule le complexe dit de Frankenstein et l’éthique des machines ?

pour lire la suite, télécharger le PDF


Sommaire :

Introduction
La (super) intelligence artificielle
Le complexe dit de Frankenstein et l’éthique des machines
Épilogue
Références bibliographiques

Les risques potentiels de l’intelligence artificielle avancée

En un mot :

Quel est le problème? Il semble plausible que les gens vont développer des systèmes algorithmiques capables de réaliser efficacement un grand nombre, voire la totalité des tâches cognitives que les humains effectuent. Ces avancées pourraient conduire à des développements positifs extrêmes, mais pourraient aussi présenter des risques pour des abus intentionnels ou d’accidents catastrophiques. Par exemple, il semble possible que (i) la technologie pourrait être militarisée ou utilisée comme un outil de contrôle social, ou (ii) une personne pourrait créer un agent d’intelligence artificielle extrêmement puissant avec des valeurs mal alignées pour les intérêts de l’humanité. Il semble également possible que des progrès dans ce sens pourraient être étonnamment rapides, laissant la société, insuffisamment préparée pour la transition.

Quelles sont les interventions possibles? Un philanthrope pourrait financer la recherche technique visant à assurer la robustesse, la prévisibilité et l’objectif d’alignement des systèmes d’intelligence artificielle de pointe; la recherche en droit, éthique, économie et politique liée à l’intelligence artificielle avancée; et / ou des études liées à ces recherches.

Qui d’autre travaille sur cette question? Elon Musk, a fait un don de 10 millions $ au Future of Life Institute pour les chercheurs axés sur ces problèmes et d’autres risques potentiels futurs de l’intelligence artificielle avancée. En outre, quelques petits instituts à but non lucratif / universitaires travaillent sur les futurs risques potentiels de l’intelligence artificielle avancée. Machine Intelligence Research Institute et Future of Humanity Institute ont chacun un budget annuel d’environ 1 million $, et d’autres nouvelles organisations travaillent sur ces questions aussi.

lire la suite sur GiveWell (article en anglais)

Domaines de recherche de l’Université d’Oxford, le Future of Humanity Institute

Composante du département de philosophie de la prestigieuse Université d’Oxford, le Future of Humanity Institute (FHI) est le premier centre de recherche qui étudie les changements technologiques exponentiels de façon transversale, multidisciplinaire et exhaustive.

L’approche du FHI utilise l’outillage mathématique qu’elle intègre à la philosophie des sciences pour explorer les risques et les opportunités qu’offrent aujourd’hui les mutations technologiques NBIC (Nanotechnologie, Biotechnologie, Informatique, sciences Cognitives).

Le FHI cherche avant tout à évaluer les priorités mondiales, à mettre en lumière les dilemmes éthiques qui accompagnent les progrès NBIC et finalement à clarifier les choix auxquels l’humanité est confrontée dans son ascension technologique.

La production de recherche du FHI vient d’être évaluée de façon très positive par plusieurs commissions extérieures. Les conclusions de l’évaluation ont insisté sur les caractères pionniers et stratégiques des missions de l’Institut.

L’équipe de recherche dirigée par le professeur Nick Bostrom oriente ses études sur des questions qui sont :

  • d’une importance cruciale pour l’humanité (les grands défis des trente prochaines années),
  • souvent négligées par la recherche jusqu’à présent,
  • pour lesquelles une réponse originale et une approche inédite peuvent être construites par l’équipe.

La démarche s’appuie sur un ensemble diversifié d’outils méthodologiques (théorie des données scientifiques, probabilités – statistiques, philosophie analytique).

L’approche multidisciplinaire est renforcée par des collaborations avec des expertises extérieures.

L’activité de recherche du FHI couvre quatre grands domaines :

1 – Les risques de catastrophes globales

2 – L’épistémologie appliquée

3 – L’homme augmenté, amélioré

4 – Les technologies du futur

L’ADN du FHI est finalement très proche de l’Université de la Singularité créée il y a cinq ans par Google, Cisco, la Nasa et d’autres partenaires influents sur le sol américain.

Des structures de recherche équivalentes se développent également en Corée du sud, en Russie et en Chine avec bien entendu, des spécificités d’approche des grandes questions d’évolution humaines, propres à chaque culture. Ces laboratoires optent tous pour une prise en compte globale et transversale des mutations technologiques et des turbulences qu’elles induisent.