Google, Apple, Facebook : les nouveaux maitres du monde

Ils s’appellent Bill Gates, Mark Zuckerberg, Sergey Brin ou encore Larry Page : ces Américains, dont certains n’ont pas encore 40 ans, comptent parmi les hommes les plus riches et les plus puissants de la planète. Leurs points communs ? Ils ont créé le monde d’aujourd’hui grâce à une révolution technologique sans précédent : Internet et les réseaux sociaux. Anciens ados visionnaires devenus les dirigeants des plus grandes entreprises du secteur – Google, Facebook, Apple, Microsoft –, ils possèdent aujourd’hui un pouvoir d’un genre nouveau. Celui de contrôler les communications de toute la planète et de stocker les informations privées de tout un chacun. Un pouvoir très convoité, qui a pu les entraîner parfois dans des liaisons dangereuses avec les services secrets ou les gouvernements, notamment américains.

Ce documentaire raconte l’épopée de ces hommes souvent en marge de leurs contemporains mais qui ont réussi à changer le monde à grands coups de projets dignes de la science-fiction et qui, aujourd’hui, sont devenus plus forts que les États. Jusqu’où va le pouvoir des géants du numérique ?


Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ?

Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ?
Livre de Jean-Gabriel Ganascia

L’intelligence artificielle va-t-elle bientôt dépasser celle des humains ? Ce moment critique, baptisé « Singularité technologique », fait partie des nouveaux buzzwords de la futurologie contemporaine et son imminence est proclamée à grand renfort d’annonces mirobolantes par des technogourous comme Ray Kurzweil (chef de projet chez Google !) ou Nick Bostrom (de la vénérable université d’Oxford). Certains scientifiques et entrepreneurs, non des moindres, tels Stephen Hawking ou Bill Gates, partagent ces perspectives et s’en inquiètent.
Menace sur l’humanité et/ou promesse d’une transhumanité, ce nouveau millénarisme est appelé à se développer. Nos machines vont-elles devenir plus intelligentes et plus puissantes que nous ? Notre avenir est-il celui d’une cybersociété où l’humanité serait marginalisée ? Ou accéderons-nous à une forme d’immortalité en téléchargeant nos esprits sur les ordinateurs de demain ?

Voici un essai critique et concis sur ce thème à grand retentissement par l’un des meilleurs experts des humanités numériques.

Jean-Gabriel Ganascia est professeur à l’université Pierre-et-Marie-Curie, où il mène des recherches sur l’intelligence artificielle au Laboratoire informatique de Paris 6 (LIP6). Il est président du comité national d’éthique du CNRS et a publié divers ouvrages dont le précurseur L’Âme machine, au Seuil en 1990.

 

Les spécialistes sont-ils inquiets du risque existentiel associé à l’intelligence artificielle ?

« Many of the points made in this book are probably wrong […]. I don’t know which ones1. »

Nick Boström

Les spécialistes sont-ils vraiment inquiets du risque existentiel associé à l’intelligence artificielle2 ? C’est la question que pose Oren Etzioni dans le MIT Technology Review3, en écho à des articles récents sur le philosophe transhumaniste Nick Boström (université d’Oxford) qui a publié Superintelligence, paths, dangers, strategies en 20144.

Las du discours associant IA et menace5, Oren Etzioni a décidé de réaliser son propre sondage auprès des membres de l’American association for artificial intelligence (AAAI). Ses résultats apparaissent, a priori, beaucoup moins tranchés que ceux exposés par Nick Boström dans son ouvrage6.

Superintelligence, paths, dangers, strategies – non traduit à ce jour en français – a pour objectif d’attirer l’attention sur le risque existentiel anthropique associé à l’intelligence artificielle qui pourrait, selon Nick Boström, menacer l’humanité d’extinction. Cette menace est largement relayée par des personnalités aussi célèbres que Bill Gates et Elon Musk (SpaceX, Tesla Motors, etc.) qui vient de fonder (2015) avec Sam Altman (Loopt, Y Combinator), une organisation non lucrative, dotée d’un milliard de dollars, nommée OpenAI7. Ce laboratoire a pour objet de stimuler des recherches en open source afin de promouvoir largement une IA bénéfique, qui auraient pour effet de « neutraliser la menace » en évitant le monopole8.

Au filtre du transhumanisme, ce risque existentiel menacerait prématurément l’extinction de l’intelligence née sur Terre avant qu’elle ne puisse atteindre sa maturité, l’expression de sa plénitude : le posthumain et ses potentialités comme l’exploration de l’univers9.

L’ « explosion de l’intelligence » peut être schématisée ainsi : lorsque la machine aura atteint le stade de l’intelligence humaine (human-level machine intelligence – HLMI) autrement appelée intelligence artificielle générale ou forte (une notion très subjective), elle pourrait se reprogrammer, puis à nouveau se reprogrammer à partir de cette nouvelle programmation et ainsi de suite jusqu’à produire une évolution exponentielle : la super-intelligence.

L’ouvrage de Nick Boström s’inscrit dans une ligne de recherche plus générale portant sur la catastrophe globale qui a donné naissance en 2005 à la création du Futur of Humanity Institute (FHI), une institution rattachée à la Martin Oxford School et dont Nick Boström est le directeur. Le FHI est constitué d’une équipe pluridisciplinaire ayant pour but de générer des recherches académiques sur les risques anthropiques afin de les identifier et les prévenir : comme ici le « décollage » (takeoff) d’une IA hostile. Cette institution vient de recevoir un financement d’un million de dollars de la part d’Elon Musk pour encourager ses activités.

Ce livre paraît dans un contexte marqué par le développement d’une IA polymorphe, extrêmement conquérante10. Ce phénomène suscite de multiples questionnements, qui favorisent, en retour, des spéculations jusqu’alors marginales, comme l’idée d’ultra-intelligence développée en 1965 par Irving J. Good devenue par la suite11, sous la plume du mathématicien et auteur de science-fiction Venor Vinge12 et Ray Kurzweil (Google)13, singularité technologique14. Ceux qui adhèrent à la faisabilité prochaine de l’intelligence artificielle générale, évoquent l’évolution des puissances de stockage et de calcul, la réalité augmentée15, etc.

Oren Etzioni est loin d’être un inconnu : chercheur de renom, il travaille dans de nombreux domaines de l’intelligence artificielle mais plus particulièrement dans la reconnaissance automatique de texte, notamment en ligne (Web search, Data mining et Information extraction). Entrepreneur fécond, il est à l’origine de plusieurs entreprises comme MetaCrawler (Infospace), Netbot (Excite), ClearForest (Reuters) et Decide (Ebay). Membre de l’American association of artificial intelligence depuis 2003, il est aussi PDG d’Allen institute for artificial intelligence (AI2) dont la mission est de contribuer au développement d’une IA pour le bien de l’humanité16. Récemment, ses interventions médiatiques ont eu majoritairement pour but de relativiser les progrès de l’IA. Il s’est manifesté dernièrement après les « victoires » du programme informatique AlphaGo (Google DeepMind) sur les joueurs de go Fan Hui et Lee Sedol, avec un article au titre explicite : « Deep Learning isn’t a dangerous magic genie. It’s just math »17.

Dans son article daté du 20 septembre dernier, Oren Etzioni s’attaque ainsi aux résultats du sondage effectué par Nick Boström dans Superintelligence. Ce faisant, il questionne habilement un passage clé du livre. En effet, les deux pages incriminées donnent du crédit au reste du texte, qui est, par nature, spéculatif ; un aspect assumé par le philosophe qui donne ainsi un habillage académique à des idées qui existent, pour certaines, depuis longtemps et indépendamment du transhumanisme.

L’étude réalisée par Nick Boström et Vincent C. Müller repose sur l’agrégation de quatre sondages distincts obtenus auprès de quatre groupes entre 2012 et 2013. Le premier a été réalisé auprès des membres d’une conférence intitulée « Philosophy and theory of IA » (PT-AI) qui s’est tenue en 2011 à Thessalonique (Grèce) et organisée Vincent C. Müller. Cependant, aux yeux d’Oren Etzioni ce sondage apparaît comme obscur. Il manque, selon lui, les questions et les réponses. Le second sondage a été réalisé auprès des participants de deux conférences autour de l’intelligence artificielle générale (AGI), un groupe a priori acquis à cette idée (cf. résultats du sondage). Le troisième a été fait auprès des membres de la Greek association for artificial intelligence (EETN). Cette association est-elle représentative ? L’ensemble est complété par un sondage effectué auprès « des plus grandes figures de l’histoire l’intelligence artificielle » selon Microsoft academic search.

Un document donne des détails sur les différents sondages : nature des groupes, effectifs ainsi que les questions et les réponses18. Nous savons ainsi que sur 549 personnes sollicitées, 170 ont répondu (soit 31 %).

Source : Vincent C. Müller et Nick Boström, « Future Progress in Artificial Intelligence : A survey of Expert
Opinion », http://www.nickBoström.com/papers/survey.pdf

Cette enquête menée par Nick Boström et Vincent C. Müller a pour objectif de sonder l’opinion des experts sur une hypothétique émergence de l’intelligence artificielle générale, qu’ils définissent par la capacité pour une IA d’exercer, aussi bien que les humains, toutes les métiers19. Une définition utilisée par un des pères historiques de l’intelligence artificielle : Nils J. Nilsson20. Cette question centrale est assortie d’un jeu de sous-questions. Quelle sous-discipline de l’IA contribuera le plus à cette réalisation ? À cette question ce sont les sciences cognitives qui arrivent en tête. Nick Boström et Vincent C. Müller font remarquer à cet endroit la grande disparité d’appréciation sur la digitalisation du cerveau (whole brain emulation) qui obtient 0 % dans le Top 100 mais 46 % dans le groupe de l’intelligence artificielle générale. Mais aussi, dans combien de temps l’intelligence artificielle forte (human-level machine intelligence) sera-t-elle effective21? Enfin, en considérant que nous accédions un jour au stade de l’intelligence artificielle générale (stade 1), combien de temps faudra-t-il pour atteindre la super-intelligence (stade 2) ? Sera-t-elle neutre, positive, négative ? Le sondage réalisé auprès du Top 100, envoyé par e-mail, précisait l’usage qui en serait fait, à savoir la contribution à la nouvelle publication de Nick Boström : Superintelligence22. Selon les chercheurs sollicités, l’intelligence artificielle générale pourrait émerger selon cette projection :

Quand émergera l’intelligence artificielle générale (HLMI) ?

Source : Nick Boström, Superintelligence, paths, dangers, strategies, op. cit., p. 19.

Soit :

10 % en 2022

50 % en 2040

90 % en 2075

Ils complètent cette question par :

Combien de temps faudra-t-il pour passer de l’IAG (HLMI) à la super-intelligence ?

Source : Nick Boström, Superintelligence, paths, dangers, strategies, op. cit., p. 19.

En réalisant son propre sondage, l’idée d’Oren Etzioni est de donner la parole à des chercheurs actifs qu’il estime signifiants dans ce champ. Celui-ci a été réalisé auprès de 193 membres de l’Americain association of artificial intelligence (AAAI). La question est formulée ainsi : Nick Boström, dans son livre, définit la super-intelligence comme un intellect plus intelligent que les meilleurs cerveaux humains dans pratiquement tous les domaines incluant la créativité scientifique, la sagesse et l’intelligence sociale. Quand pensez-vous que nous réaliserons cette super-intelligence ? 41 % des membres contactés ont répondu soit 80 personnes. La question pose ici probléme, en effet alors que Nick Boström sonde l’émergence de l’intelligence artificielle générale (stade 1), Oren Etzioni fait référence à la super-intelligence (stade 2). Sur cette base, il paraît impossible de comparer les deux sondages.

Oren Etzioni conclut, commentaires à l’appui, que la majorité des personnes sondées considèrent la super-intelligence comme au-delà de l’horizon prévisible23.

« We’re competing with millions of years’ evolution of the human brain. We can write single-purpose programs that can compete with humans, and sometimes excel, but the world is not neatly compartmentalized into single-problem questions24. »

Il rapporte par ailleurs des propos qui dénoncent « le marchand de peur professionnel » :

« Nick Bostrom is a professional scare monger. His Institute’s role is to find existential threats to humanity. He sees them everywhere. I am tempted to refer to him as the ‘Donald Trump of AI’25. »

En réalisant ce contre-sondage, Oren Etzioni s’attaque au point névralgique du texte de Nick Boström : sa justification académique. Ce faisant, il tente d’affaiblir la portée de l’ouvrage. Déjà en 2014, répondant aux craintes formulées par Elon Musk et Bill Gates, il affirmait et expliquait dans un article pourquoi, en tant que chercheur en intelligence artificielle, il n’avait pas peur. Dans ce texte, il laissait déjà apparaître l’exaspération du chercheur contre cette vision dystopique qu’il qualifie, en référence à Isaac Asimov, de complexe de Frankenstein (la créature qui se retourne contre son créateur). Il illustre son point de vue par la formule du philosophe américain John Searle utilisée suite à au succès de Watson en 2011 dans le jeu populaire américain : Jeopardy! : « Watson doesn’t know it won Jeopardy! ». Oren Etzioni considère que l’évolution de l’IA, qui n’est qu’à ses balbutiements, est nécessairement disruptive, mais elle est aussi tissée d’opportunités. Il concluait que ce climat de crainte contrariait les bénéfices que pouvaient apporter l’IA à l’humanité26.

Indépendamment des résultats qui finalement ne sont que des spéculations, cette prise de position montre que les travaux du philosophe Nick Boström, ses propos, commencent à exaspérer un certain nombre de personnes dans le champ de l’intelligence artificielle…

Notes :

1 Raffi Khatchadourian, « The doomsday invention. Will artificial intelligence bring us utopia or destruction? », The New Yorker, no 23, novembre 2015.
2 Je remercie Daniel Lewkowicz et Béatrice Guérin-Gorgeard pour leurs remarques judicieuses.
3 Oren Etzioni, « Are the experts worried about the existential risk of artificial intelligence », MIT Technology Review, 20 septembre, 2016.
4 Nick Boström, Superintelligence, paths, dangers, strategies, Oxford, OUP, 2014.
5 Tim Adams, « Artificial Intelligence : ‘We’re like children playing with a bomb’ », TheGuardian, 12 juin 2016 ; et Seung Lee, « Artificial Intelligence is coming and it could wipe us out », Newsweek, 4 mars 2016.
6 « Opinions about the future of machine intelligence », in Nick Boström, Superintelligence, paths, dangers, strategies, op. cit. p. 18-21
7 Site OpenAI.
8 Cade Metz, « Inside OpenIA, Elon Musk’s wild plan to set artificial intelligence free », Wired, 27 avril 2016.
9 Nick Boström, « Existential risk prevention as global priority », Global Policy, vol. 4, no 1, 2013, p. 15.
10 Lire Erik Brynjolfsson et Andrew McAfee, The second machine age. Work, progress, and prosperity in a time of brilliant technologies, NY, Norton, 2014 [Le deuxième âge de la machine. Travail et prospérité à l’heure de la revolution technologique, Paris, Odile Jacob, 2015.
11 Irving J. Good, « Speculations concerning the first ultraintelligent machine », in F. Alt et M. Ruminoff (eds.), Advances in computers, vol. 6, 1965, p. 33.
12 Venor Vinge, « The coming technological singularity: How to survive in the post-human era », Vision-21, Interdisciplinary science and engineering in the era of cyberspace, Ohio March 30-31, 1993, p. 11.
13 Ray Kurzweil, The singularity is near. When humans transcend biology, London, Penguin Books, 2005.
14 Pour une critique : Drew McDermott, Kurzweil’s argument for the success of AI, Artificial intelligence, no 170, 2006, p. 1227-1233 ; et la réponse de Ben Goertzel, «Huma-level artificial general intelligence and the possibility of a technological singularity. A reaction to Ray Kurzweil’s The singularity is near, and McDermott’s critique of Kurzweil», Artificial intelligence, no 171, 2007, p. 1161-1173.
15 Hugo de Garis et Ben Goertzel, Report on the first conference on artificial general intelligence (AGI-08), AI Magazine, printemps 2009, p. 122.
17 Oren Etzioni, « Deep Learning isn’t a dangerous magic genie. It’s just math », Wired, 15 juin 2016.
18 Vincent C. Muller et Nick Boström, « Future Progress in Artificial Intelligence : A survey of Expert Opinion », op. cit.
19 Idem.
20 Nils J. Nilsson, « Human-level artificial intelligence? Be serious! », AAAI, hiver 2005.
21 Dans Superintelligence Nick Bostrom utilise HLMI pour human-level machine intelligence, alors que dans le texte commentant le sondage il fait référence à high-Level machine intelligence.
22 Idem.
23 Oren Etzioni, « Are the experts worried about the existential risk of artificial intelligence », op. cit.
24 Idem.
25 Idem.
26 Oren Etzioni, « It’s time to intelligently discuss artificial intelligence. I am AI researcher and I’m not scared. Here’s why », BlackChannel, 9 décembre 2014.

L’histoire de la superintelligence et la question de l’éthique des machines

Publié in Marianne Celka et Fabio La Rocca (dir.), Transmutations, Esprit Critique, Revue internationale de sociologie et sciences sociales, vol. 24, n° 1, été 2016, p. 43-57. Par Vincent Guérin, Docteur en histoire contemporaine.

Résumé : Ce texte a pour objet d’analyser, chez les transhumanistes, le couplage de l’éthique des machines avec les risques inhérents à la superintelligence. La première favorisant l’émergence de la seconde. Par ce biais, nous observons une accentuation du rapprochement de l’homme et de la machine, initié par le paradigme informationnel ; un renversement même avec une machine considérée comme « smarter than us ».

Introduction

En 2014, l’informaticien et cofondateur de Skype Jaan Tallinn a créé The Future of Life Institute (FLI) avec entre autres les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT). Dans le comité scientifique se trouve une constellation de personnalités célèbres comme Stephen Hawking, des auteurs à succès comme Erik Brynjolfsson (MIT Center for Digital Business), mais aussi l’acteur Morgan Freeman (film Transcendance de Wally Pfister, 2015) et l’inventeur et chef d’entreprise Elon Musk. Jaan Tallinn était déjà à l’initiative du Centre For The Study Of Existential Risk (CSER) ou Terminator studies en 2012 à l’Université de Cambridge avec le cosmologiste Martin Rees. Ces deux institutions ont pour ambition, entre autres, d’anticiper les risques majeurs qui menacent l’humanité, notamment ceux inhérents à l’intelligence artificielle (IA).

Dernièrement, Bill Gates, fondateur de Microsoft, lui-même, se dit préoccupé par l’IA. Ces deux institutions et Bill Gates ont un dénominateur commun : Nick Boström. l’auteur de Superintelligence, Paths, Dangers, Strategies (2014), qui a impressionné Bill Gates, est membre du comité scientifique de la FLE et du CSER. Il est professeur à la faculté de philosophie de la prestigieuse Université d’Oxford et fondateur de la Future of humanity Institute (FHI) qui a pour objet d’anticiper les risques majeurs qui menacent l’humanité (existential risks). Ses recherches portent sur l’augmentation de l’homme, le transhumanisme, les risques anthropiques et spécifiquement celui de la superintelligence. En 2008, il a codirigé avec Milan M. Ćirković Global Catastrophic Risks (Boström, Ćirković, 2008). Cet ouvrage dénombre dix risques catastrophiques au sens d’un bouleversement radical qui menacerait l’humanité (anthropiques ou non) 1 . Parmi les risques anthropiques recensés, Eliezer S. Yudkowsky (1979-), chercheur au Machine Intelligence Research Institute à Berkeley (MIRI), développe le chapitre sur l’IA (Yudkowsky, 2008).

Nick Boström et Eliezer Yudkowsky sont transhumanistes, un courant de pensée qui conçoit l’humain, l’humanité comme imparfaits et prône une prise en main de leur évolution par la technologie. En 1998, Nick Boström a fondé avec David Pearce la World Transhumanist Association (WTA) et l’Institute for Ethics & Emerging Technologies (IEET) avec James Hughes.

Plusieurs objectifs irriguent le transhumanisme, dont le devenir postbiologique (posthumain), la superintelligence et l’amortalité (une immortalité relative). Parmi les NBIC, deux technologies ont leur faveur. La première, la nanotechnologie (une construction à partir du bas à l’échelle du nanomètre soit un milliardième de mètre) est en devenir, et la seconde, l’intelligence artificielle générale (IAG) reste un fantasme. Nick Boström et Eliezer Yudkowsky pensent que l’IA favorisera la nanotechnologie, elle-même porteuse d’inquiétude (Drexler, 1986). Eric Drexler, transhumaniste et membre du FHI, a créé en 1986, le Foresight Institute afin de prévenir les risques technologiques et favoriser un usage bénéfique de la nanotechnologie. Qu’est-ce-que la (super) intelligence artificielle ? Quelles sont les corrélations entre le transhumanisme et cette inquiétude montante vis-à-vis de l’IA, ou plus exactement la superintelligence ? Comment et quand pourrait-elle émerger ? Comment s‟articule le complexe dit de Frankenstein et l’éthique des machines ?

pour lire la suite, télécharger le PDF


Sommaire :

Introduction
La (super) intelligence artificielle
Le complexe dit de Frankenstein et l’éthique des machines
Épilogue
Références bibliographiques