Skip to content

Les spécialistes sont-ils inquiets du risque existentiel associé à l’intelligence artificielle ?

« Many of the points made in this book are probably wrong […]. I don’t know which ones1. »

Nick Boström

Les spécialistes sont-ils vraiment inquiets du risque existentiel associé à l’intelligence artificielle2 ? C’est la question que pose Oren Etzioni dans le MIT Technology Review3, en écho à des articles récents sur le philosophe transhumaniste Nick Boström (université d’Oxford) qui a publié Superintelligence, paths, dangers, strategies en 20144.

Las du discours associant IA et menace5, Oren Etzioni a décidé de réaliser son propre sondage auprès des membres de l’American association for artificial intelligence (AAAI). Ses résultats apparaissent, a priori, beaucoup moins tranchés que ceux exposés par Nick Boström dans son ouvrage6.

Superintelligence, paths, dangers, strategies – non traduit à ce jour en français – a pour objectif d’attirer l’attention sur le risque existentiel anthropique associé à l’intelligence artificielle qui pourrait, selon Nick Boström, menacer l’humanité d’extinction. Cette menace est largement relayée par des personnalités aussi célèbres que Bill Gates et Elon Musk (SpaceX, Tesla Motors, etc.) qui vient de fonder (2015) avec Sam Altman (Loopt, Y Combinator), une organisation non lucrative, dotée d’un milliard de dollars, nommée OpenAI7. Ce laboratoire a pour objet de stimuler des recherches en open source afin de promouvoir largement une IA bénéfique, qui auraient pour effet de « neutraliser la menace » en évitant le monopole8.

Au filtre du transhumanisme, ce risque existentiel menacerait prématurément l’extinction de l’intelligence née sur Terre avant qu’elle ne puisse atteindre sa maturité, l’expression de sa plénitude : le posthumain et ses potentialités comme l’exploration de l’univers9.

L’ « explosion de l’intelligence » peut être schématisée ainsi : lorsque la machine aura atteint le stade de l’intelligence humaine (human-level machine intelligence – HLMI) autrement appelée intelligence artificielle générale ou forte (une notion très subjective), elle pourrait se reprogrammer, puis à nouveau se reprogrammer à partir de cette nouvelle programmation et ainsi de suite jusqu’à produire une évolution exponentielle : la super-intelligence.

L’ouvrage de Nick Boström s’inscrit dans une ligne de recherche plus générale portant sur la catastrophe globale qui a donné naissance en 2005 à la création du Futur of Humanity Institute (FHI), une institution rattachée à la Martin Oxford School et dont Nick Boström est le directeur. Le FHI est constitué d’une équipe pluridisciplinaire ayant pour but de générer des recherches académiques sur les risques anthropiques afin de les identifier et les prévenir : comme ici le « décollage » (takeoff) d’une IA hostile. Cette institution vient de recevoir un financement d’un million de dollars de la part d’Elon Musk pour encourager ses activités.

Ce livre paraît dans un contexte marqué par le développement d’une IA polymorphe, extrêmement conquérante10. Ce phénomène suscite de multiples questionnements, qui favorisent, en retour, des spéculations jusqu’alors marginales, comme l’idée d’ultra-intelligence développée en 1965 par Irving J. Good devenue par la suite11, sous la plume du mathématicien et auteur de science-fiction Venor Vinge12 et Ray Kurzweil (Google)13, singularité technologique14. Ceux qui adhèrent à la faisabilité prochaine de l’intelligence artificielle générale, évoquent l’évolution des puissances de stockage et de calcul, la réalité augmentée15, etc.

Oren Etzioni est loin d’être un inconnu : chercheur de renom, il travaille dans de nombreux domaines de l’intelligence artificielle mais plus particulièrement dans la reconnaissance automatique de texte, notamment en ligne (Web search, Data mining et Information extraction). Entrepreneur fécond, il est à l’origine de plusieurs entreprises comme MetaCrawler (Infospace), Netbot (Excite), ClearForest (Reuters) et Decide (Ebay). Membre de l’American association of artificial intelligence depuis 2003, il est aussi PDG d’Allen institute for artificial intelligence (AI2) dont la mission est de contribuer au développement d’une IA pour le bien de l’humanité16. Récemment, ses interventions médiatiques ont eu majoritairement pour but de relativiser les progrès de l’IA. Il s’est manifesté dernièrement après les « victoires » du programme informatique AlphaGo (Google DeepMind) sur les joueurs de go Fan Hui et Lee Sedol, avec un article au titre explicite : « Deep Learning isn’t a dangerous magic genie. It’s just math »17.

Dans son article daté du 20 septembre dernier, Oren Etzioni s’attaque ainsi aux résultats du sondage effectué par Nick Boström dans Superintelligence. Ce faisant, il questionne habilement un passage clé du livre. En effet, les deux pages incriminées donnent du crédit au reste du texte, qui est, par nature, spéculatif ; un aspect assumé par le philosophe qui donne ainsi un habillage académique à des idées qui existent, pour certaines, depuis longtemps et indépendamment du transhumanisme.

L’étude réalisée par Nick Boström et Vincent C. Müller repose sur l’agrégation de quatre sondages distincts obtenus auprès de quatre groupes entre 2012 et 2013. Le premier a été réalisé auprès des membres d’une conférence intitulée « Philosophy and theory of IA » (PT-AI) qui s’est tenue en 2011 à Thessalonique (Grèce) et organisée Vincent C. Müller. Cependant, aux yeux d’Oren Etzioni ce sondage apparaît comme obscur. Il manque, selon lui, les questions et les réponses. Le second sondage a été réalisé auprès des participants de deux conférences autour de l’intelligence artificielle générale (AGI), un groupe a priori acquis à cette idée (cf. résultats du sondage). Le troisième a été fait auprès des membres de la Greek association for artificial intelligence (EETN). Cette association est-elle représentative ? L’ensemble est complété par un sondage effectué auprès « des plus grandes figures de l’histoire l’intelligence artificielle » selon Microsoft academic search.

Un document donne des détails sur les différents sondages : nature des groupes, effectifs ainsi que les questions et les réponses18. Nous savons ainsi que sur 549 personnes sollicitées, 170 ont répondu (soit 31 %).

Source : Vincent C. Müller et Nick Boström, « Future Progress in Artificial Intelligence : A survey of Expert Opinion », www.nickBoström.com/papers/survey.pdf

Source : Vincent C. Müller et Nick Boström, « Future Progress in Artificial Intelligence : A survey of Expert
Opinion », http://www.nickBoström.com/papers/survey.pdf

Cette enquête menée par Nick Boström et Vincent C. Müller a pour objectif de sonder l’opinion des experts sur une hypothétique émergence de l’intelligence artificielle générale, qu’ils définissent par la capacité pour une IA d’exercer, aussi bien que les humains, toutes les métiers19. Une définition utilisée par un des pères historiques de l’intelligence artificielle : Nils J. Nilsson20. Cette question centrale est assortie d’un jeu de sous-questions. Quelle sous-discipline de l’IA contribuera le plus à cette réalisation ? À cette question ce sont les sciences cognitives qui arrivent en tête. Nick Boström et Vincent C. Müller font remarquer à cet endroit la grande disparité d’appréciation sur la digitalisation du cerveau (whole brain emulation) qui obtient 0 % dans le Top 100 mais 46 % dans le groupe de l’intelligence artificielle générale. Mais aussi, dans combien de temps l’intelligence artificielle forte (human-level machine intelligence) sera-t-elle effective21? Enfin, en considérant que nous accédions un jour au stade de l’intelligence artificielle générale (stade 1), combien de temps faudra-t-il pour atteindre la super-intelligence (stade 2) ? Sera-t-elle neutre, positive, négative ? Le sondage réalisé auprès du Top 100, envoyé par e-mail, précisait l’usage qui en serait fait, à savoir la contribution à la nouvelle publication de Nick Boström : Superintelligence22. Selon les chercheurs sollicités, l’intelligence artificielle générale pourrait émerger selon cette projection :

Quand émergera l’intelligence artificielle générale (HLMI) ?

Source : Nick Boström, Superintelligence, paths, dangers, strategies, op. cit., p. 19.

Source : Nick Boström, Superintelligence, paths, dangers, strategies, op. cit., p. 19.

Soit :

10 % en 2022

50 % en 2040

90 % en 2075

Ils complètent cette question par :

Combien de temps faudra-t-il pour passer de l’IAG (HLMI) à la super-intelligence ?

Groupes

Dans les deux ans

Dans les 30 ans

Top 100

5 %

50 %

Les autres

10 %

75 %

Source : Nick Boström, Superintelligence, paths, dangers, strategies, op. cit., p. 19.

En réalisant son propre sondage, l’idée d’Oren Etzioni est de donner la parole à des chercheurs actifs qu’il estime signifiants dans ce champ. Celui-ci a été réalisé auprès de 193 membres de l’Americain association of artificial intelligence (AAAI). La question est formulée ainsi : Nick Boström, dans son livre, définit la super-intelligence comme un intellect plus intelligent que les meilleurs cerveaux humains dans pratiquement tous les domaines incluant la créativité scientifique, la sagesse et l’intelligence sociale. Quand pensez-vous que nous réaliserons cette super-intelligence ? 41 % des membres contactés ont répondu soit 80 personnes. La question pose ici probléme, en effet alors que Nick Boström sonde l’émergence de l’intelligence artificielle générale (stade 1), Oren Etzioni fait référence à la super-intelligence (stade 2). Sur cette base, il paraît impossible de comparer les deux sondages.

capture00

Oren Etzioni conclut, commentaires à l’appui, que la majorité des personnes sondées considèrent la super-intelligence comme au-delà de l’horizon prévisible23.

« We’re competing with millions of years’ evolution of the human brain. We can write single-purpose programs that can compete with humans, and sometimes excel, but the world is not neatly compartmentalized into single-problem questions24. »

Il rapporte par ailleurs des propos qui dénoncent « le marchand de peur professionnel » :

« Nick Bostrom is a professional scare monger. His Institute’s role is to find existential threats to humanity. He sees them everywhere. I am tempted to refer to him as the ‘Donald Trump of AI’25. »

En réalisant ce contre-sondage, Oren Etzioni s’attaque au point névralgique du texte de Nick Boström : sa justification académique. Ce faisant, il tente d’affaiblir la portée de l’ouvrage. Déjà en 2014, répondant aux craintes formulées par Elon Musk et Bill Gates, il affirmait et expliquait dans un article pourquoi, en tant que chercheur en intelligence artificielle, il n’avait pas peur. Dans ce texte, il laissait déjà apparaître l’exaspération du chercheur contre cette vision dystopique qu’il qualifie, en référence à Isaac Asimov, de complexe de Frankenstein (la créature qui se retourne contre son créateur). Il illustre son point de vue par la formule du philosophe américain John Searle utilisée suite à au succès de Watson en 2011 dans le jeu populaire américain : Jeopardy! : « Watson doesn’t know it won Jeopardy! ». Oren Etzioni considère que l’évolution de l’IA, qui n’est qu’à ses balbutiements, est nécessairement disruptive, mais elle est aussi tissée d’opportunités. Il concluait que ce climat de crainte contrariait les bénéfices que pouvaient apporter l’IA à l’humanité26.

Indépendamment des résultats qui finalement ne sont que des spéculations, cette prise de position montre que les travaux du philosophe Nick Boström, ses propos, commencent à exaspérer un certain nombre de personnes dans le champ de l’intelligence artificielle…

Vincent Guérin

Notes :

1 Raffi Khatchadourian, « The doomsday invention. Will artificial intelligence bring us utopia or destruction? », The New Yorker, no 23, novembre 2015.

2 Je remercie Daniel Lewkowicz et Béatrice Guérin-Gorgeard pour leurs remarques judicieuses.

3 Oren Etzioni, « Are the experts worried about the existential risk of artificial intelligence », MIT Technology Review, 20 septembre, 2016.

4 Nick Boström, Superintelligence, paths, dangers, strategies, Oxford, OUP, 2014.

5 Tim Adams, « Artificial Intelligence : ‘We’re like children playing with a bomb’ », TheGuardian, 12 juin 2016 ; et Seung Lee, « Artificial Intelligence is coming and it could wipe us out », Newsweek, 4 mars 2016.

6 « Opinions about the future of machine intelligence », in Nick Boström, Superintelligence, paths, dangers, strategies, op. cit. p. 18-21

7 Site OpenAI.

8 Cade Metz, « Inside OpenIA, Elon Musk’s wild plan to set artificial intelligence free », Wired, 27 avril 2016.

9 Nick Boström, « Existential risk prevention as global priority », Global Policy, vol. 4, no 1, 2013, p. 15.

10 Lire Erik Brynjolfsson et Andrew McAfee, The second machine age. Work, progress, and prosperity in a time of brilliant technologies, NY, Norton, 2014 [Le deuxième âge de la machine. Travail et prospérité à l’heure de la revolution technologique, Paris, Odile Jacob, 2015.

11 Irving J. Good, « Speculations concerning the first ultraintelligent machine », in F. Alt et M. Ruminoff (eds.), Advances in computers, vol. 6, 1965, p. 33.

12 Venor Vinge, « The coming technological singularity: How to survive in the post-human era », Vision-21, Interdisciplinary science and engineering in the era of cyberspace, Ohio March 30-31, 1993, p. 11.

13 Ray Kurzweil, The singularity is near. When humans transcend biology, London, Penguin Books, 2005.

14 Pour une critique : Drew McDermott, Kurzweil’s argument for the success of AI, Artificial intelligence, no 170, 2006, p. 1227-1233 ; et la réponse de Ben Goertzel, «Huma-level artificial general intelligence and the possibility of a technological singularity. A reaction to Ray Kurzweil’s The singularity is near, and McDermott’s critique of Kurzweil», Artificial intelligence, no 171, 2007, p. 1161-1173.

15 Hugo de Garis et Ben Goertzel, Report on the first conference on artificial general intelligence (AGI-08), AI Magazine, printemps 2009, p. 122.

17 Oren Etzioni, « Deep Learning isn’t a dangerous magic genie. It’s just math », Wired, 15 juin 2016.

18 Vincent C. Muller et Nick Boström, « Future Progress in Artificial Intelligence : A survey of Expert Opinion », op. cit.

19 Idem.

20 Nils J. Nilsson, « Human-level artificial intelligence? Be serious! », AAAI, hiver 2005.

21 Dans Superintelligence Nick Bostrom utilise HLMI pour human-level machine intelligence, alors que dans le texte commentant le sondage il fait référence à high-Level machine intelligence.

22 Idem.

23 Oren Etzioni, « Are the experts worried about the existential risk of artificial intelligence », op. cit.

24 Idem.

25 Idem.

26 Oren Etzioni, « It’s time to intelligently discuss artificial intelligence. I am AI researcher and I’m not scared. Here’s why », BlackChannel, 9 décembre 2014.

2 Comments »

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :