OpenAI lance un programme pédagogique pour se préparer à l’AGI

OpenAI a annoncé le lancement de Spinning Up, un programme conçu pour enseigner à quiconque l’apprentissage par renforcement en profondeur (deep reinforcement learning (deep RL)).

L’apprentissage par renforcement implique de fournir des signaux de récompense à un agent (robot etc…) dans un environnement incitant à maximiser sa récompense pour atteindre un objectif.

L’apprentissage par renforcement a joué un rôle dans les avancées majeures en matière d’intelligence artificielle telles que AlphaGo de Google DeepMind et les agents formés dans des environnements tels que Dota 2.

Spinning Up comprend une collection de documents de recherche importants sur l’apprentissage par renforcement, un glossaire de la terminologie nécessaire à la compréhension de l’apprentissage par renforcement, ainsi qu’une collection d’algorithmes pour la réalisation d’exercices.

Le programme a été lancé non seulement pour aider les gens à comprendre le fonctionnement de l’apprentissage par renforcement, mais aussi pour progresser dans la réalisation de l’objectif général d’OpenAI de créer en toute sécurité une intelligence artificielle générale (AGI) en impliquant davantage de personnes de domaines autres que l’informatique.

Intelligence Artificielle Générale : Les gouvernements doivent investir

«Pour résoudre les problèmes de sécurité liés à l’IA, il faudra faire appel à des personnes ayant un large éventail de compétences et de points de vue, et de nombreuses professions concernées n’ont aucun lien avec l’ingénierie ou l’informatique. Néanmoins, toutes les personnes impliquées devront en savoir suffisamment sur la technologie pour prendre des décisions éclairées et sur plusieurs éléments de Spinning Up qui répondent à ce besoin », selon la documentation Spinning Up.

En plus de progresser dans la réalisation de l’objectif d’une intelligence artificielle générale déployée en toute sécurité, le programme a été créé car il n’existe à ce jour aucun manuel unique capable de fournir les connaissances nécessaires pour mettre en œuvre l’apprentissage par renforcement; la connaissance est actuellement enfermée dans une série de conférences disparates et de documents de recherche influents.

«Notre package est donc conçu pour servir d’étape intermédiaire manquante aux personnes qui sont enthousiastes pour un apprentissage par renforcement en profondeur et qui souhaitent apprendre à l’utiliser ou à apporter une contribution, mais qui n’ont pas une idée précise de ce qu’il faut étudier ou comment transformer des algorithmes en code. Nous avons essayé de faire de ce point un point de lancement aussi utile que possible », lit-on dans la page du projet.

L’initiative Spinning Up fait partie d’un ensemble plus large de services éducatifs qu’OpenAI a l’intention de mettre à disposition. Un atelier de mise au point aura lieu en février 2019, et un autre atelier sera co-organisé avec le Center for Human-Compatible AI (CHAI) de l’Université de Californie à Berkeley.

Venturebeat

Pour allez plus loin, un ouvrage disponible en ligne sur l’apprentissage par renforcement : Renforcement Learning: An Introduction, par l’instructeur, Rich Sutton, et Andrew Barto.

Richard Sutton et Andrew Barto fournissent un compte rendu clair et simple des idées clés et des algorithmes de l’apprentissage par renforcement. Leurs discussions vont de l’historique des fondements intellectuels du domaine aux développements et applications les plus récents. La seule connaissance mathématique nécessaire est la connaissance des concepts élémentaires de probabilité.

L’apprentissage par renforcement, l’un des domaines de recherche les plus actifs en intelligence artificielle, est une approche informatisée de l’apprentissage dans laquelle un agent essaie de maximiser la récompense totale qu’il reçoit lorsqu’il interagit avec un environnement complexe et incertain.

Cette deuxième édition se concentre sur les principaux algorithmes d’apprentissage en ligne, les éléments les plus mathématiques étant présentés dans des zones ombrées.

La partie I couvre autant que possible l’apprentissage par renforcement sans aller au-delà du cas tabulaire pour lequel des solutions exactes peuvent être trouvées. De nombreux algorithmes présentés dans cette partie sont nouveaux pour la deuxième édition, notamment UCB, Expected Sarsa et Double Learning.

La partie II étend ces idées à l’approximation des fonctions, avec de nouvelles sections sur des sujets tels que les réseaux de neurones artificiels et la base de Fourier, et propose un traitement élargi de l’apprentissage off-policy et des méthodes de policy-gradient.

La troisième partie comprend de nouveaux chapitres sur les relations entre l’apprentissage par renforcement, la psychologie et les neurosciences, ainsi qu’un chapitre actualisé sur des études de cas, notamment AlphaGo et AlphaGo Zero, les jeux d’Atari et la stratégie de mise d’IBM Watson.

Le dernier chapitre aborde les impacts sociétaux futurs de l’apprentissage par renforcement.

Les dirigeants des meilleures sociétés de robotique et d’IA appellent à l’interdiction des robots tueurs

Les dirigeants des compagnies d‘intelligence artificielle et de robotique à travers le monde, y compris Elon Musk (Tesla, SpaceX, OpenAI), Demis Hassabis et Mustafa Suleyman (Google DeepMind), ont publié une lettre ouverte appelant les Nations Unies à interdire les armes autonomes, souvent appelées robots tueurs (systèmes d’armes létales autonomes – SALA*), alors que l’ONU retarde les négociations.

Les fondateurs et les PDG de près de 100 entreprises de 26 pays ont signé la lettre, qui met en garde :

« Les systèmes d’armes létales autonomes menacent de devenir la troisième révolution en matière de guerre. Une fois développées, elles permettront de mener des conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides à ce que les humains peuvent concevoir. »

En décembre 2016, 123 nations membres de l’ONU avaient accepté d’aller de l’avant avec des discussions officielles sur les armes autonomes, 19 membres demandant déjà une interdiction totale. Cependant, la prochaine étape des discussions, initialement prévue pour le 21 août 2017 – date de publication de la lettre ouverte – a été reportée au mois de novembre, d’après le magazine en ligne Fortune.

La lettre a été organisée et annoncée par Toby Walsh, un éminent chercheur en intelligence artificielle à l’Université de Nouvelle-Galles du Sud à Sydney (University of New South Wales ou UNSW), en Australie. Dans un courriel, il a noté que « malheureusement, l’ONU n’a pas commencé aujourd’hui ses délibérations formelles à propos des systèmes d’armes létales autonomes ».

« Il y a cependant une urgence réelle à prendre des mesures et d’empêcher une course aux armements très dangereuse », Walsh a ajouté : « Cette lettre ouverte témoigne d’une préoccupation claire et d’un solide soutien à l’industrie de la robotique et de l’intelligence artificielle. »

Cité dans le journal The Independent du Royaume-Uni, le professeur Walsh a expliqué, « Presque chaque technologie peut être utilisée à bon ou mauvais escient, et il en est de même pour l’intelligence artificielle. Elle peut aider à résoudre de nombreux problèmes urgents auxquels fait face la société aujourd’hui : l’inégalité et la pauvreté, les difficultés que présentent le changement climatique et la crise financière mondiale actuelle.

« Cependant, cette même technologie peut également être utilisée dans les armes autonomes afin d’industrialiser la guerre. Nous devons prendre des décisions aujourd’hui en choisissant lequel de ces avenirs nous souhaitons. »

La lettre ouverte comprend des signataires tels que :

• Elon Musk, fondateur de Tesla, SpaceX et OpenAI (USA)
• Demis Hassabis, fondateur et PDG de Google DeepMind (Royaume-Uni)
• Mustafa Suleyman, fondateur et responsable de l’Applied AI chez Google DeepMind (Royaume-Uni)
• Esben Østergaard, fondateur et CTO de Universal Robotics (Danemark)
• Jérôme Monceaux, fondateur d’Aldebaran Robotics, fabricant de
s robots Nao et Pepper (France)
• Jürgen Schmidhuber, expert en
deep learning et fondateur de Nnaisense (Suisse)
• Yoshua Bengio, expert en
deep learning et fondateur de Element AI (Canada)

En ce qui concerne les signataires, le communiqué de presse de la lettre a ajouté : « Leurs entreprises emploient des dizaines de milliers de chercheurs, de roboticiens et d’ingénieurs, valent des milliards de dollars et couvrent le globe du Nord au Sud, de l’Est à l’Ouest : l’Australie, le Canada, la Chine, la République tchèque, le Danemark, l’Estonie, la Finlande, la France, l’Allemagne, l‘Islande, l’Inde, l’Irlande, l’Italie, le Japon, le Mexique, les Pays-Bas, la Norvège, la Pologne, la Russie, Singapour, l’Afrique du Sud, l’Espagne, la Suisse, le Royaume-Uni, les Émirats arabes unis et les États-Unis. »

Bengio a expliqué pourquoi il a signé, en disant : « l’utilisation de l’IA dans les armes autonomes blesse mon sens de l’éthique ». Il a ajouté que le développement d’armes autonomes « conduirait probablement à une escalade très dangereuse » et que « cela nuirait au développement de bonnes applications d’intelligence artificielle ». Il a conclu sa déclaration en disant que « c’est une question qui doit être traitée par la communauté internationale, de même à ce qui a été fait dans le passé pour d’autres armes moralement répréhensible (biologiques, chimiques, nucléaires) ».

Stuart Russell, l’un des chercheurs les plus importants du monde en intelligence artificielle et fondateur de Bayesian Logic Inc., a ajouté :

« À moins que les gens ne souhaitent voir de nouvelles armes de destruction massive (ADM) – sous la forme de vastes essaims de micro-drones létaux – se répandant dans le monde entier, il est impératif d’intensifier et de soutenir les efforts des Nations Unies pour créer un traité interdisant les systèmes d’armes létales autonomes. Ceci est vital pour la sécurité nationale et internationale ».

Ryan Gariepy, fondateur et CTO de Clearpath Robotics a été le premier à signer la lettre. Pour le communiqué de presse, il a noté :

«Les systèmes d’armes autonomes sont à la pointe du développement en ce moment et ont un potentiel très réel pour causer des dommages importants aux personnes innocentes et une instabilité mondiale ».

La lettre ouverte se termine par des préoccupations similaires. Il est dit :

« Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes piratées pour se comporter de manière indésirable. Nous avons peu de temps pour agir. Une fois que cette boîte de Pandore sera ouverte, il sera difficile de la refermer. Nous implorons donc les hautes parties contractantes de trouver un moyen de nous protéger contre tous ces dangers ».

La lettre a été présentée à Melbourne, en Australie lors de la Conférence conjointe internationale sur l’intelligence artificielle (IJCAI), qui attire un nombre important des plus grands chercheurs du monde en matière d’intelligence artificielle. Il y a deux ans, lors de la dernière réunion de l’IJCAI, Walsh avait publié une autre lettre ouverte, qui appelait les pays à éviter de s’engager dans une course aux armes basées sur l’intelligence artificielle. Jusqu’à présent, cette lettre a été signée par plus de 20 000 personnes, dont plus de 3 100 chercheurs en intelligence artificielle/robotique.

The Independent, Fortune, University of New South Wales, UNSW, Future of Life Institute


* Julien Ancelin, « Les systèmes d’armes létaux autonomes (SALA) : Enjeux juridiques de l’émergence d’un moyen de combat déshumanisé », La Revue des droits de l’homme [En ligne], Actualités Droits-Libertés, mis en ligne le 25 octobre 2016, consulté le 02 septembre 2017. URL : http://revdh.revues.org/2543 ; DOI : 10.4000/revdh.2543

Systèmes d’armes létaux autonomes : Ministère de l’Europe et des Affaires étrangères. Mission permanente de la France auprès de la Conférence du désarmement à Genève
Enjeux et position de la France : “Les systèmes d’armes létaux autonomes (SALA) sont des armes potentiellement susceptibles d’identifier, d’engager et de neutraliser une cible sans intervention humaine. Bien que de tels systèmes n’existent pas, l’autonomie de ces systèmes d’armes serait susceptible de poser de nombreuses questions sur le plan moral, juridique ou encore opérationnel. C’est la raison pour laquelle un débat sur la manière d’appréhender ces armes, qui ne font pas encore partie de la réalité stratégique, est nécessaire. Il s’agit d’un débat d’ordre prospectif. Par ailleurs, l’autonomie, qui n’est pas synonyme d’automaticité, fait également naître de nombreux questionnements sur l’opportunité stratégique du développement et de l’utilisation de ces armes. Enfin, si les discussions sur la problématique des SALA ont lieu dans le cadre de la Convention de 1980 sur certaines armes classiques, il n’en existe pas, à ce jour, de définition communément agréée. Il s’agit de l’un des principaux enjeux actuels des débats sur les SALA. Les discussions sur les SALA au sein de la CCAC ont été lancées en 2013, sur initiative française. Compte-tenu de la nature prospective de ces systèmes et de la nécessité de s’accorder sur un périmètre commun de discussions, la France estime nécessaire de poursuivre les échanges au sein de la CCAC, si nécessaire dans le cadre d’un groupe d’experts gouvernementaux. La France a lors d’une intervention à Genève exposé les conditions suivantes pour qu’une arme soit identifiée comme un SALA : aucune forme de supervision humaine ne doit être possible, l’arme doit être mobile dans un espace terrestre, aérien ou marin de manière autonome, être capable de sélectionner une cible et de déclencher le tir d’une munition létale de manière autonome, être capable de s’adapter à son environnement et au comportement des agents qui l’entourent.”

Apple rejoint Amazon, Facebook, Google, IBM et Microsoft dans l’initiative IA

La technologie de l’intelligence artificielle gagne en popularité chaque jour. Toutes les grandes entreprises semblent prendre le train en route, en essayant de trouver de nouvelles et intéressantes façons d’utiliser l’IA. Dans le cadre de ce mouvement, le partenariat sur l’intelligence artificielle au profit des populations et de la société (Partnership on AI) a été créé en septembre 2016. Lors de sa création, Amazon, Facebook, Google, IBM et Microsoft étaient les seuls membres fondateurs. Apple, Twitter, Intel et Baidu n’avaient pas participé à l’initiative. Ce collectif vient d’annoncer officiellement qu’Apple rejoint l’équipe.

Le cofondateur de Siri et CTO (Chief Technology Officer – directeur de la technologie) Tom Gruber représente Apple dans cette excitante collaboration. Compte tenu de la popularité et de la réputation d’Apple, cette union pourrait conduire à de futures avancées en IA.

Vous pouvez trouver l’ensemble du conseil d’administration sur le site Web Partnership on AI.

Ces entreprises reconnaissent la nécessité de travailler ensemble pour améliorer la qualité de la vie des gens et pour répondre aux défis mondiaux importants, tels que le changement climatique, la nourriture, l’inégalité, la santé et l’éducation.

Ce partenariat s’engage à : Ouvrir la recherche et le dialogue sur les implications éthiques, sociales, économiques et juridiques de l’IA. S’assurer que la recherche et la technologie de l’IA sont solides, fiables, dignes de confiance et fonctionnent dans des limites sûres. S’opposer au développement et à l’utilisation des technologies de l’IA qui violeraient les conventions internationales ou les droits de l’homme et promouvoir les garanties et les technologies qui ne nuisent pas.

traduction Thomas Jousse

Partnership on AI, TechCrunch, Bloomberg

Les spécialistes sont-ils inquiets du risque existentiel associé à l’intelligence artificielle ?

« Many of the points made in this book are probably wrong […]. I don’t know which ones1. »

Nick Boström

Les spécialistes sont-ils vraiment inquiets du risque existentiel associé à l’intelligence artificielle2 ? C’est la question que pose Oren Etzioni dans le MIT Technology Review3, en écho à des articles récents sur le philosophe transhumaniste Nick Boström (université d’Oxford) qui a publié Superintelligence, paths, dangers, strategies en 20144.

Las du discours associant IA et menace5, Oren Etzioni a décidé de réaliser son propre sondage auprès des membres de l’American association for artificial intelligence (AAAI). Ses résultats apparaissent, a priori, beaucoup moins tranchés que ceux exposés par Nick Boström dans son ouvrage6.

Superintelligence, paths, dangers, strategies – non traduit à ce jour en français – a pour objectif d’attirer l’attention sur le risque existentiel anthropique associé à l’intelligence artificielle qui pourrait, selon Nick Boström, menacer l’humanité d’extinction. Cette menace est largement relayée par des personnalités aussi célèbres que Bill Gates et Elon Musk (SpaceX, Tesla Motors, etc.) qui vient de fonder (2015) avec Sam Altman (Loopt, Y Combinator), une organisation non lucrative, dotée d’un milliard de dollars, nommée OpenAI7. Ce laboratoire a pour objet de stimuler des recherches en open source afin de promouvoir largement une IA bénéfique, qui auraient pour effet de « neutraliser la menace » en évitant le monopole8.

Au filtre du transhumanisme, ce risque existentiel menacerait prématurément l’extinction de l’intelligence née sur Terre avant qu’elle ne puisse atteindre sa maturité, l’expression de sa plénitude : le posthumain et ses potentialités comme l’exploration de l’univers9.

L’ « explosion de l’intelligence » peut être schématisée ainsi : lorsque la machine aura atteint le stade de l’intelligence humaine (human-level machine intelligence – HLMI) autrement appelée intelligence artificielle générale ou forte (une notion très subjective), elle pourrait se reprogrammer, puis à nouveau se reprogrammer à partir de cette nouvelle programmation et ainsi de suite jusqu’à produire une évolution exponentielle : la super-intelligence.

L’ouvrage de Nick Boström s’inscrit dans une ligne de recherche plus générale portant sur la catastrophe globale qui a donné naissance en 2005 à la création du Futur of Humanity Institute (FHI), une institution rattachée à la Martin Oxford School et dont Nick Boström est le directeur. Le FHI est constitué d’une équipe pluridisciplinaire ayant pour but de générer des recherches académiques sur les risques anthropiques afin de les identifier et les prévenir : comme ici le « décollage » (takeoff) d’une IA hostile. Cette institution vient de recevoir un financement d’un million de dollars de la part d’Elon Musk pour encourager ses activités.

Ce livre paraît dans un contexte marqué par le développement d’une IA polymorphe, extrêmement conquérante10. Ce phénomène suscite de multiples questionnements, qui favorisent, en retour, des spéculations jusqu’alors marginales, comme l’idée d’ultra-intelligence développée en 1965 par Irving J. Good devenue par la suite11, sous la plume du mathématicien et auteur de science-fiction Venor Vinge12 et Ray Kurzweil (Google)13, singularité technologique14. Ceux qui adhèrent à la faisabilité prochaine de l’intelligence artificielle générale, évoquent l’évolution des puissances de stockage et de calcul, la réalité augmentée15, etc.

Oren Etzioni est loin d’être un inconnu : chercheur de renom, il travaille dans de nombreux domaines de l’intelligence artificielle mais plus particulièrement dans la reconnaissance automatique de texte, notamment en ligne (Web search, Data mining et Information extraction). Entrepreneur fécond, il est à l’origine de plusieurs entreprises comme MetaCrawler (Infospace), Netbot (Excite), ClearForest (Reuters) et Decide (Ebay). Membre de l’American association of artificial intelligence depuis 2003, il est aussi PDG d’Allen institute for artificial intelligence (AI2) dont la mission est de contribuer au développement d’une IA pour le bien de l’humanité16. Récemment, ses interventions médiatiques ont eu majoritairement pour but de relativiser les progrès de l’IA. Il s’est manifesté dernièrement après les « victoires » du programme informatique AlphaGo (Google DeepMind) sur les joueurs de go Fan Hui et Lee Sedol, avec un article au titre explicite : « Deep Learning isn’t a dangerous magic genie. It’s just math »17.

Dans son article daté du 20 septembre dernier, Oren Etzioni s’attaque ainsi aux résultats du sondage effectué par Nick Boström dans Superintelligence. Ce faisant, il questionne habilement un passage clé du livre. En effet, les deux pages incriminées donnent du crédit au reste du texte, qui est, par nature, spéculatif ; un aspect assumé par le philosophe qui donne ainsi un habillage académique à des idées qui existent, pour certaines, depuis longtemps et indépendamment du transhumanisme.

L’étude réalisée par Nick Boström et Vincent C. Müller repose sur l’agrégation de quatre sondages distincts obtenus auprès de quatre groupes entre 2012 et 2013. Le premier a été réalisé auprès des membres d’une conférence intitulée « Philosophy and theory of IA » (PT-AI) qui s’est tenue en 2011 à Thessalonique (Grèce) et organisée Vincent C. Müller. Cependant, aux yeux d’Oren Etzioni ce sondage apparaît comme obscur. Il manque, selon lui, les questions et les réponses. Le second sondage a été réalisé auprès des participants de deux conférences autour de l’intelligence artificielle générale (AGI), un groupe a priori acquis à cette idée (cf. résultats du sondage). Le troisième a été fait auprès des membres de la Greek association for artificial intelligence (EETN). Cette association est-elle représentative ? L’ensemble est complété par un sondage effectué auprès « des plus grandes figures de l’histoire l’intelligence artificielle » selon Microsoft academic search.

Un document donne des détails sur les différents sondages : nature des groupes, effectifs ainsi que les questions et les réponses18. Nous savons ainsi que sur 549 personnes sollicitées, 170 ont répondu (soit 31 %).

Source : Vincent C. Müller et Nick Boström, « Future Progress in Artificial Intelligence : A survey of Expert
Opinion », http://www.nickBoström.com/papers/survey.pdf

Cette enquête menée par Nick Boström et Vincent C. Müller a pour objectif de sonder l’opinion des experts sur une hypothétique émergence de l’intelligence artificielle générale, qu’ils définissent par la capacité pour une IA d’exercer, aussi bien que les humains, toutes les métiers19. Une définition utilisée par un des pères historiques de l’intelligence artificielle : Nils J. Nilsson20. Cette question centrale est assortie d’un jeu de sous-questions. Quelle sous-discipline de l’IA contribuera le plus à cette réalisation ? À cette question ce sont les sciences cognitives qui arrivent en tête. Nick Boström et Vincent C. Müller font remarquer à cet endroit la grande disparité d’appréciation sur la digitalisation du cerveau (whole brain emulation) qui obtient 0 % dans le Top 100 mais 46 % dans le groupe de l’intelligence artificielle générale. Mais aussi, dans combien de temps l’intelligence artificielle forte (human-level machine intelligence) sera-t-elle effective21? Enfin, en considérant que nous accédions un jour au stade de l’intelligence artificielle générale (stade 1), combien de temps faudra-t-il pour atteindre la super-intelligence (stade 2) ? Sera-t-elle neutre, positive, négative ? Le sondage réalisé auprès du Top 100, envoyé par e-mail, précisait l’usage qui en serait fait, à savoir la contribution à la nouvelle publication de Nick Boström : Superintelligence22. Selon les chercheurs sollicités, l’intelligence artificielle générale pourrait émerger selon cette projection :

Quand émergera l’intelligence artificielle générale (HLMI) ?

Source : Nick Boström, Superintelligence, paths, dangers, strategies, op. cit., p. 19.

Soit :

10 % en 2022

50 % en 2040

90 % en 2075

Ils complètent cette question par :

Combien de temps faudra-t-il pour passer de l’IAG (HLMI) à la super-intelligence ?

Source : Nick Boström, Superintelligence, paths, dangers, strategies, op. cit., p. 19.

En réalisant son propre sondage, l’idée d’Oren Etzioni est de donner la parole à des chercheurs actifs qu’il estime signifiants dans ce champ. Celui-ci a été réalisé auprès de 193 membres de l’Americain association of artificial intelligence (AAAI). La question est formulée ainsi : Nick Boström, dans son livre, définit la super-intelligence comme un intellect plus intelligent que les meilleurs cerveaux humains dans pratiquement tous les domaines incluant la créativité scientifique, la sagesse et l’intelligence sociale. Quand pensez-vous que nous réaliserons cette super-intelligence ? 41 % des membres contactés ont répondu soit 80 personnes. La question pose ici probléme, en effet alors que Nick Boström sonde l’émergence de l’intelligence artificielle générale (stade 1), Oren Etzioni fait référence à la super-intelligence (stade 2). Sur cette base, il paraît impossible de comparer les deux sondages.

Oren Etzioni conclut, commentaires à l’appui, que la majorité des personnes sondées considèrent la super-intelligence comme au-delà de l’horizon prévisible23.

« We’re competing with millions of years’ evolution of the human brain. We can write single-purpose programs that can compete with humans, and sometimes excel, but the world is not neatly compartmentalized into single-problem questions24. »

Il rapporte par ailleurs des propos qui dénoncent « le marchand de peur professionnel » :

« Nick Bostrom is a professional scare monger. His Institute’s role is to find existential threats to humanity. He sees them everywhere. I am tempted to refer to him as the ‘Donald Trump of AI’25. »

En réalisant ce contre-sondage, Oren Etzioni s’attaque au point névralgique du texte de Nick Boström : sa justification académique. Ce faisant, il tente d’affaiblir la portée de l’ouvrage. Déjà en 2014, répondant aux craintes formulées par Elon Musk et Bill Gates, il affirmait et expliquait dans un article pourquoi, en tant que chercheur en intelligence artificielle, il n’avait pas peur. Dans ce texte, il laissait déjà apparaître l’exaspération du chercheur contre cette vision dystopique qu’il qualifie, en référence à Isaac Asimov, de complexe de Frankenstein (la créature qui se retourne contre son créateur). Il illustre son point de vue par la formule du philosophe américain John Searle utilisée suite à au succès de Watson en 2011 dans le jeu populaire américain : Jeopardy! : « Watson doesn’t know it won Jeopardy! ». Oren Etzioni considère que l’évolution de l’IA, qui n’est qu’à ses balbutiements, est nécessairement disruptive, mais elle est aussi tissée d’opportunités. Il concluait que ce climat de crainte contrariait les bénéfices que pouvaient apporter l’IA à l’humanité26.

Indépendamment des résultats qui finalement ne sont que des spéculations, cette prise de position montre que les travaux du philosophe Nick Boström, ses propos, commencent à exaspérer un certain nombre de personnes dans le champ de l’intelligence artificielle…

Notes :

1 Raffi Khatchadourian, « The doomsday invention. Will artificial intelligence bring us utopia or destruction? », The New Yorker, no 23, novembre 2015.
2 Je remercie Daniel Lewkowicz et Béatrice Guérin-Gorgeard pour leurs remarques judicieuses.
3 Oren Etzioni, « Are the experts worried about the existential risk of artificial intelligence », MIT Technology Review, 20 septembre, 2016.
4 Nick Boström, Superintelligence, paths, dangers, strategies, Oxford, OUP, 2014.
5 Tim Adams, « Artificial Intelligence : ‘We’re like children playing with a bomb’ », TheGuardian, 12 juin 2016 ; et Seung Lee, « Artificial Intelligence is coming and it could wipe us out », Newsweek, 4 mars 2016.
6 « Opinions about the future of machine intelligence », in Nick Boström, Superintelligence, paths, dangers, strategies, op. cit. p. 18-21
7 Site OpenAI.
8 Cade Metz, « Inside OpenIA, Elon Musk’s wild plan to set artificial intelligence free », Wired, 27 avril 2016.
9 Nick Boström, « Existential risk prevention as global priority », Global Policy, vol. 4, no 1, 2013, p. 15.
10 Lire Erik Brynjolfsson et Andrew McAfee, The second machine age. Work, progress, and prosperity in a time of brilliant technologies, NY, Norton, 2014 [Le deuxième âge de la machine. Travail et prospérité à l’heure de la revolution technologique, Paris, Odile Jacob, 2015.
11 Irving J. Good, « Speculations concerning the first ultraintelligent machine », in F. Alt et M. Ruminoff (eds.), Advances in computers, vol. 6, 1965, p. 33.
12 Venor Vinge, « The coming technological singularity: How to survive in the post-human era », Vision-21, Interdisciplinary science and engineering in the era of cyberspace, Ohio March 30-31, 1993, p. 11.
13 Ray Kurzweil, The singularity is near. When humans transcend biology, London, Penguin Books, 2005.
14 Pour une critique : Drew McDermott, Kurzweil’s argument for the success of AI, Artificial intelligence, no 170, 2006, p. 1227-1233 ; et la réponse de Ben Goertzel, «Huma-level artificial general intelligence and the possibility of a technological singularity. A reaction to Ray Kurzweil’s The singularity is near, and McDermott’s critique of Kurzweil», Artificial intelligence, no 171, 2007, p. 1161-1173.
15 Hugo de Garis et Ben Goertzel, Report on the first conference on artificial general intelligence (AGI-08), AI Magazine, printemps 2009, p. 122.
17 Oren Etzioni, « Deep Learning isn’t a dangerous magic genie. It’s just math », Wired, 15 juin 2016.
18 Vincent C. Muller et Nick Boström, « Future Progress in Artificial Intelligence : A survey of Expert Opinion », op. cit.
19 Idem.
20 Nils J. Nilsson, « Human-level artificial intelligence? Be serious! », AAAI, hiver 2005.
21 Dans Superintelligence Nick Bostrom utilise HLMI pour human-level machine intelligence, alors que dans le texte commentant le sondage il fait référence à high-Level machine intelligence.
22 Idem.
23 Oren Etzioni, « Are the experts worried about the existential risk of artificial intelligence », op. cit.
24 Idem.
25 Idem.
26 Oren Etzioni, « It’s time to intelligently discuss artificial intelligence. I am AI researcher and I’m not scared. Here’s why », BlackChannel, 9 décembre 2014.

Une brève histoire d’Elon Musk, l’homme qui remodèle notre monde

Elon Musk a été surnommé «la vraie vie d’Iron Man.” Il est la force motrice de SpaceX, Tesla Motors, SolarCity et OpenAI. Il est ingénieur, inventeur, investisseur – et c’est juste le début. Rencontrer l’homme qui veut réinventer le monde en une seule vie.

Intelligence artificielle : Elon Musk fonde OpenAI

Vendredi 11 décembre 2015, a été annoncé la création d’OpenAI. Une organisation à but non lucratif, dont l’objectif est de s’assurer que l’intelligence artificielle reste bénéfique pour l’humanité, fondée par Elon Musk entre autres.

Voir le communiqué