Sujet, objet, IA, Musk, une religion

Sujet, objet, IA, Musk, une religion – Revue Médicale Suisse (RMS N° 560) p.928, Bertrand Kiefer

Notre époque a ses mythes et ses utopies, ses rêves de grandeur et ses projections dans le futur. Tout n’est pas réaliste, évidemment, dans ce mélange de métaphores et de récits, mais le fond est d’origine scientifique. C’est notre caractéristique. De la science-fiction nous avons fait une religion. Parmi cet ensemble de projections, deux se distinguent par leur capacité à bouleverser notre quotidien. La première est celle de l’homme augmenté. En attendant son aboutissement le plus fou, le transhumanisme, le projet d’augmentation est en marche…. La seconde est l’intelligence artificielle (IA). Elle commence à sortir de son cocon d’obsession de geek pour transformer concrètement le monde.

lire la suite, télécharger le PDF

Le fondateur d’Amazon veut livrer des fournitures sur la Lune

Jeff Bezos, founder of Blue Origin, inspects New Shepard’s West Texas launch facility before the rocket’s maiden voyage.
Credit: Blue Origin

Jeff Bezos, le fondateur d’Amazon, veut créer un service «Amazon-like» pour fournir du matériel et des fournitures aux astronautes sur la Lune. Bezos veut combiner son autre entreprise, Blue Origin (« origine bleue »), fabricant aéronautique et d’organisation de vols spatiaux, avec les principes de livraison d’Amazon pour offrir un service unique.

Concurrencé par SpaceX, la société d’Elon Musk, Bezos pense que leur atterrisseur lunaire “Blue Moon” pourra commencer à fournir des fournitures sur la Lune d’ici 2020. Blue Moon devrait porter jusqu’à 453,5 kg de cargaison par voyage. En raison de cette capacité, l’émetteur serait capable de transporter des rovers1 et des équipements scientifiques.

Bezos a exprimé sa passion pour l’augmentation des voyages vers la Lune, mais aussi sur la possibilité de l’établissement d’une base lunaire permanente.

« Il est temps pour l’Amérique de revenir sur la Lune – cette fois-ci pour rester. L’établissement d’une base lunaire habitée en permanence est un objectif difficile et digne. Je sens que beaucoup de gens sont enthousiasmés à ce sujet … Notre expertise en hydrogène liquide et notre expérience avec un atterrissage vertical de précision offrent le chemin le plus rapide vers une mission d’alunissage (atterrissage sur la Lune). Je suis ravi de cela et je suis prêt à investir mon argent avec la NASA pour que cela se produise. »

Engadget, Blue Origin, Washington Post

1Un rover lunaire est un véhicule d’exploration spatiale (rover), conçu pour se déplacer sur la surface de la Lune. Certains rovers ont été conçus pour transporter des membres d’un équipage de vol spatial humain, tels que le LRV du programme Apollo ; D’autres ont été des robots partiellement ou totalement autonomes, tels que les Lunokhods soviétiques et les Yutus chinois. Trois pays ont eu des rovers sur la Lune: l’Union soviétique, les États-Unis, l’Inde et la Chine. Le Japon et l’Inde s’apprêtent à les rejoindre. (ndlr Wikipedia)

De quoi discutent Larry Page, Elon Musk et Yann Le Cun ? (Beneficial AI 2017)

« Technology is giving life the potential to flourish like never before… or to self-destruct. Let’s make a difference ! » Future of Life Institute

En janvier dernier s’est tenu à Asilomar (Californie) le second colloque organisé par Future of life Institute (FLI) dont l’objectif était d’anticiper l’évolution de l’intelligence artificielle afin qu’elle soit bénéfique pour l’humanité.

Cette association a été créée en 2014 par Jaan Tallinn, informaticien et cofondateur de Skype et Kazaa, Meia Chita-Tegmark (Université de Boston), Vicktorya Krakovna (DeepMind) et les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT).

On trouve au sein du comité scientifique Stephen Hawking (Cambridge), Erik Brynjolfsson (MIT), Martin Rees (Cambridge), Nick Boström (Oxford), Elon Musk (Tesla, Space X), etc1. En 2015, ce dernier a fait don au FLI de 10 millions de dollars.

L’objectif de cette institution est d’anticiper les risques existentiels (qui menacent l’humanité toute entière) anthropiques (du fait de l’homme) comme le réchauffement climatique global, l’arsenal nucléaire2, les biotechnologies mais aussi et surtout ceux liées à l’IA3.

En janvier 2015, le FLI avait publié une lettre ouverte sur les risques/bénéfices liés à l’IA qui a reçu à ce jour plus de 8000 signatures.

L’idée : impulser une réflexion pluridisciplinaire afin de stimuler des recherches dans le sens d’une intelligence artificielle puissante (robust AI) tout en prenant soin qu’elle soit bénéfique pour la société. L’esprit : « Our AI systems must do what we want them to do ».

Ce colloque interdisciplinaire constitué de conférences et d’ateliers (workshops) fait suite à celui qui s’était déroulé à Puerto Rico en 2015 et qui avait réuni des chercheurs du champ de l’IA mais aussi des spécialistes de l’économie, du droit, de l’éthique et de la philosophie.

Au programme, cette année, se trouvait un panel de « célébrités » comme Erik Brynjolfsson (MIT), Yann Le Cun (Facebook/NYU), Ray Kurzweil (Google), Andrew McAfee (MIT), Nick Boström (Oxford), Elon Musk (Tesla/Space X), David Chalmers (NYU), Stuart Russel (Berkeley), Peter Norvig (Google), Larry Page (Google), Yoshua Bengio (Montreal Institute for learning algorithms), Oren Etzioni (Allen Institute), Martin Rees (Cambridge/CSER), Wendell Wallach (Yale), Eric Drexler (MIT), Eliezer Yudkowsky (MIRI), etc4. Les thématiques des conférences et workshops, très riches, portaient sur l’impact à venir de l’automatisation, le concept de superintelligence, les chemins possibles vers l’IA « réelle », la gestion des risques liés à l’IA, etc. On trouvera ici les PowerPoints et vidéos des intervenants.

Des discussions sont nées 23 principes dits « Asilomar » signés d’ores et déjà par plus de 3500 personnalités dont 1171 du champ de l’IA. Non figés, ces principes ont pour objectif de générer des discussions et réflexions sur le site du FLI et ailleurs.

Notes :

2 Une lettre ouverte signée par 3400 scientifiques a récemment été communiquée à l’ONU afin de soutenir son initiative de bannir les armes nucléaires.
3 Depuis quelques années, de nombreuses institutions se sont développées pour anticiper les risques existentiels naturels et anthropogènes. Parmi ces dernières, l’intelligence artificielle est souvent mise en avant. Ainsi, outre le FLI, on citera Machine intelligence research institute (MIRI/Berkeley), Future of humanity institute (FHI/Oxford), Centre for the study of existential risk (CSER/Cambridge), Open AI (Elon Musk), One hundred years study on artificial intelligence (AI100/Stanford), Global catastrophic risk institute (GCRI) et dernièrement Leverhulme centre for the future of intelligence (Cambridge). Sur le Leverhulme centre for the future of intelligence et Center for the study of existential risk on peut lire « Meet Earth’s guardians, the real-world X-men and women saving us from existential threats », Wired, 12 février 2017 ; sur Future of humanity institute Ross Andersen, « Omens », Aeon, 25 février 2013.

Elon Musk lance une entreprise pour fusionner votre cerveau avec un ordinateur

Au cas où vous l’auriez manqué, Elon Musk est assez préoccupé par le sort de l’humanité, compte tenu des progrès extrêmes réalisés dans l’intelligence artificielle. Fondamentalement, il craint que l’IA ne nous dépasse un jour. Lorsque cela se produira, il prétend que les humains deviendront probablement des citoyens de deuxième classe (voire des esclaves, ou pire).

En ce moment, des rapports ont fait surface qui affirment qu’il soutient une entreprise d’interface cerveau-ordinateur qui a été fondée pour permettre aux humains de suivre les progrès réalisés dans les machines. L’interface est destinée à fonctionner en augmentant ce qui nous rend humain : notre cerveau.

La découverte vient du Wall Street Journal. Selon eux, l’entreprise Neuralink est encore dans les premiers stades de développement. À cette fin, elle n’a actuellement aucune présence publique. Ce que nous savons, c’est que son but ultime est de créer un dispositif (ou peut-être une série de dispositifs) qui peut être implanté dans le cerveau humain. Ceux-ci serviront à une multitude d’objectifs – la finalité étant d’aider les humains à fusionner avec nos logiciels et à suivre le rythme des intelligences artificielles, de sorte que nous ne soyons pas à la traîne.

Au départ, ces améliorations aideront probablement de manière assez réduite, par exemple en nous aidant à améliorer notre mémoire en créant des dispositifs de stockage amovibles supplémentaires. Ce n’est pas la première fois que nous entendons parler de Musk travaillant sur un tel dispositif. Auparavant, il a mentionné un appareil appelé « neural lace » [lacet neuronal ]. Il a expliqué comment il imaginait que cela fonctionnerait à la Code Conference 2016, que vous pouvez voir ci-dessous :

Sans surprise, Musk n’est pas le seul à s’inquiéter de l’IA. Dans une vidéo publiée par Big Think, Michael Vassar, responsable scientifique principal de MetaMed Research, a déclaré que l’IA nous tuera (littéralement) vraisemblablement : « Si une intelligence artificielle générale supérieure à celle humaine est inventée sans la moindre précaution, il est plus que certain que l’espèce humaine s’éteindra peu de temps après ». Pour faire court, il avertit qu’une IA non contrôlée pourrait éradiquer l’humanité dans le futur.

De même, Stephen Hawking a déclaré que l’IA est l’une des plus grandes menaces pour l’humanité : « Le développement de l’intelligence artificielle pourrait se traduire par la fin de la race humaine. Elle s’envolerait seule et se reconceptualiserait à un rythme toujours croissant. Les humains, qui sont limités par une lente évolution biologique, ne pourraient pas concurrencer et seraient remplacés. »

À cette fin, Musk n’est pas la seule personne qui travaille à faire en sorte que l’humanité puisse suivre l’IA. Le fondateur de Braintree, Bryan Johnson, a investi 100 millions de dollars pour faire une neuroprothèse afin de débloquer le pouvoir du cerveau humain et, finalement, rendre notre code neuronal programmable.

Johnson décrit le but de son travail, affirmant qu’il s’agit de co-évolution :

Notre connexion avec nos nouvelles créations d’intelligence est limitée par des écrans, des claviers, des interfaces gestuelles et des commandes vocales – des modalités d’entrée/sortie contraintes. Nous avons très peu d’accès à notre propre cerveau, limitant notre capacité à co-évoluer avec des machines à base de silicium de manière forte.

Il travaille à changer cela et à assurer une interface transparente avec nos technologies (et notre IA).

Johnson est très clair que son entreprise, Kernel, commencera en faisant des recherches sur le cerveau et en déterminant exactement comment celui-ci fonctionne. Cette recherche, déclare Johnson, est la première étape pour aider les humains à obtenir une égalité permanente avec les machines.

Bien sûr, de telles technologies feront beaucoup plus que permettre aux humains d’interagir avec les machines. Les neuroprothèses pourraient également réparer nos capacités cognitives – ce qui nous permettra de lutter contre les maladies neurologiques telles que la maladie d’Alzheimer, la SLA (sclérose latérale amyotrophique ou maladie de Charcot), la maladie de Parkinson et d’autres conditions qui détruisent notre cerveau…

De tels progrès pourraient nous permettre de fusionner avec des machines, oui, mais ils peuvent aussi nous permettre de programmer littéralement notre code neuronal, ce qui nous permettrait de nous transformer d’une manière que nous ne pouvons même pas imaginer. Bref, nous pourrions nous programmer pour devenir les personnes que nous voulons être. Comme le déclare Johnson, « notre biologie et notre génétique sont de plus en plus programmables; Notre code neuronal est le suivant en ligne. »

Cela ressemble à de la science-fiction, mais c’est basé sur un travail scientifique remarquable. En résumé, les dispositifs en cours de développement fonctionnent en reproduisant la façon dont nos cellules du cerveau communiquent. La technologie envisagée repose sur une recherche académique de 15 ans qui a été financée par le NIH et la DARPA. Alors préparez-vous. La superintelligence humaine n’est qu’une question de temps.

traduction Thomas Jousse

Futurism

L’intelligence artificielle soulève déjà de nombreuses questions juridiques et éthiques

Faut-il apprendre aux véhicules autonomes à éviter un chien qui traverse ? Peut-on laisser mettre en vente des robots sexuels destinés aux pédophiles ? Qui est juridiquement responsable en cas d’accident provoqué par un robot dans un atelier ?

Le « Rapport d’étape sur l’intelligence artificielle et la vie ». De quoi s’agit-il et que peut-on y apprendre ?

Une étude sur l’intelligence artificielle sur 100 ans à Stanford
Partenariat sur l’IA : les géants de la Tech s’unissent pour développer l’intelligence synthétique
Barack Obama sur l’intelligence artificielle, les voitures autonomes et l’avenir de l’humanité | WIRED
→ « Ces questions sur la technologie que vous n’êtes pas autorisé à poser »
Les Echos : Faut-il une loi spéciale pour les robots ?

https://media.radiofrance-podcast.net/podcast09/11701-25.10.2016-ITEMA_21114633-1.mp3?_=1

 

 

Les spécialistes sont-ils inquiets du risque existentiel associé à l’intelligence artificielle ?

« Many of the points made in this book are probably wrong […]. I don’t know which ones1. »

Nick Boström

Les spécialistes sont-ils vraiment inquiets du risque existentiel associé à l’intelligence artificielle2 ? C’est la question que pose Oren Etzioni dans le MIT Technology Review3, en écho à des articles récents sur le philosophe transhumaniste Nick Boström (université d’Oxford) qui a publié Superintelligence, paths, dangers, strategies en 20144.

Las du discours associant IA et menace5, Oren Etzioni a décidé de réaliser son propre sondage auprès des membres de l’American association for artificial intelligence (AAAI). Ses résultats apparaissent, a priori, beaucoup moins tranchés que ceux exposés par Nick Boström dans son ouvrage6.

Superintelligence, paths, dangers, strategies – non traduit à ce jour en français – a pour objectif d’attirer l’attention sur le risque existentiel anthropique associé à l’intelligence artificielle qui pourrait, selon Nick Boström, menacer l’humanité d’extinction. Cette menace est largement relayée par des personnalités aussi célèbres que Bill Gates et Elon Musk (SpaceX, Tesla Motors, etc.) qui vient de fonder (2015) avec Sam Altman (Loopt, Y Combinator), une organisation non lucrative, dotée d’un milliard de dollars, nommée OpenAI7. Ce laboratoire a pour objet de stimuler des recherches en open source afin de promouvoir largement une IA bénéfique, qui auraient pour effet de « neutraliser la menace » en évitant le monopole8.

Au filtre du transhumanisme, ce risque existentiel menacerait prématurément l’extinction de l’intelligence née sur Terre avant qu’elle ne puisse atteindre sa maturité, l’expression de sa plénitude : le posthumain et ses potentialités comme l’exploration de l’univers9.

L’ « explosion de l’intelligence » peut être schématisée ainsi : lorsque la machine aura atteint le stade de l’intelligence humaine (human-level machine intelligence – HLMI) autrement appelée intelligence artificielle générale ou forte (une notion très subjective), elle pourrait se reprogrammer, puis à nouveau se reprogrammer à partir de cette nouvelle programmation et ainsi de suite jusqu’à produire une évolution exponentielle : la super-intelligence.

L’ouvrage de Nick Boström s’inscrit dans une ligne de recherche plus générale portant sur la catastrophe globale qui a donné naissance en 2005 à la création du Futur of Humanity Institute (FHI), une institution rattachée à la Martin Oxford School et dont Nick Boström est le directeur. Le FHI est constitué d’une équipe pluridisciplinaire ayant pour but de générer des recherches académiques sur les risques anthropiques afin de les identifier et les prévenir : comme ici le « décollage » (takeoff) d’une IA hostile. Cette institution vient de recevoir un financement d’un million de dollars de la part d’Elon Musk pour encourager ses activités.

Ce livre paraît dans un contexte marqué par le développement d’une IA polymorphe, extrêmement conquérante10. Ce phénomène suscite de multiples questionnements, qui favorisent, en retour, des spéculations jusqu’alors marginales, comme l’idée d’ultra-intelligence développée en 1965 par Irving J. Good devenue par la suite11, sous la plume du mathématicien et auteur de science-fiction Venor Vinge12 et Ray Kurzweil (Google)13, singularité technologique14. Ceux qui adhèrent à la faisabilité prochaine de l’intelligence artificielle générale, évoquent l’évolution des puissances de stockage et de calcul, la réalité augmentée15, etc.

Oren Etzioni est loin d’être un inconnu : chercheur de renom, il travaille dans de nombreux domaines de l’intelligence artificielle mais plus particulièrement dans la reconnaissance automatique de texte, notamment en ligne (Web search, Data mining et Information extraction). Entrepreneur fécond, il est à l’origine de plusieurs entreprises comme MetaCrawler (Infospace), Netbot (Excite), ClearForest (Reuters) et Decide (Ebay). Membre de l’American association of artificial intelligence depuis 2003, il est aussi PDG d’Allen institute for artificial intelligence (AI2) dont la mission est de contribuer au développement d’une IA pour le bien de l’humanité16. Récemment, ses interventions médiatiques ont eu majoritairement pour but de relativiser les progrès de l’IA. Il s’est manifesté dernièrement après les « victoires » du programme informatique AlphaGo (Google DeepMind) sur les joueurs de go Fan Hui et Lee Sedol, avec un article au titre explicite : « Deep Learning isn’t a dangerous magic genie. It’s just math »17.

Dans son article daté du 20 septembre dernier, Oren Etzioni s’attaque ainsi aux résultats du sondage effectué par Nick Boström dans Superintelligence. Ce faisant, il questionne habilement un passage clé du livre. En effet, les deux pages incriminées donnent du crédit au reste du texte, qui est, par nature, spéculatif ; un aspect assumé par le philosophe qui donne ainsi un habillage académique à des idées qui existent, pour certaines, depuis longtemps et indépendamment du transhumanisme.

L’étude réalisée par Nick Boström et Vincent C. Müller repose sur l’agrégation de quatre sondages distincts obtenus auprès de quatre groupes entre 2012 et 2013. Le premier a été réalisé auprès des membres d’une conférence intitulée « Philosophy and theory of IA » (PT-AI) qui s’est tenue en 2011 à Thessalonique (Grèce) et organisée Vincent C. Müller. Cependant, aux yeux d’Oren Etzioni ce sondage apparaît comme obscur. Il manque, selon lui, les questions et les réponses. Le second sondage a été réalisé auprès des participants de deux conférences autour de l’intelligence artificielle générale (AGI), un groupe a priori acquis à cette idée (cf. résultats du sondage). Le troisième a été fait auprès des membres de la Greek association for artificial intelligence (EETN). Cette association est-elle représentative ? L’ensemble est complété par un sondage effectué auprès « des plus grandes figures de l’histoire l’intelligence artificielle » selon Microsoft academic search.

Un document donne des détails sur les différents sondages : nature des groupes, effectifs ainsi que les questions et les réponses18. Nous savons ainsi que sur 549 personnes sollicitées, 170 ont répondu (soit 31 %).

Source : Vincent C. Müller et Nick Boström, « Future Progress in Artificial Intelligence : A survey of Expert
Opinion », http://www.nickBoström.com/papers/survey.pdf

Cette enquête menée par Nick Boström et Vincent C. Müller a pour objectif de sonder l’opinion des experts sur une hypothétique émergence de l’intelligence artificielle générale, qu’ils définissent par la capacité pour une IA d’exercer, aussi bien que les humains, toutes les métiers19. Une définition utilisée par un des pères historiques de l’intelligence artificielle : Nils J. Nilsson20. Cette question centrale est assortie d’un jeu de sous-questions. Quelle sous-discipline de l’IA contribuera le plus à cette réalisation ? À cette question ce sont les sciences cognitives qui arrivent en tête. Nick Boström et Vincent C. Müller font remarquer à cet endroit la grande disparité d’appréciation sur la digitalisation du cerveau (whole brain emulation) qui obtient 0 % dans le Top 100 mais 46 % dans le groupe de l’intelligence artificielle générale. Mais aussi, dans combien de temps l’intelligence artificielle forte (human-level machine intelligence) sera-t-elle effective21? Enfin, en considérant que nous accédions un jour au stade de l’intelligence artificielle générale (stade 1), combien de temps faudra-t-il pour atteindre la super-intelligence (stade 2) ? Sera-t-elle neutre, positive, négative ? Le sondage réalisé auprès du Top 100, envoyé par e-mail, précisait l’usage qui en serait fait, à savoir la contribution à la nouvelle publication de Nick Boström : Superintelligence22. Selon les chercheurs sollicités, l’intelligence artificielle générale pourrait émerger selon cette projection :

Quand émergera l’intelligence artificielle générale (HLMI) ?

Source : Nick Boström, Superintelligence, paths, dangers, strategies, op. cit., p. 19.

Soit :

10 % en 2022

50 % en 2040

90 % en 2075

Ils complètent cette question par :

Combien de temps faudra-t-il pour passer de l’IAG (HLMI) à la super-intelligence ?

Source : Nick Boström, Superintelligence, paths, dangers, strategies, op. cit., p. 19.

En réalisant son propre sondage, l’idée d’Oren Etzioni est de donner la parole à des chercheurs actifs qu’il estime signifiants dans ce champ. Celui-ci a été réalisé auprès de 193 membres de l’Americain association of artificial intelligence (AAAI). La question est formulée ainsi : Nick Boström, dans son livre, définit la super-intelligence comme un intellect plus intelligent que les meilleurs cerveaux humains dans pratiquement tous les domaines incluant la créativité scientifique, la sagesse et l’intelligence sociale. Quand pensez-vous que nous réaliserons cette super-intelligence ? 41 % des membres contactés ont répondu soit 80 personnes. La question pose ici probléme, en effet alors que Nick Boström sonde l’émergence de l’intelligence artificielle générale (stade 1), Oren Etzioni fait référence à la super-intelligence (stade 2). Sur cette base, il paraît impossible de comparer les deux sondages.

Oren Etzioni conclut, commentaires à l’appui, que la majorité des personnes sondées considèrent la super-intelligence comme au-delà de l’horizon prévisible23.

« We’re competing with millions of years’ evolution of the human brain. We can write single-purpose programs that can compete with humans, and sometimes excel, but the world is not neatly compartmentalized into single-problem questions24. »

Il rapporte par ailleurs des propos qui dénoncent « le marchand de peur professionnel » :

« Nick Bostrom is a professional scare monger. His Institute’s role is to find existential threats to humanity. He sees them everywhere. I am tempted to refer to him as the ‘Donald Trump of AI’25. »

En réalisant ce contre-sondage, Oren Etzioni s’attaque au point névralgique du texte de Nick Boström : sa justification académique. Ce faisant, il tente d’affaiblir la portée de l’ouvrage. Déjà en 2014, répondant aux craintes formulées par Elon Musk et Bill Gates, il affirmait et expliquait dans un article pourquoi, en tant que chercheur en intelligence artificielle, il n’avait pas peur. Dans ce texte, il laissait déjà apparaître l’exaspération du chercheur contre cette vision dystopique qu’il qualifie, en référence à Isaac Asimov, de complexe de Frankenstein (la créature qui se retourne contre son créateur). Il illustre son point de vue par la formule du philosophe américain John Searle utilisée suite à au succès de Watson en 2011 dans le jeu populaire américain : Jeopardy! : « Watson doesn’t know it won Jeopardy! ». Oren Etzioni considère que l’évolution de l’IA, qui n’est qu’à ses balbutiements, est nécessairement disruptive, mais elle est aussi tissée d’opportunités. Il concluait que ce climat de crainte contrariait les bénéfices que pouvaient apporter l’IA à l’humanité26.

Indépendamment des résultats qui finalement ne sont que des spéculations, cette prise de position montre que les travaux du philosophe Nick Boström, ses propos, commencent à exaspérer un certain nombre de personnes dans le champ de l’intelligence artificielle…

Notes :

1 Raffi Khatchadourian, « The doomsday invention. Will artificial intelligence bring us utopia or destruction? », The New Yorker, no 23, novembre 2015.
2 Je remercie Daniel Lewkowicz et Béatrice Guérin-Gorgeard pour leurs remarques judicieuses.
3 Oren Etzioni, « Are the experts worried about the existential risk of artificial intelligence », MIT Technology Review, 20 septembre, 2016.
4 Nick Boström, Superintelligence, paths, dangers, strategies, Oxford, OUP, 2014.
5 Tim Adams, « Artificial Intelligence : ‘We’re like children playing with a bomb’ », TheGuardian, 12 juin 2016 ; et Seung Lee, « Artificial Intelligence is coming and it could wipe us out », Newsweek, 4 mars 2016.
6 « Opinions about the future of machine intelligence », in Nick Boström, Superintelligence, paths, dangers, strategies, op. cit. p. 18-21
7 Site OpenAI.
8 Cade Metz, « Inside OpenIA, Elon Musk’s wild plan to set artificial intelligence free », Wired, 27 avril 2016.
9 Nick Boström, « Existential risk prevention as global priority », Global Policy, vol. 4, no 1, 2013, p. 15.
10 Lire Erik Brynjolfsson et Andrew McAfee, The second machine age. Work, progress, and prosperity in a time of brilliant technologies, NY, Norton, 2014 [Le deuxième âge de la machine. Travail et prospérité à l’heure de la revolution technologique, Paris, Odile Jacob, 2015.
11 Irving J. Good, « Speculations concerning the first ultraintelligent machine », in F. Alt et M. Ruminoff (eds.), Advances in computers, vol. 6, 1965, p. 33.
12 Venor Vinge, « The coming technological singularity: How to survive in the post-human era », Vision-21, Interdisciplinary science and engineering in the era of cyberspace, Ohio March 30-31, 1993, p. 11.
13 Ray Kurzweil, The singularity is near. When humans transcend biology, London, Penguin Books, 2005.
14 Pour une critique : Drew McDermott, Kurzweil’s argument for the success of AI, Artificial intelligence, no 170, 2006, p. 1227-1233 ; et la réponse de Ben Goertzel, «Huma-level artificial general intelligence and the possibility of a technological singularity. A reaction to Ray Kurzweil’s The singularity is near, and McDermott’s critique of Kurzweil», Artificial intelligence, no 171, 2007, p. 1161-1173.
15 Hugo de Garis et Ben Goertzel, Report on the first conference on artificial general intelligence (AGI-08), AI Magazine, printemps 2009, p. 122.
17 Oren Etzioni, « Deep Learning isn’t a dangerous magic genie. It’s just math », Wired, 15 juin 2016.
18 Vincent C. Muller et Nick Boström, « Future Progress in Artificial Intelligence : A survey of Expert Opinion », op. cit.
19 Idem.
20 Nils J. Nilsson, « Human-level artificial intelligence? Be serious! », AAAI, hiver 2005.
21 Dans Superintelligence Nick Bostrom utilise HLMI pour human-level machine intelligence, alors que dans le texte commentant le sondage il fait référence à high-Level machine intelligence.
22 Idem.
23 Oren Etzioni, « Are the experts worried about the existential risk of artificial intelligence », op. cit.
24 Idem.
25 Idem.
26 Oren Etzioni, « It’s time to intelligently discuss artificial intelligence. I am AI researcher and I’m not scared. Here’s why », BlackChannel, 9 décembre 2014.

L’histoire de la superintelligence et la question de l’éthique des machines

Publié in Marianne Celka et Fabio La Rocca (dir.), Transmutations, Esprit Critique, Revue internationale de sociologie et sciences sociales, vol. 24, n° 1, été 2016, p. 43-57. Par Vincent Guérin, Docteur en histoire contemporaine.

Résumé : Ce texte a pour objet d’analyser, chez les transhumanistes, le couplage de l’éthique des machines avec les risques inhérents à la superintelligence. La première favorisant l’émergence de la seconde. Par ce biais, nous observons une accentuation du rapprochement de l’homme et de la machine, initié par le paradigme informationnel ; un renversement même avec une machine considérée comme « smarter than us ».

Introduction

En 2014, l’informaticien et cofondateur de Skype Jaan Tallinn a créé The Future of Life Institute (FLI) avec entre autres les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT). Dans le comité scientifique se trouve une constellation de personnalités célèbres comme Stephen Hawking, des auteurs à succès comme Erik Brynjolfsson (MIT Center for Digital Business), mais aussi l’acteur Morgan Freeman (film Transcendance de Wally Pfister, 2015) et l’inventeur et chef d’entreprise Elon Musk. Jaan Tallinn était déjà à l’initiative du Centre For The Study Of Existential Risk (CSER) ou Terminator studies en 2012 à l’Université de Cambridge avec le cosmologiste Martin Rees. Ces deux institutions ont pour ambition, entre autres, d’anticiper les risques majeurs qui menacent l’humanité, notamment ceux inhérents à l’intelligence artificielle (IA).

Dernièrement, Bill Gates, fondateur de Microsoft, lui-même, se dit préoccupé par l’IA. Ces deux institutions et Bill Gates ont un dénominateur commun : Nick Boström. l’auteur de Superintelligence, Paths, Dangers, Strategies (2014), qui a impressionné Bill Gates, est membre du comité scientifique de la FLE et du CSER. Il est professeur à la faculté de philosophie de la prestigieuse Université d’Oxford et fondateur de la Future of humanity Institute (FHI) qui a pour objet d’anticiper les risques majeurs qui menacent l’humanité (existential risks). Ses recherches portent sur l’augmentation de l’homme, le transhumanisme, les risques anthropiques et spécifiquement celui de la superintelligence. En 2008, il a codirigé avec Milan M. Ćirković Global Catastrophic Risks (Boström, Ćirković, 2008). Cet ouvrage dénombre dix risques catastrophiques au sens d’un bouleversement radical qui menacerait l’humanité (anthropiques ou non) 1 . Parmi les risques anthropiques recensés, Eliezer S. Yudkowsky (1979-), chercheur au Machine Intelligence Research Institute à Berkeley (MIRI), développe le chapitre sur l’IA (Yudkowsky, 2008).

Nick Boström et Eliezer Yudkowsky sont transhumanistes, un courant de pensée qui conçoit l’humain, l’humanité comme imparfaits et prône une prise en main de leur évolution par la technologie. En 1998, Nick Boström a fondé avec David Pearce la World Transhumanist Association (WTA) et l’Institute for Ethics & Emerging Technologies (IEET) avec James Hughes.

Plusieurs objectifs irriguent le transhumanisme, dont le devenir postbiologique (posthumain), la superintelligence et l’amortalité (une immortalité relative). Parmi les NBIC, deux technologies ont leur faveur. La première, la nanotechnologie (une construction à partir du bas à l’échelle du nanomètre soit un milliardième de mètre) est en devenir, et la seconde, l’intelligence artificielle générale (IAG) reste un fantasme. Nick Boström et Eliezer Yudkowsky pensent que l’IA favorisera la nanotechnologie, elle-même porteuse d’inquiétude (Drexler, 1986). Eric Drexler, transhumaniste et membre du FHI, a créé en 1986, le Foresight Institute afin de prévenir les risques technologiques et favoriser un usage bénéfique de la nanotechnologie. Qu’est-ce-que la (super) intelligence artificielle ? Quelles sont les corrélations entre le transhumanisme et cette inquiétude montante vis-à-vis de l’IA, ou plus exactement la superintelligence ? Comment et quand pourrait-elle émerger ? Comment s‟articule le complexe dit de Frankenstein et l’éthique des machines ?

pour lire la suite, télécharger le PDF


Sommaire :

Introduction
La (super) intelligence artificielle
Le complexe dit de Frankenstein et l’éthique des machines
Épilogue
Références bibliographiques

Stephen Petranek : Vos enfants pourraient vivre sur Mars. Voici comment ils vont survivre

Le journaliste Stephen Petranek estime que d’ici 20 ans, les humains vivront sur Mars. Dans ce discours, Petranek annonce que l’homme deviendra une espèce spatiale et décrit en détail d’une manière fascinante, comment nous allons faire de Mars notre prochaine maison. “Les humains survivront quoi qu’il arrive sur terre”, dit Petranek. “Nous ne serons jamais la dernière de notre espèce.”


Comment notre droit à explorer l’espace repose sur nous en devenant des cyborgs ?


transcription

00:12 Strap yourselves in, we’re going to Mars.

00:16 Not just a few astronauts — thousands of people are going to colonize Mars. And I am telling you that they’re going to do this soon. Some of you will end up working on projects on Mars, and I guarantee that some of your children will end up living there.

00:32 That probably sounds preposterous, so I’m going to share with you how and when that will happen. But first I want to discuss the obvious question: Why the heck should we do this?

00:44 12 years ago, I gave a TED talk on 10 ways the world could end suddenly. We are incredibly vulnerable to the whims of our own galaxy. A single, large asteroid could take us out forever. To survive we have to reach beyond the home planet. Think what a tragedy it would be if all that humans have accomplished were suddenly obliterated.

01:07 And there’s another reason we should go: exploration is in our DNA. Two million years ago humans evolved in Africa and then slowly but surely spread out across the entire planet by reaching into the wilderness that was beyond their horizons. This stuff is inside us. And they prospered doing that. Some of the greatest advances in civilization and technology came because we explored.

01:36 Yes, we could do a lot of good with the money it will take to establish a thriving colony on Mars. And yes we should all be taking far better care of our own home planet. And yes, I worry we could screw up Mars the way we’ve screwed up Earth.

01:53 But think for a moment, what we had when John F. Kennedy told us we would put a human on the moon. He excited an entire generation to dream. Think how inspired we will be to see a landing on Mars. Perhaps then we will look back at Earth and see that that is one people instead of many and perhaps then we will look back at Earth, as we struggle to survive on Mars, and realize how precious the home planet is.

02:22 So let me tell you about the extraordinary adventure we’re about to undertake. But first, a few fascinating facts about where we’re going. This picture actually represents the true size of Mars compared to Earth. Mars is not our sister planet. It’s far less than half the size of the Earth, and yet despite the fact that it’s smaller, the surface area of Mars that you can stand on is equivalent to the surface area of the Earth that you can stand on, because the Earth is mostly covered by water.

02:54 The atmosphere on Mars is really thin — 100 times thinner than on Earth — and it’s not breathable, it’s 96 percent carbon dioxide.

03:03 It’s really cold there. The average temperature is minus 81 degrees, although there is quite a range of temperature.

03:12 A day on Mars is about as long as a day on Earth, plus about 39 minutes. Seasons and years on Mars are twice as long as they are on Earth.

03:23 And for anybody who wants to strap on some wings and go flying one day, Mars has a lot less gravity than on Earth, and it’s the kind of place where you can jump over your car instead of walk around it.

03:35 Now, as you can see, Mars isn’t exactly Earth-like, but it’s by far the most livable other place in our entire solar system.

03:44 Here’s the problem. Mars is a long way away, a thousand times farther away from us than our own moon. The Moon is 250,000 miles away and it took Apollo astronauts three days to get there. Mars is 250 million miles away and it will take us eight months to get there — 240 days. And that’s only if we launch on a very specific day, at a very specific time, once every two years, when Mars and the Earth are aligned just so, so the distance that the rocket would have to travel will be the shortest. 240 days is a long time to spend trapped with your colleagues in a tin can.

04:29 And meanwhile, our track record of getting to Mars is lousy. We and the Russians, the Europeans, the Japanese, the Chinese and the Indians, have actually sent 44 rockets there, and the vast majority of them have either missed or crashed. Only about a third of the missions to Mars have been successful.

04:48 And we don’t at the moment have a rocket big enough to get there anyway. We once had that rocket, the Saturn V. A couple of Saturn Vs would have gotten us there. It was the most magnificent machine ever built by humans, and it was the rocket that took us to the Moon. But the last Saturn V was used in 1973 to launch the Skylab space station, and we decided to do something called the shuttle instead of continuing on to Mars after we landed on the Moon. The biggest rocket we have now is only half big enough to get us anything to Mars.

05:23 So getting to Mars is not going to be easy and that brings up a really interesting question … how soon will the first humans actually land here?

05:36 Now, some pundits think if we got there by 2050, that’d be a pretty good achievement.

05:42 These days, NASA seems to be saying that it can get humans to Mars by 2040. Maybe they can. I believe that they can get human beings into Mars orbit by 2035. But frankly, I don’t think they’re going to bother in 2035 to send a rocket to Mars, because we will already be there.

06:04 We’re going to land on Mars in 2027. And the reason is this man is determined to make that happen. His name is Elon Musk, he’s the CEO of Tesla Motors and SpaceX. Now, he actually told me that we would land on Mars by 2025, but Elon Musk is more optimistic than I am — and that’s going a ways — so I’m giving him a couple of years of slack. Still … you’ve got to ask yourself, can this guy really do this by 2025 or 2027?

06:39 Well, let’s put a decade with Elon Musk into a little perspective. Where was this 10 years ago? That’s the Tesla electric automobile. In 2005, a lot of people in the automobile industry were saying, we would not have a decent electric car for 50 years.

06:59 And where was that? That is SpaceX’s Falcon 9 rocket, lifting six tons of supplies to the International Space Station. 10 years ago, SpaceX had not launched anything, or fired a rocket to anywhere. So I think it’s a pretty good bet that the person who is revolutionizing the automobile industry in less than 10 years and the person who created an entire rocket company in less than 10 years will get us to Mars by 2027.

07:31 Now, you need to know this: governments and robots no longer control this game. Private companies are leaping into space and they will be happy to take you to Mars.

07:44 And that raises a really big question. Can we actually live there? Now, NASA may not be able to get us there until 2040, or we may get there a long time before NASA, but NASA has taken a huge responsibility in figuring out how we can live on Mars.

08:03 Let’s look at the problem this way. Here’s what you need to live on Earth: food, water, shelter and clothing. And here’s what you need to live on Mars: all of the above, plus oxygen.

08:17 So let’s look at the most important thing on this list first. Water is the basis of all life as we know it, and it’s far too heavy for us to carry water from the Earth to Mars to live, so we have to find water if our life is going to succeed on Mars. And if you look at Mars, it looks really dry, it looks like the entire planet is a desert. But it turns out that it’s not. The soil alone on Mars contains up to 60 percent water. And a number of orbiters that we still have flying around Mars have shown us — and by the way, that’s a real photograph — that lots of craters on Mars have a sheet of water ice in them. It’s not a bad place to start a colony.

09:02 Now, here’s a view of a little dig the Phoenix Lander did in 2008, showing that just below the surface of the soil is ice — that white stuff is ice. In the second picture, which is four days later than the first picture, you can see that some of it is evaporating.

09:19 Orbiters also tell us that there are huge amounts of underground water on Mars as well as glaciers. In fact, if only the water ice at the poles on Mars melted, most of the planet would be under 30 feet of water. So there’s plenty of water there, but most of it’s ice, most of it’s underground, it takes a lot of energy to get it and a lot of human labor.

09:43 This is a device cooked up at the University of Washington back in 1998. It’s basically a low-tech dehumidifier. And it turns out the Mars atmosphere is often 100 percent humid. So this device can extract all the water that humans will need simply from the atmosphere on Mars.

10:03 Next we have to worry about what we will breathe. Frankly, I was really shocked to find out that NASA has this problem worked out. This is a scientist at MIT named Michael Hecht. And he’s developed this machine, Moxie. I love this thing. It’s a reverse fuel cell, essentially, that sucks in the Martian atmosphere and pumps out oxygen. And you have to remember that CO2 — carbon dioxide, which is 96 percent of Mars’ atmosphere — CO2 is basically 78 percent oxygen.

10:34 Now, the next big rover that NASA sends to Mars in 2020 is going to have one of these devices aboard, and it will be able to produce enough oxygen to keep one person alive indefinitely. But the secret to this — and that’s just for testing — the secret to this is that this thing was designed from the get-go to be scalable by a factor of 100.

10:57 Next, what will we eat? Well, we’ll use hydroponics to grow food, but we’re not going to be able to grow more than 15 to 20 percent of our food there, at least not until water is running on the surface of Mars and we actually have the probability and the capability of planting crops. In the meantime, most of our food will arrive from Earth, and it will be dried.

11:21 And then we need some shelter. At first we can use inflatable, pressurized buildings as well as the landers themselves. But this really only works during the daytime. There is too much solar radiation and too much radiation from cosmic rays. So we really have to go underground.

11:40 Now, it turns out that the soil on Mars, by and large, is perfect for making bricks. And NASA has figured this one out, too. They’re going to throw some polymer plastic into the bricks, shove them in a microwave oven, and then you will be able to build buildings with really thick walls. Or we may choose to live underground in caves or in lava tubes, of which there are plenty.

12:05 And finally there’s clothing. On Earth we have miles of atmosphere piled up on us, which creates 15 pounds of pressure on our bodies at all times, and we’re constantly pushing out against that. On Mars there’s hardly any atmospheric pressure. So Dava Newman, a scientist at MIT, has created this sleek space suit. It will keep us together, block radiation and keep us warm.

12:31 So let’s think about this for a minute. Food, shelter, clothing, water, oxygen … we can do this. We really can. But it’s still a little complicated and a little difficult.

12:44 So that leads to the next big — really big step — in living the good life on Mars. And that’s terraforming the planet: making it more like Earth, reengineering an entire planet.

12:59 That sounds like a lot of hubris, but the truth is that the technology to do everything I’m about to tell you already exists.

13:07 First we’ve got to warm it up. Mars is incredibly cold because it has a very thin atmosphere. The answer lies here, at the south pole and at the north pole of Mars, both of which are covered with an incredible amount of frozen carbon dioxide — dry ice. If we heat it up, it sublimes directly into the atmosphere and thickens the atmosphere the same way it does on Earth.

13:31 And as we know, CO2 is an incredibly potent greenhouse gas. Now, my favorite way of doing this is to erect a very, very large solar sail and focus it — it essentially serves as a mirror — and focus it on the south pole of Mars at first. As the planet spins, it will heat up all that dry ice, sublime it, and it will go into the atmosphere. It actually won’t take long for the temperature on Mars to start rising, probably less than 20 years.

14:01 Right now, on a perfect day at the equator, in the middle of summer on Mars, temperatures can actually reach 70 degrees, but then they go down to minus 100 at night.

14:11 (Laughter)

14:13 What we’re shooting for is a runaway greenhouse effect: enough temperature rise to see a lot of that ice on Mars — especially the ice in the ground — melt. Then we get some real magic.

14:27 As the atmosphere gets thicker, everything gets better. We get more protection from radiation, more atmosphere makes us warmer, makes the planet warmer, so we get running water and that makes crops possible. Then more water vapor goes into the air, forming yet another potent greenhouse gas. It will rain and it will snow on Mars. And a thicker atmosphere will create enough pressure so that we can throw away those space suits. We only need about five pounds of pressure to survive. Eventually, Mars will be made to feel a lot like British Columbia.

15:05 We’ll still be left with the complicated problem of making the atmosphere breathable, and frankly that could take 1,000 years to accomplish. But humans are amazingly smart and incredibly adaptable.

15:16 There is no telling what our future technology will be able to accomplish and no telling what we can do with our own bodies. In biology right now, we are on the very verge of being able to control our own genetics, what the genes in our own bodies are doing, and certainly, eventually, our own evolution. We could end up with a species of human being on Earth that is slightly different from the species of human beings on Mars.

15:49 But what would you do there? How would you live? It’s going to be the same as it is on Earth. Somebody’s going to start a restaurant, somebody’s going to build an iron foundry. Someone will make documentary movies of Mars and sell them on Earth. Some idiot will start a reality TV show.

16:08 (Laughter)

16:10 There will be software companies, there will be hotels, there will be bars.

16:16 This much is certain: it will be the most disruptive event in our lifetimes, and I think it will be the most inspiring.

16:25 Ask any 10-year-old girl if she wants to go to Mars. Children who are now in elementary school are going to choose to live there.

16:35 Remember when we landed humans on the Moon? When that happened, people looked at each other and said, “If we can do this, we can do anything.” What are they going to think when we actually form a colony on Mars?

16:49 Most importantly, it will make us a spacefaring species. And that means humans will survive no matter what happens on Earth. We will never be the last of our kind.

17:03 Thank you.

Exploit historique : SpaceX réussit à ramener une fusée sur Terre

La Nasa a salué l’exploit. “Félicitations SpaceX pour votre retour réussi du premier étage sur Terre!”, a tweeté l’agence spatiale américaine.

lire l’article sur Huffingtonpost