Life 3.0 : Être humain à l’ère de l’intelligence artificielle

Life 3.0: Being Human in the Age of Artificial Intelligence

Nous sommes au début d’une nouvelle ère. Ce qui était autrefois de la science-fiction, devient réalité, car l’intelligence artificielle transforme la guerre, le crime, la justice, les emplois et la société, et même notre sens de ce que signifie être humain.

Plus que toute autre technologie, l’intelligence artificielle a le potentiel de révolutionner notre avenir collectif – et personne n’est mieux situé ou qualifié pour explorer cet avenir que Max Tegmark, un professeur du MIT et cofondateur de Future of Life Institute, dont le travail a contribué à intégrer la recherche sur la façon de garder l’intelligence artificielle bénéfique.

Dans ce nouvel ouvrage profondément étudié et d’une importance vitale, Tegmark nous conduit au cœur de la pensée de l’intelligence artificielle et de la condition humaine, en nous confrontant aux questions essentielles de notre temps.

Comment pouvons-nous accroître notre prospérité grâce à l’automatisation, sans laisser les gens dépourvues de revenu ou de but ? Quels conseils de carrière devrions-nous donner aux enfants d’aujourd’hui ? Comment pouvons-nous nous assurer que les futurs systèmes d’intelligence artificielle vont faire ce que nous voulons sans dysfonctionner ou être piraté ? Devrions-nous craindre une course aux armements pour des armes autonomes mortelles ? Est-ce que l’intelligence artificielle nous aidera à nous épanouir dans la vie comme jamais auparavant ou nous donnera plus de pouvoir que nous ne pouvons gérer ?

Life 3.0 donne les outils pour entrer dans ce qui peut être la conversation la plus importante de notre temps, nous guider à travers les questions les plus controversées autour de l’intelligence artificielle – de la super-intelligence au sens, à la conscience et aux limites physiques ultimes de la vie dans le cosmos.

Quel avenir voulez-vous?

Future of Life Institute, Nature doi:10.1038/548520a

Lire un extrait

De quoi discutent Larry Page, Elon Musk et Yann Le Cun ? (Beneficial AI 2017)

« Technology is giving life the potential to flourish like never before… or to self-destruct. Let’s make a difference ! » Future of Life Institute

En janvier dernier s’est tenu à Asilomar (Californie) le second colloque organisé par Future of life Institute (FLI) dont l’objectif était d’anticiper l’évolution de l’intelligence artificielle afin qu’elle soit bénéfique pour l’humanité.

Cette association a été créée en 2014 par Jaan Tallinn, informaticien et cofondateur de Skype et Kazaa, Meia Chita-Tegmark (Université de Boston), Vicktorya Krakovna (DeepMind) et les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT).

On trouve au sein du comité scientifique Stephen Hawking (Cambridge), Erik Brynjolfsson (MIT), Martin Rees (Cambridge), Nick Boström (Oxford), Elon Musk (Tesla, Space X), etc1. En 2015, ce dernier a fait don au FLI de 10 millions de dollars.

L’objectif de cette institution est d’anticiper les risques existentiels (qui menacent l’humanité toute entière) anthropiques (du fait de l’homme) comme le réchauffement climatique global, l’arsenal nucléaire2, les biotechnologies mais aussi et surtout ceux liées à l’IA3.

En janvier 2015, le FLI avait publié une lettre ouverte sur les risques/bénéfices liés à l’IA qui a reçu à ce jour plus de 8000 signatures.

L’idée : impulser une réflexion pluridisciplinaire afin de stimuler des recherches dans le sens d’une intelligence artificielle puissante (robust AI) tout en prenant soin qu’elle soit bénéfique pour la société. L’esprit : « Our AI systems must do what we want them to do ».

Ce colloque interdisciplinaire constitué de conférences et d’ateliers (workshops) fait suite à celui qui s’était déroulé à Puerto Rico en 2015 et qui avait réuni des chercheurs du champ de l’IA mais aussi des spécialistes de l’économie, du droit, de l’éthique et de la philosophie.

Au programme, cette année, se trouvait un panel de « célébrités » comme Erik Brynjolfsson (MIT), Yann Le Cun (Facebook/NYU), Ray Kurzweil (Google), Andrew McAfee (MIT), Nick Boström (Oxford), Elon Musk (Tesla/Space X), David Chalmers (NYU), Stuart Russel (Berkeley), Peter Norvig (Google), Larry Page (Google), Yoshua Bengio (Montreal Institute for learning algorithms), Oren Etzioni (Allen Institute), Martin Rees (Cambridge/CSER), Wendell Wallach (Yale), Eric Drexler (MIT), Eliezer Yudkowsky (MIRI), etc4. Les thématiques des conférences et workshops, très riches, portaient sur l’impact à venir de l’automatisation, le concept de superintelligence, les chemins possibles vers l’IA « réelle », la gestion des risques liés à l’IA, etc. On trouvera ici les PowerPoints et vidéos des intervenants.

Des discussions sont nées 23 principes dits « Asilomar » signés d’ores et déjà par plus de 3500 personnalités dont 1171 du champ de l’IA. Non figés, ces principes ont pour objectif de générer des discussions et réflexions sur le site du FLI et ailleurs.

Notes :

2 Une lettre ouverte signée par 3400 scientifiques a récemment été communiquée à l’ONU afin de soutenir son initiative de bannir les armes nucléaires.
3 Depuis quelques années, de nombreuses institutions se sont développées pour anticiper les risques existentiels naturels et anthropogènes. Parmi ces dernières, l’intelligence artificielle est souvent mise en avant. Ainsi, outre le FLI, on citera Machine intelligence research institute (MIRI/Berkeley), Future of humanity institute (FHI/Oxford), Centre for the study of existential risk (CSER/Cambridge), Open AI (Elon Musk), One hundred years study on artificial intelligence (AI100/Stanford), Global catastrophic risk institute (GCRI) et dernièrement Leverhulme centre for the future of intelligence (Cambridge). Sur le Leverhulme centre for the future of intelligence et Center for the study of existential risk on peut lire « Meet Earth’s guardians, the real-world X-men and women saving us from existential threats », Wired, 12 février 2017 ; sur Future of humanity institute Ross Andersen, « Omens », Aeon, 25 février 2013.

L’histoire de la superintelligence et la question de l’éthique des machines

Publié in Marianne Celka et Fabio La Rocca (dir.), Transmutations, Esprit Critique, Revue internationale de sociologie et sciences sociales, vol. 24, n° 1, été 2016, p. 43-57. Par Vincent Guérin, Docteur en histoire contemporaine.

Résumé : Ce texte a pour objet d’analyser, chez les transhumanistes, le couplage de l’éthique des machines avec les risques inhérents à la superintelligence. La première favorisant l’émergence de la seconde. Par ce biais, nous observons une accentuation du rapprochement de l’homme et de la machine, initié par le paradigme informationnel ; un renversement même avec une machine considérée comme « smarter than us ».

Introduction

En 2014, l’informaticien et cofondateur de Skype Jaan Tallinn a créé The Future of Life Institute (FLI) avec entre autres les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT). Dans le comité scientifique se trouve une constellation de personnalités célèbres comme Stephen Hawking, des auteurs à succès comme Erik Brynjolfsson (MIT Center for Digital Business), mais aussi l’acteur Morgan Freeman (film Transcendance de Wally Pfister, 2015) et l’inventeur et chef d’entreprise Elon Musk. Jaan Tallinn était déjà à l’initiative du Centre For The Study Of Existential Risk (CSER) ou Terminator studies en 2012 à l’Université de Cambridge avec le cosmologiste Martin Rees. Ces deux institutions ont pour ambition, entre autres, d’anticiper les risques majeurs qui menacent l’humanité, notamment ceux inhérents à l’intelligence artificielle (IA).

Dernièrement, Bill Gates, fondateur de Microsoft, lui-même, se dit préoccupé par l’IA. Ces deux institutions et Bill Gates ont un dénominateur commun : Nick Boström. l’auteur de Superintelligence, Paths, Dangers, Strategies (2014), qui a impressionné Bill Gates, est membre du comité scientifique de la FLE et du CSER. Il est professeur à la faculté de philosophie de la prestigieuse Université d’Oxford et fondateur de la Future of humanity Institute (FHI) qui a pour objet d’anticiper les risques majeurs qui menacent l’humanité (existential risks). Ses recherches portent sur l’augmentation de l’homme, le transhumanisme, les risques anthropiques et spécifiquement celui de la superintelligence. En 2008, il a codirigé avec Milan M. Ćirković Global Catastrophic Risks (Boström, Ćirković, 2008). Cet ouvrage dénombre dix risques catastrophiques au sens d’un bouleversement radical qui menacerait l’humanité (anthropiques ou non) 1 . Parmi les risques anthropiques recensés, Eliezer S. Yudkowsky (1979-), chercheur au Machine Intelligence Research Institute à Berkeley (MIRI), développe le chapitre sur l’IA (Yudkowsky, 2008).

Nick Boström et Eliezer Yudkowsky sont transhumanistes, un courant de pensée qui conçoit l’humain, l’humanité comme imparfaits et prône une prise en main de leur évolution par la technologie. En 1998, Nick Boström a fondé avec David Pearce la World Transhumanist Association (WTA) et l’Institute for Ethics & Emerging Technologies (IEET) avec James Hughes.

Plusieurs objectifs irriguent le transhumanisme, dont le devenir postbiologique (posthumain), la superintelligence et l’amortalité (une immortalité relative). Parmi les NBIC, deux technologies ont leur faveur. La première, la nanotechnologie (une construction à partir du bas à l’échelle du nanomètre soit un milliardième de mètre) est en devenir, et la seconde, l’intelligence artificielle générale (IAG) reste un fantasme. Nick Boström et Eliezer Yudkowsky pensent que l’IA favorisera la nanotechnologie, elle-même porteuse d’inquiétude (Drexler, 1986). Eric Drexler, transhumaniste et membre du FHI, a créé en 1986, le Foresight Institute afin de prévenir les risques technologiques et favoriser un usage bénéfique de la nanotechnologie. Qu’est-ce-que la (super) intelligence artificielle ? Quelles sont les corrélations entre le transhumanisme et cette inquiétude montante vis-à-vis de l’IA, ou plus exactement la superintelligence ? Comment et quand pourrait-elle émerger ? Comment s‟articule le complexe dit de Frankenstein et l’éthique des machines ?

pour lire la suite, télécharger le PDF


Sommaire :

Introduction
La (super) intelligence artificielle
Le complexe dit de Frankenstein et l’éthique des machines
Épilogue
Références bibliographiques

Les risques potentiels de l’intelligence artificielle avancée

En un mot :

Quel est le problème? Il semble plausible que les gens vont développer des systèmes algorithmiques capables de réaliser efficacement un grand nombre, voire la totalité des tâches cognitives que les humains effectuent. Ces avancées pourraient conduire à des développements positifs extrêmes, mais pourraient aussi présenter des risques pour des abus intentionnels ou d’accidents catastrophiques. Par exemple, il semble possible que (i) la technologie pourrait être militarisée ou utilisée comme un outil de contrôle social, ou (ii) une personne pourrait créer un agent d’intelligence artificielle extrêmement puissant avec des valeurs mal alignées pour les intérêts de l’humanité. Il semble également possible que des progrès dans ce sens pourraient être étonnamment rapides, laissant la société, insuffisamment préparée pour la transition.

Quelles sont les interventions possibles? Un philanthrope pourrait financer la recherche technique visant à assurer la robustesse, la prévisibilité et l’objectif d’alignement des systèmes d’intelligence artificielle de pointe; la recherche en droit, éthique, économie et politique liée à l’intelligence artificielle avancée; et / ou des études liées à ces recherches.

Qui d’autre travaille sur cette question? Elon Musk, a fait un don de 10 millions $ au Future of Life Institute pour les chercheurs axés sur ces problèmes et d’autres risques potentiels futurs de l’intelligence artificielle avancée. En outre, quelques petits instituts à but non lucratif / universitaires travaillent sur les futurs risques potentiels de l’intelligence artificielle avancée. Machine Intelligence Research Institute et Future of Humanity Institute ont chacun un budget annuel d’environ 1 million $, et d’autres nouvelles organisations travaillent sur ces questions aussi.

lire la suite sur GiveWell (article en anglais)