Konica Minolta a dévoilé le Cognitive Hub au AI Summit de Londres

Prochaine étape de l’environnement de travail du futur

Pour la deuxième année consécutive, Konica Minolta a participé au AI Summit, le premier événement mondial portant sur les usages de l’Intelligence Artificielle pour les entreprises ainsi que les solutions associées pour transformer la productivité des organisations. Cet événement s’est tenu les 9 et 10 mai au Business Design Centre à Londres. Il a réuni plus de 1 000 participants : décideurs, start-ups, experts, chercheurs et médias s’intéressant à l’intelligence artificielle.

L’intelligence artificielle tient une place prépondérante dans la vision de l’environnement de travail de demain, défendue par Konica Minolta ; une vision exposée, lors de la keynote du 09 mai, par Dennis Curry, directeur exécutif et adjoint de la technologie de Konica Minolta. Il a présenté l’engagement du Groupe à proposer des solutions reposant sur l’IA pour former un lien contraignant entre l’informatique cognitive, l’automatisation intelligente et les autres disciplines pour déployer des services capables de rendre l’environnement de travail plus efficace.

Konica Minolta, un acteur incontournable à l’AI Summit

Konica Minolta, l’un des principaux fournisseurs dans le domaine des services informatiques et des solutions d’impression, a démontré comment l’intelligence artificielle répond à bon nombre des nouvelles nécessités humaines émergentes. L’IA et la cognition augmentée joueront un rôle fondamental à la fois pour réduire le temps consacré à la recherche d’informations fiables, mais aussi pour atténuer les risques liés à la sécurité des données. Ces technologies permettent, en outre, de gérer les multiples événements imprévus que peuvent causer une perte de contrôle sur ces risques.

« Nous appréhendons la manière dont l’intelligence artificielle peut répondre aux intérêts de nos clients pour se préparer à l’environnement de travail de demain. Konica Minolta a récemment dévoilé le Workplace Hub ; première étape vers la fourniture de systèmes reliant intuitivement les collaborateurs, les espaces de travail et les dispositifs dans une plate-forme où l’information circule facilement et qui permet une supervision centralisée de l’infrastructure informatique. Certains outils reposant sur l’IA, fournis par cette plateforme, constituent les prémices d’une stratégie visant à relier les points entre les différentes technologies et solutions d’IA » Dennis Curry, Vice-Président et Directeur de l’Innovation et de la R&D, Konica Minolta

Credit: Konica Minolta

Cognitive Hub & bureau du futur

Le laboratoire de R&D européen de Konica Minolta consacre une partie de ses recherches au développement du Cognitive Hub. Cette plateforme intégrée aidera les entreprises à apprendre et à s’adapter pour qu’elles puissent prendre des décisions plus perspicaces et percutantes dans des domaines, comme : les investissements financiers, l’analyse stratégique ou le développement de nouveaux produits et services.

Bon nombre d’entreprises dans les secteurs de la finance, du droit, de la santé, de l’industrie, de la production, des transports, de l’énergie et de l’éducation souhaitent mettre en œuvre des solutions basées sur l’IA ou ont déjà commencé. D’autres acteurs tels que JP Morgan, le Groupe Carlyle, Disney, Philips tiendront des conférences sur l’IA.

Credit: Konica Minolta

Afin d’en savoir en peu plus sur le Cognitive Hub, nous en avons profité pour poser quelques questions :

What is the Cognitive Hub?

Cognitive Hub is an integrated platform that can learn, adapt and enable organizations to make more insightful and impactful decisions in areas such as investments, business models, new products and services. Beginning with the experience garnered from Workplace Hub, Cognitive Hub will apply intelligent edge computing to AI and augment human intelligence to extend the network of human interfaces and enhance collaboration between individuals and teams.

Qu’est-ce que le Cognitive Hub ?

Le Cognitive Hub est une plate-forme intégrée capable d’apprendre, d’adapter et de permettre à des organisations de prendre des décisions plus perspicaces et plus performantes dans des domaines tels que les investissements, les modèles d’affaires, les nouveaux produits et services. À partir de l’expérience tirée du Workplace Hub, Cognitive Hub combinera l’Intelligent Edge, l’IA et augmentera l’intelligence humaine pour étendre le réseau des interfaces humaines et améliorer la collaboration entre les individus et les équipes.

How does the Cognitive Hub change the workplace?

Cognitive Hub will become a nexus for clients’ information flows within the digital workplace and provide augmented intelligence-based services that are immediately and autonomously actionable. Cognitive Hub, acting both in the cloud and at the intelligent edge, will result in an almost ubiquitous AI that supports end-users in taking better decisions.

En quoi cela va-t-il modifier notre environnement de travail ?

Le Cognitive Hub reliera le flux d’information des clients à l’environnement de travail numérique et fournira des outils d’aide à la décision immédiatement exploitables et autonomes. Le Cognitive Hub, agissant à la fois dans le cloud et l’Intelligent Edge, se traduira par une IA presque omniprésente aidant les utilisateurs à prendre de meilleures décisions.

How AI, IoT and connected collaborative environments will lead in developing predictive tools to taking better decisions?

Some say that cloud computing is coming to an end. However, we do not believe the cloud will die. Rather, we predict that it will diverge and split; evolving into a pervasive layer of connectivity between different edge devices and central storage locations. It will become a cortex-like structure made of complex three-dimensional tree-like substructures, where edge devices and the cloud will become interchangeable, according to users’ needs. Cognitive Hub will leverage on this cortex-like structure and, learning by example, will allow the cortex-enabled devices to combine to fulfil the users’ needs, by improving from the knowledge of previous experiences.

Comment l’intelligence artificielle, l’Internet des Objets et les environnements collaboratifs connectés aboutiront au développement d’outils prédictifs d’aide à la décision ?

Certains disent que le cloud computing arrive à sa fin. Cependant, nous ne pensons pas que le cloud va s’éteindre. Au contraire, nous prévoyons qu’il diverge et se dédouble; évoluant dans une couche omniprésente de connectivité entre les différents appareils et les emplacements de stockage centralisés. Il deviendra une structure semblable au cortex composée de sous-structures tridimensionnelles complexes en forme d’arbre, où les dispositifs et le cloud deviendront interchangeables, selon les besoins de l’utilisateur. Le Cognitive Hub s’appuiera sur cette structure semblable au cortex et l’apprentissage par l’exemple, permettra aux dispositifs compatibles avec le cortex de satisfaire les besoins de l’utilisateur, en améliorant la connaissance des expériences antérieures.

L’Intelligence artificielle pour les entreprises

Environ 30% des emplois du Royaume-Uni pourraient être automatisés d’ici 2030. En même temps, les technologies de l’intelligence artificielle devraient donner à l’économie du Royaume-Uni une augmentation additionnelle de 640 milliards de £ d’ici 2035. Le rapport spécial sur l’Intelligence Artificielle pour les Entreprises, publié dans The Times, couvre comment l’IA affectera les entreprises ainsi que nos vies personnelles. Le rapport sonde la façon dont nous pouvons nous assurer que les machines ne prennent pas le contrôle et envisage de construire des machines similaire à nous, ainsi que la guerre de l’intelligence artificielle qui éclate parmi les géants technologiques du monde. Il comprend également une infographie soulignant les niveaux d’adoption de l’intelligence artificielle dans tous les secteurs.

A propos de Konica Minolta Laboratory Europe (KMLE)

Depuis sa création en 1873, Konica Minolta n’a cessé d’innover et étend maintenant ses activités aux domaines de la « digitale workplace », de la santé, des appareils de mesures et des technologies numériques. Pour Konica Minolta, l’innovation et la recherche sont essentielles pour créer de la valeur au sein de la société. En 2015, Konica Minolta Laboratory Europe (KMLE) a été créé par le département R&D du Groupe. Son siège social est basé à Londres et le laboratoire de R&D à Brno, en République Tchèque. Un second centre dédié aux technologies pour la santé a ouvert ses portes à Munich en Allemagne. Un troisième centre devrait voir le jour cette année à Rome, en Italie. S’appuyant sur la longue expérience du Groupe en matière d’innovation, KMLE oriente ses travaux de recherche en fonction des avancées des technologies de l’information et de la communication pour concevoir la nouvelle génération de produits et de services de Konica Minolta. Grâce à sa collaboration étroite avec le BIC Europe (Business Innovation Center) et les autres centres de recherche externes, KMLE tire parti des technologies de pointe pour anticiper les besoins de ses clients.

 


i Intelligent Edge (IoT, mobilité, sécurité): Definition – What does Intelligent Edge mean? Intelligent edge is a term describing a process where data is analyzed and aggregated in a spot close to where it is captured in a network. The intelligent edge, also described as “intelligence at the edge,” has important ramifications for distributed networks including the internet of things (IoT). Techopedia explains Intelligent Edge: With an intelligent edge, remote or decentralized nodes of a system are empowered to do different kinds of data handling that may have traditionally been handled at a central point in a system. Specifically with IoT, a classical model of routing all of the many streams of data from IoT-connected devices into a central data warehouse or repository has several distinct disadvantages. It may be inefficient, and, if the data is not encrypted, it can also leave the system inherently more vulnerable. In an intelligent edge setup, the edge network components or nodes can process the data intelligently, possibly bundling, refining or encrypting it for transit into the data warehouse. This can improve the agility of data-handling systems, as well as their safety. Many cloud providers and other companies knowledgeable about the structure and nature of IoT are recommending the use of an intelligent edge for these reasons.

Dopage, éthique et dommage génétique. Le sport à l’épreuve de la biomédecine

Mathieu Quet, Matthieu Hubert, 2013. In book: Ethique du sport, Chapter: Dopage, éthique et dommage génétique. Le sport à l’épreuve de la biomédecine, Publisher: L’Age d’Homme, Editors: Bernard Andrieu, pp. 378-391.

Introduction : Parmi les nombreux thèmes de débat et de controverse soulevés par des innovations thérapeutiques, le dopage sportif occupe une place de premier plan. Ceci est tout particulièrement vrai dans le cas de la thérapie génique : pour des raisons à la fois médicales, éthiques, politiques, économiques, la possibilité d’usages dérivés de la thérapie génique à des fins d’amélioration des performances sportives s’est rapidement trouvée au cœur de débats enflammés. Tandis que certains dénoncent le détournement de pratiques de laboratoires encore expérimentales, d’autres se montrent en faveur d’une libéralisation des usages dopants (Stock, 2002 ; Miah, 2004 ; Brown, 2009). Les principes traditionnels de l’équité dans le sport sont une nouvelle fois fragilisés par l’irruption de pratiques dont le dépistage est encore impossible, et les débats sur les valeurs sportives sont relancés face à la nécessité de prendre en considération des tendances présentées comme inéluctables. En particulier, la tension entre réparation et augmentation des facultés physiques est déplacée au niveau génétique, appelant de nouveaux développements et prises de position.

De nombreux avis exprimés au cours de ces débats et controverses reposent sur l’intuition d’une transformation radicale des corps sportifs, transformation allant dans le sens d’une augmentation nouvelle des capacités du corps humain (Quéval, 2004). Une telle transformation, selon certains acteurs du débat, remet en cause la continuité de l’évolution humaine, et soulève à la fois des questions d’éthique sportive et d’éthique scientifique et médicale (Andrieu, 2010). Ces prises de position insistent souvent sur la figure du sportif comme espace d’hybridation et sur sa transformation en athlète génétiquement modifié. Si fécondes soient-elles, elles tendent cependant à faire abstraction des jeux d’institutions et d’acteurs qui fabriquent cette réalité sociohistorique, notamment à travers la constitution de discours et d’argumentaires variables sur le dopage, sur les sciences, et sur l’éthique. De ce fait, la compréhension des enjeux qui pèsent sur le corps sportif demande de réintroduire une prise en compte du processus d’immixtion des sciences dans le sport, comme force de transformation des pratiques, des institutions, des normes et des débats. Il semble alors heuristique de recadrer les controverses actuelles sur le dopage génétique dans une histoire du dopage mettant en perspective l’évolution des argumentaires sur l’augmentation artificielle de la performance et sur les rapports entre savoirs et pratiques sportives.

Dans cette perspective, la première partie du texte revient sur le rôle controversé et ambigu des sciences biomédicales dans le sport, depuis les premières tentatives de définition et de régulation du dopage dans les années 1960. La seconde partie analyse les continuités et les ruptures des argumentaires éthiques liés à l’émergence de cette nouvelle – possible – forme de dopage, qui recourt aux avancées des thérapies géniques. La troisième partie s’intéresse plus particulièrement aux figures de dénonciation d’un nouveau régime d’expérimentation, dont l’émergence serait liée à l’amélioration génétique des performances humaines.

Télécharger le PDF

Le posthumain comme dessein (2nd partie)

Contre-argumentation

Face à l’éventualité du posthumain, ceux qualifiés de « bioconservateurs », opposent généralement la dégradation de l’humain, sa « déshumanisation » et l’affaiblissement, voire la disparition de la dignité humaine. Alors que le médecin et biochimiste américain Leon Kass met en avant son profond respect pour ce que la nature nous a donné1, Nick Boström lui réplique que certains dons de la nature sont empoisonnés, et que l’on ne devrait plus les accepter : cancer, paludisme, démence, vieillissement, famine, etc. Les spécificités même de notre espèce, comme notre vulnérabilité à la maladie, le racisme, le viol, la torture, le meurtre, le génocide sont aussi inacceptables2. Nick Boström réfute l’idée que l’on puisse encore relier la nature avec le désirable ou le normativement acceptable. Il a une formule :

« Had Mother Nature been a real parent, she would have been in jail for child abuse and murder3. »

Plutôt que de se référer à un ordre naturel, il préconise une réforme de notre nature en accord avec les valeurs humaines et nos aspirations personnelles4.

Nick Boström dénonce l’instrumentalisation qui est faite du roman dystopique d’Adlous Huxley Le meilleur des mondes (1932). Selon lui, si dans le monde dépeint par Huxley, les personnages sont déshumanisés et ont perdu leur dignité, ce ne sera pas le cas des posthumains. Le meilleur des mondes n’est pas, selon lui, un monde où les êtres sont augmentés, mais une tragédie, dans laquelle l’ingénierie technologique et sociale a été utilisée délibérément afin de réduire leurs potentialités, les affecter moralement et intellectuellement5. L’ouvrage d’Huxley décrit un eugénisme d’État dans lequel sont dissociées fécondation et sexualité mais aussi procréation et gestation corporelle. Tout commence par une mise en relation artificielle des gamètes mâles et femelles, puis une « bokanovskification », qui permet de faire bourgonner l’embryon pour produire au maximum 96 jumeaux identiques, et enfin une gestation extra-corporelle complète dans une couveuse, une sorte d’utérus artificiel6. Les « individus » « prédestinés » par une anoxie plus ou moins brève qui altère chez certains leur capacités physiques et cognitives sont ensuite ventilés en castes (alpha, bêta, gamma, epsilon, etc.).

« Plus la caste est basse […] moins on donne d’oxygène. Le premier organe affecté, c’est le cerveau. Ensuite le squelette7. »

À leur naissance, les enfants sont ensuite exposés à un conditionnement de type pavlovien qui oriente leur sensibilité – aux livres et aux fleurs par exemple.

En contrepoint, Nick Boström revendique la liberté morphologique et reproductive contre toute forme de contrôle gouvernemental8. Selon lui, il est moralement inacceptable d’imposer un standard : les gens doivent avoir la liberté de choisir le type d’augmentation qu’ils souhaitent9.

Le philosophe américain Francis Fukuyama considère qu’avec l’augmentation, une menace pèse sur la dignité humaine. L’égalité des chances, encore toute relative, fut l’histoire d’un long combat, l’augmentation ruinera cette conquête inscrite notamment dans la constitution des États-Unis10. En réponse, Nick Boström inscrit le posthumain dans une perspective historique d’émancipation progressive en considérant que de la même manière que les sociétés occidentales ont étendu la dignité aux hommes sans propriété et non nobles puis aux femmes et enfin aux personnes qui ne sont pas blanches, il faudrait selon lui étendre le cercle moral aux posthumains, aux grands primates et aux chimères homme-animal qui pourraient être créés11. La dignité est ici entendue au sens d’un droit inaliénable à être traité avec respect ; la qualité d’être honorable, digne12.

Nick Boström estime que nous devons travailler à une structure sociale ouverte inclusive, une reconnaissance morale et en droit pour ceux qui en ont besoin, qu’il soit homme ou femme, noir ou blanc, de chair ou de silicone13. Si l’on considère que la dignité peut comporter plusieurs degrés, non seulement le posthumain pourrait en avoir une, mais plus encore atteindre un niveau de moralité supérieur au nôtre14.

Valeurs transhumanistes Explorer le royaume posthumain

Pour le philosophe allemand Hans Jonas, l’eugénisme libéral individuel, qui consiste à choisir les traits de son enfant, est une tyrannie parentale qui de manière déterministe conditionne la dignité à venir de l’enfant et aliène ses choix de vie. Le choix de maintenant conditionne le futur. À ce déterminisme, Nick Boström rétorque que l’individu dont les parents auront choisi quelques gènes ou la totalité n’aura pas moins de choix dans la vie. Il réplique qu’entre avoir été sélectionné génétiquement et faire des choix dans sa vie il y a un monde et de manière générale être plus intelligent, en bonne santé, avoir une grande gamme de talents ouvrent plus de portes qu’il n’en ferme15. Ironiquement, il affirme que le posthumain aura les moyens technologiques de décider d’être moins intelligent16.

Soucieux, semble-t-il, de justice sociale, il imagine que certaines augmentations jugées bonnes pour les enfants pourraient être prise en charge par l’État comme cela existe déjà pour l’éducation, surtout si les parents ne peuvent pas se le permettre. Comme nous avons une scolarisation obligatoire, une couverture médicale pour les enfants, une augmentation pourrait être obligatoire, éventuellement contre l’avis même des parents17 .

L’ « explosion de l’intelligence »

Parmi les différentes voies devant conduire à une augmentation cognitive, une « explosion de l’intelligence », Nick Boström en évalue au moins deux comme prometteuses : l’augmentation cognitive par la sélection génétique et la digitalisation du cerveau et le téléchargement de l’esprit. L’augmentation cognitive par la sélection génétique accélérée est une méthode directe pour accéder au posthumain. Voici sa recette : choisir dans un premier temps des embryons dont le potentiel est souhaitable par un détournement du diagnostique préimplantatoire, extraire des cellules souches de ces embryons et les convertir en gamètes mâles et femelles jusqu’à maturation (six semaines) croiser le sperme et l’ovule pour donner un nouvel embryon, réitérer à l’infini puis implanter dans l’utérus (artificiel) et laisser incuber pendant neuf mois18.

Une autre voie consisterait à « plagier » la nature en digitalisant le cerveau. Dans un premier temps, il s’agirait de scanner finement post-mortem un cerveau biologique, stabilisé par vitrification, afin d’en modéliser la structure neuronale. Pour ce faire, il faudrait au préalable découper ce cerveau en fines lamelles. Les données extraites, issues du scan, alimenteraient ensuite un ordinateur, qui reconstruirait le réseau neuronal en trois dimensions, qui permet la cognition. In fine, la structure neurocomputationnelle serait implémentée dans un ordinateur puissant qui reproduirait l’intellect biologique. Avec cette méthode, il n’est pas nécessaire de comprendre l’activité neuronale, ni de savoir programmer l’intelligence artificielle19.

Vers une spéciation ?

Allons-nous vers une divergence si souvent décrite par la science fiction, une spéciation ? Une espèce se définit soit par la ressemblance morphologique soit, de manière génétique, par l’interfécondité. Il existe deux types de spéciation : l’anagénèse, une humanité unique deviendrait une posthumanité unique, ou la cladogénèse qui entraînerait une divergence. Deux moteurs favorisent la spéciation dans la biologie évolutionniste. Le premier est la dérive génétique, c’est-à-dire la transmission aléatoire de caractères qui apparaissent par mutation dans une population, sans fonction adaptive spécifique. Le second, est la sélection naturelle des caractères aléatoires en fonction de leur potentiel adaptatif à un environnement en changement. Dans notre cas, la sélection se ferait artificiellement, l’humanité prenant en charge sa propre évolution20.

Alors que la sélection naturelle se fait au hasard, au filtre de l’adaptation sur la très longue durée, avec le techno-évolutionisme l’évolution se ferait à un rythme rapide, pour des raisons fonctionnelles. L’idée que l’augmentation puisse mener à une spéciation par cladogénèse, relève, selon Nick Boström, d’un scénario de science-fiction :

« The assumption that inheritable genetic modifications or other human enhancement technologies would lead to two distinct and separate species should also be questioned. It seems much more likely that there would be a continuum of differently modified or enhanced individuals, which would overlap with the continuum of as-yet unenhanced humans21. »

De même, il évalue comme peu plausible l’idée qu’un jour le posthumain considérant l’homme « normal », comme inférieur, puisse le réduire en esclavage, voire l’exterminer22.

« The scenario in which ‘the enhanced’ form a pact and then attack ‘the naturals’ makes for exciting science fiction but is not necessarily the most plausible outcome23. »

Le devenir humain met au défi notre imaginaire. Nick Boström y voit l’espérance d’une émancipation biologique devant nous conduire à une extase permanente.

Néanmoins, cette désinhibition souffre d’une contradiction majeure : elle sous-tend des ruptures anthropologiques, qui par différents biais, et notamment le conformisme, s’imposeraient à tous.

1ère partie

Le posthumain comme dessein

Notes :

1 Nick Boström, « In defense of posthuman dignity », Bioethics, vol. 19, no 3, 2005, 2007, p. 5
2 Idem.
3 Ibid., p. 12
4 Idem.
5 Ibid., p. 6.
6 Aldous Huxley [1932], Le meilleur des mondes, Paris, Presses Pocket, 1977, voir chap 1, p. 21 à 36.
7 Ibid., p. 33.
8 Nick Boström, « In defense of posthuman dignity », op. cit., p. 6.
9 Ibid.
10 Francis Fukuyama, « The world’s most dangerous idea: transhumanism », Foreign Policy, 2004.
11 Nick Boström, « In defense of posthuman dignity », op. cit., p. 10.
12 Ibid., p. 9.
13 Idem.
14 Ibid., p. 11
15 Ibid., p. 12.
16 Idem.
17 Nick Boström, « Human genetic enhancements: a transhumanist perspective », op. cit.
18 Nick Boström, Superintelligence. Paths, dangers, strategies, Oxford, OUP, 2014, p. 38.
19 Ibid., p. 30.
20 Elaine Després et Hélène Machinal (dir.), Posthumains : frontières, évolutions, hybridités, Rennes, PUR, 2014, p. 2.
21 Nick Boström, « In defense of posthuman dignity », op. cit., p. 8.
22 Idem.
23 Idem.

L’histoire de la superintelligence et la question de l’éthique des machines

Publié in Marianne Celka et Fabio La Rocca (dir.), Transmutations, Esprit Critique, Revue internationale de sociologie et sciences sociales, vol. 24, n° 1, été 2016, p. 43-57. Par Vincent Guérin, Docteur en histoire contemporaine.

Résumé : Ce texte a pour objet d’analyser, chez les transhumanistes, le couplage de l’éthique des machines avec les risques inhérents à la superintelligence. La première favorisant l’émergence de la seconde. Par ce biais, nous observons une accentuation du rapprochement de l’homme et de la machine, initié par le paradigme informationnel ; un renversement même avec une machine considérée comme « smarter than us ».

Introduction

En 2014, l’informaticien et cofondateur de Skype Jaan Tallinn a créé The Future of Life Institute (FLI) avec entre autres les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT). Dans le comité scientifique se trouve une constellation de personnalités célèbres comme Stephen Hawking, des auteurs à succès comme Erik Brynjolfsson (MIT Center for Digital Business), mais aussi l’acteur Morgan Freeman (film Transcendance de Wally Pfister, 2015) et l’inventeur et chef d’entreprise Elon Musk. Jaan Tallinn était déjà à l’initiative du Centre For The Study Of Existential Risk (CSER) ou Terminator studies en 2012 à l’Université de Cambridge avec le cosmologiste Martin Rees. Ces deux institutions ont pour ambition, entre autres, d’anticiper les risques majeurs qui menacent l’humanité, notamment ceux inhérents à l’intelligence artificielle (IA).

Dernièrement, Bill Gates, fondateur de Microsoft, lui-même, se dit préoccupé par l’IA. Ces deux institutions et Bill Gates ont un dénominateur commun : Nick Boström. l’auteur de Superintelligence, Paths, Dangers, Strategies (2014), qui a impressionné Bill Gates, est membre du comité scientifique de la FLE et du CSER. Il est professeur à la faculté de philosophie de la prestigieuse Université d’Oxford et fondateur de la Future of humanity Institute (FHI) qui a pour objet d’anticiper les risques majeurs qui menacent l’humanité (existential risks). Ses recherches portent sur l’augmentation de l’homme, le transhumanisme, les risques anthropiques et spécifiquement celui de la superintelligence. En 2008, il a codirigé avec Milan M. Ćirković Global Catastrophic Risks (Boström, Ćirković, 2008). Cet ouvrage dénombre dix risques catastrophiques au sens d’un bouleversement radical qui menacerait l’humanité (anthropiques ou non) 1 . Parmi les risques anthropiques recensés, Eliezer S. Yudkowsky (1979-), chercheur au Machine Intelligence Research Institute à Berkeley (MIRI), développe le chapitre sur l’IA (Yudkowsky, 2008).

Nick Boström et Eliezer Yudkowsky sont transhumanistes, un courant de pensée qui conçoit l’humain, l’humanité comme imparfaits et prône une prise en main de leur évolution par la technologie. En 1998, Nick Boström a fondé avec David Pearce la World Transhumanist Association (WTA) et l’Institute for Ethics & Emerging Technologies (IEET) avec James Hughes.

Plusieurs objectifs irriguent le transhumanisme, dont le devenir postbiologique (posthumain), la superintelligence et l’amortalité (une immortalité relative). Parmi les NBIC, deux technologies ont leur faveur. La première, la nanotechnologie (une construction à partir du bas à l’échelle du nanomètre soit un milliardième de mètre) est en devenir, et la seconde, l’intelligence artificielle générale (IAG) reste un fantasme. Nick Boström et Eliezer Yudkowsky pensent que l’IA favorisera la nanotechnologie, elle-même porteuse d’inquiétude (Drexler, 1986). Eric Drexler, transhumaniste et membre du FHI, a créé en 1986, le Foresight Institute afin de prévenir les risques technologiques et favoriser un usage bénéfique de la nanotechnologie. Qu’est-ce-que la (super) intelligence artificielle ? Quelles sont les corrélations entre le transhumanisme et cette inquiétude montante vis-à-vis de l’IA, ou plus exactement la superintelligence ? Comment et quand pourrait-elle émerger ? Comment s‟articule le complexe dit de Frankenstein et l’éthique des machines ?

pour lire la suite, télécharger le PDF


Sommaire :

Introduction
La (super) intelligence artificielle
Le complexe dit de Frankenstein et l’éthique des machines
Épilogue
Références bibliographiques