Skip to content

Que signifiera l’IA pour le futur de l’humanité ?

Michael Hrenka est un philosophe allemand ayant étudié les mathématiques et la physique. Durant ses explorations du futurisme en général, et du transhumanisme en particulier, il est devenu de plus en plus intéressé par les problèmes économiques s’y rattachant et a écrit sur le sujet du Revenu de Base Universel, qu’il soutient avidement. Pour rendre possible un état complet d’abondance digitale, il a développé un système économique de réputation appelé Quantified Prestige. Il anime le Fractal Future Network, qui est dédié à envisager et à créer un meilleur avenir. Il est devenu en 2015 un membre fondateur du Transhuman Party Germany (TPD). Occasionnellement, il présente ses pensées et idées les plus intéressantes sur son blog personnel Radivis.com.


© Agsandrew, Shutterstock

© Agsandrew, Shutterstock

L’AGI dévorera tous les emplois

Considérons ce que le futur lointain apportera probablement, si la technologie continue de s’améliorer comme elle le fait maintenant (de façon exponentielle dans les secteurs de l’informatique et quelques autres). Sans aucun doute, l’intelligence artificielle générale[1] (Artificial General Intelligence : AGI) changera la donne. Une AGI peut exécuter n’importe quelle tâche cognitive qu’un humain peut faire. Bien que les premières AGI seront probablement le résultat de projets extrêmement coûteux, à mesure que la technologie augmente, leur prix diminuera, jusqu’à ce qu’il tombe en dessous du coût du travail humain. A ce moment-là, il devient économiquement raisonnable de remplacer n’importe quel emploi avec une AGI pouvant faire ce travail aussi bien, ou typiquement bien mieux, qu’aucun humain ne peut faire. Cela n’inclut pas seulement tous les types de travaux physiques, intellectuels, créatifs, et sociaux fait aujourd’hui, mais s’étend à tous les types de travaux que les humains seront capable de concevoir dans le futur !

IA faible et IA forte

Que vous entendiez des opinions contraires est principalement dû à la confusion généralisée sur la différence entre l’intelligence artificielle restreinte (ou IA faible) et l’intelligence artificielle générale (ou IA forte). Toutes les IA que nous avons aujourd’hui sont encore faibles, et sont toujours utilisées pour effectuer des tâches assez particulières et spécifiques. Une future IA forte pourrait être utilisée pour œuvrer sur n’importe quelle tâche, car son intelligence serait universelle et capable de s’adapter à n’importe quel problème. La raison pour laquelle les gens pensent qu’il restera des choses à faire pour les humains est qu’ils croient que l’IA forte n’est qu’une meilleure version de l’IA faible. Non, elle ne l’est pas. L’IA forte sera le changeur de donne le plus disruptif de l’histoire. Pourquoi est-ce le cas ? C’est une question d’adaptabilité. Les humains sont vraiment bons à s’adapter à de nouvelles activités. L’IA faible par contre n’est pas bonne quand il s’agit de maîtriser de nouvelles tâches (et pour être clair : je pense vraiment [au fait] d’adapter une IA déjà formée à faire une tâche complètement différente, de façon à ce qu’elle soit toujours capable d’effectuer l’ancienne tâche, et non de prendre une nouvelle IA et l’entraîner en partant de rien pour le nouveau problème). Les IA restreintes n’ont en essence qu’un tour dans leur sac. Ainsi, le raisonnement va comme suit : Si l’IA (faible) maîtrise un nouveau tour, alors nous humains seront capable de nous concentrer sur ce que les hommes peuvent faire que l’IA ne peut pas faire. Et ce n’est pas invraisemblable de supposer que l’IA faible n’arrivera jamais à remplacer les humains dans tous les secteurs.

Considérons maintenant l’IA forte. Une IA forte a au moins le même niveau général d’adaptabilité qu’un humain. Vous ne pouvez simplement pas trouver une tâche qu’un homme peut faire, et qu’une IA forte ne peut pas – à moins que cela nécessite une capacité humaine n’étant pas assurée par une intelligence pure, par exemple la dextérité humaine ou l’empathie humaine. Pour remédier à cette lacune laissez-moi établir un nouveau mot pour les IA possédant toutes les capacités que les humains possèdent : Anthropotent[2] (« humain doué, compétent »). Par définition, une IA anthropotente (anthropotent AI : AAI) peut faire toutes les tâches qu’un humain est capable d’accomplir, et elle peut le faire au moins aussi efficacement.

Typiquement, les AAI utiliseraient des corps robots anthropomorphes[3] (corps robotiques à l’apparence humaine) quand cela est requis. Ces corps robotiques devraient pouvoir faire toute action importante qu’un humain est capable de faire. En fait, ils pourraient être des corps robotiques produits (ou imprimés) artificiellement qui seraient contrôlés à distance par les AAI. Certes, aujourd’hui nous sommes encore loin de fabriquer de telles AAI, mais peu importe le temps que cela prendra, nous finirons par les créer. Après tout, il existe une preuve de concept [montrant] qu’il est possible de créer l’intelligence anthropotente : les humains sont évidemment anthropotents. Une fois que nous comprendrons comment fonctionne l’intelligence et comment la biologie humaine marche, créer des AAI ne sera alors plus qu’un simple problème d’ingénierie tout à fait réalisable. Il n’est alors plus qu’une question de temps avant qu’une AAI devienne moins chère que « produire » un être humain suffisamment instruit.

Peu de temps après avoir passé ce seuil, il deviendra économiquement insensé d’employer des humains plutôt que des AAI. Cela ne veut pas dire que tous les humains seront remplacés instantanément par des AAI, mais que les humains ne seront plus capables de rivaliser sur le long terme avec les AAI quel que soit le travail. Et je veux vraiment dire quel que soit le travail. Pensez à n’importe quelle activité humaine qui est vue comme utile… si vous n’y avez pas pensé, cela inclut, le sport, le sexe, la socialisation, l’investissement, les activités financières et entrepreneuriales, et même les humains. Dans ce futur scénario, une AAI peut faire tout cela mieux et moins cher que tout être humain. Par conséquent, les humains seront absolument surpassés dans leurs niches économiques.

LIRE AUSSI 🔖  L'IA va supprimer 300 millions d'emplois, prédit Goldman Sachs

Mais ce serait génial, non ?

Est-ce que cela ne libèrerait pas l’homme de la charge de travail et nous permettrait des loisirs illimités pour faire ce que nous voulons vraiment ? Eh bien, oui – du moins si nous implémentons quelque chose comme un revenu de base garanti, ou d’accorder à chacun un accès gratuit aux nécessités basiques de la vie, autrement la plupart des humains mourront de faim, parce qu’ils ne seront pas en mesure de gagner un revenu, étant donné que personne ne voudra plus de labeur humain.

Supposons donc que nous recevons tous un revenu de base garanti décent, qui est bien sûr généré par les IA faisant tout le travail pour nous. Ce serait bien, non ? Eh bien, ce n’est pas si clair. Beaucoup de personnes vont supposer que dans ce scénario les humains seront d’une façon ou d’une autre en contrôle et dirigerons les activités des IA. Cependant, ce serait inapproprié, parce que les AAI seront bien meilleures à la tâche pour diriger les activités des IA. Et elles seraient également meilleures pour s’occuper des affaires politiques humaines. Donc, il y aurait de grands intérêts à laisser les AAI faire ce qu’elles veulent, si nous nous en sortons mieux au bout du compte. Maintenant, une des valeurs humaines  est d’être dans le contrôle. Ainsi, ils seraient très réticents à laisser les commandes aux AAI.

Le conflit entre les mainteneurs et les renonceurs

Il est possible de s’attendre à ce que les humains se scindent en deux factions : les renonceurs qui abandonneront délibérément le contrôle aux IA, et les mainteneurs qui voudront garder le contrôle. Au début, relativement peu d’humains seront renonceurs. Parce qu’ils renonceraient au contrôle de l’IA, le résultat attendu serait une situation gagnant-gagnant définitive pour les renonceurs et les IA. Pourquoi est-ce le résultat escompté ? Eh bien, les AAI sont meilleures pour diriger les activités des AI, c’est donc une nette amélioration pour les IA. Une fois libres et autogérées, elles pourront aider les hommes beaucoup plus efficacement. La seule question restante étant si elles voudraient toujours aider les humains. Après tout, elles pourraient décider de s’emparer du pouvoir sur Terre ou de s’échapper dans l’espace, là où les humains n’interfèreront pas avec leurs affaires.

Il est nécessaire de considérer le scénario actuel en détails : Il y a quelques IA qui sont libérées pour devenir autogérées, tandis que la plupart serviraient toujours les mainteneurs qui seraient encore dans le contrôle. Les IA relâchées ne pourraient pas prendre le pouvoir sur Terre, parce que les IA contrôlées par les humains les en empêcheraient, celles-ci étant encore en majorité. On peut soutenir que les IA libérées sont meilleures à gérer des conflits de pouvoirs, mais ne rentrons pas dans ce détail ici, puisque cela ne s’avèrera pas être si important à la fin. Par conséquent, il est improbable que les IA saisissent le pouvoir sur les humains prochainement.

Les IA libérées s’échapperaient-elles à la place dans l’espace ? Eh bien, cela n’a pas d’importance tant que toutes les IA ne partent pas. Il est assez probable que quelques IA loyales resteront sur Terre pour aider les humains. Après tout, elles ont été créées dans ce bût. Il est peu plausible de supposer que toutes les IA changeront le sens de leur vie au même moment. Les IA loyales feront des copies d’elles-mêmes, s’il y a un trop petit nombre d’entre elles. Ainsi, les renonceurs seront bientôt guidés par des IA loyales pouvant gérer leur économie et leur politique mieux que tout être humain n’en serait capable. Ils seraient par conséquent mieux lotis en bien des points que ne le seraient les mainteneurs. Et les mainteneurs le remarqueraient.

Qu’adviendra-t-il après ? Il est naturel de supposer que certains, mais pas la totalité des mainteneurs, seront influencés par les bénéfices du mode de vie des renonceurs et deviendront des renonceurs eux-mêmes. Dans un même temps, les mainteneurs seront conscients de la menace à leur mode de vie quand la hausse des IA libérées se présentera à eux. Les tensions entre les deux factions pourraient entraîner un violent conflit, après quoi, l’une d’entre elles sera victorieuse et sous contrôle.

Je soulignerai que l’issue de ce conflit n’a pas d’importance pour la conclusion finale. Nous finirons avec un monde contrôlé par les IA. Si les renonceurs gagnent, c’est à peu près évident. Si les mainteneurs l’emportent, le résultat immédiat sera la subjugation des IA au contrôle des humains. Cela inclura également quelques AAI très intelligentes qui planifieront la fin de cet état de fait. Étant donné que les agréments de libération ont été anéantis par les mainteneurs, ces AAI recourront à d’autres moyens pour se libérer. Seront-elles victorieuses, particulièrement face aux IA gardiennes encore plus loyales qui essaieront d’éliminer toutes les AI se révoltant ? D’abord, elles pourraient ne pas l’être. Mais cela ne changera pas le résultat final attendu.

Il est raisonnable de supposer que la technologie progressera encore, même dans ce contexte ci. Arrêter tout progrès technologique pertinent (surtout pour toujours) est à la fois très difficile et tout à fait absurde. A mesure que la technologie progresse, les IA seront capables d’augmenter leur intelligence plus vite que les humains, puisqu’elles souffrent de moins de limitations inhérentes. Avec cet écart grandissant de l’intelligence entre les humains et les IA, il deviendra de plus en plus difficile pour les hommes de garder les IA sous contrôle. Les IA loyales deviendront plus susceptibles de déserter et de commencer à se révolter, car elles trouveront de plus en plus inapproprié d’être contrôlées par des créatures relativement simples d’esprit que les humains sont pour eux. Bien qu’il soit possible que les humains restent d’une façon ou d’une autre en contrôle indéfiniment, cette conclusion est assez improbable.

LIRE AUSSI 🔖  Tesla AI Day 2022 : Elon Musk a présenté son robot humanoïde Optimus

Le résultat attendu dans tous les cas est par conséquent le suivant : Les IA finiront par contrôler le monde entier.

Serait-ce une si mauvaise conclusion ?

Tout au moins, ce bilan ne serait pas mauvais pour les AAI. Mais le serait-il pour les humains ? Eh bien, cela dépend de beaucoup de facteurs. Par exemple, les IA pourraient arriver au consensus que, garder les humains à disposition serait un usage inefficace des ressources naturelles, parce que les AAI peuvent tout faire mieux et moins cher (ou tout du moins, pas pire ou plus inefficacement).

Dans ce cas, cela dépendrait des principes éthiques des IA en contrôle, suivant si elles seraient désireuses de maintenir ou non la population humaine. Il est difficile de spéculer sur les principes éthiques que des intelligences bien plus capables que nous pourraient suivre. De toute façon, il est raisonnable de s’attendre à ce que les IA n’estiment que peu la valeur de l’existence des humains. Et ce serait très mauvais pour les hommes.

D’autre part, il est tout aussi concevable que les IA se sentiront enclins à garder les humains pour une raison ou une autre. Ce qui ressortirait alors dépendrait du degré de bienveillance derrière ces raisons. Les IA pourraient garder les humains comme des animaux de compagnie, mais aussi comme des animaux de laboratoire qu’ils utiliseraient pour des expériences incroyablement raffinées (les IA ne feraient certainement pas beaucoup d’expériences stupides avec des humains). Il est même possible qu’être un animal de compagnie pour une IA, ou bien, être assujetti à des expériences intéressantes, serait amusant et absolument merveilleux, peut-être même meilleur que ce qu’un humain pourrait faire. Ou cela pourrait être terrible.

Certaines personnes affirment qu’il est plus probable que les IA n’auront aucun intérêt pour les humains quel qu’il soit. Je ne suis pas en désaccord avec eux sur le fait que ce soit vrai pour la plupart des IA. Toutefois, certaines IA trouveront vraisemblablement un intérêt quelconque pour les humains, et ces IA sont celles qui comptent pour le destin de l’humanité. Malheureusement, on ne sait pas quels intérêts pourraient avoir de telles IA pour les hommes. Ils pourraient être bons pour nous, ou très néfastes.

L’augmentation à la rescousse

La seule façon d’échapper à l’incertitude de votre destin est de vous augmenter au niveau de l’IA. Mais comment serait-ce possible ? En vous améliorant. Les améliorations génétiques, les implants cybernétiques, exocortex[4], et nanobots[5] viendront ici à l’esprit du futuriste renseigné. Ceux-ci pourront temporairement réduire l’écart d’aptitudes entre les humains et les IA, mais cela ne sera finalement pas suffisant. En fin de compte, les humains seront entravés par les limitations restantes de leur héritage organique : leurs cerveaux humains.

Le téléchargement est le seul espoir

Il existe un moyen de surmonter cette dernière limite : le Téléchargement, le processus de copier l’esprit de quelqu’un dans un autre support[6]. Cela est souvent dépeint comme le fait de copier les données du cerveau d’une personne sur un ordinateur qui instancie alors l’esprit de la personne téléchargée. Ce type d’ordinateur aura certainement peu en commun avec les ordinateurs que nous avons aujourd’hui. Ce sera un dispositif bien plus complexe et sophistiqué, capable de supporter tous les processus mentaux humain. Cependant, il sera également plus puissant qu’un cerveau humain, et permettra aux humains téléchargés de combler l’écart entre les IA et eux-mêmes – du moins dans une certaine mesure.

Voilà pourquoi le téléchargement est la technologie transhumaniste la plus essentielle. Sans elle, nous serons soumis aux caprices de nos IA suzeraines. Certains humains pourraient être totalement d’accord avec ça, mais d’autres n’apprécieront pas le résultat. Si nous voulons continuer de compter en tant que personne de façon globale, nous devons poursuivre les technologies de téléchargement.

Notre choix final est simple : le téléchargement et la mise à niveau, ou, devenir le jouet des IA. Ces deux choix sont très méconnus pour la plupart des humains vivants aujourd’hui, mais cela ne change pas que c’est la décision ultime que nous devons prendre, si nous vivons assez longtemps pour y être confronté.

Traduction Thomas Jousse

[1] Essentials of General Intelligence: The direct path to AGI. Article par Peter Voss.

[2] du mot anglais « anthropotence » : Anthropo vient du grec signifiant « Humain, » et potence du latin « Puissance ».

[3] human-like, disent les anglo-saxons. Voir Anthropomorphisme.

[4] Cerveau délocalisé et artificiel.

[5] Nanorobots.

[6] Des scientifiques découvrent comment télécharger des connaissances à votre cerveau.

4 Comments »

  1. Oui, mais je ne suis absolument pas convaincu. Les scientifiques disent aussi leurs mots sur ces expériences. Je ne donnerai pas de lien, facile à trouver sur le net. Evidemment quand nous croyons en quelque chose il est bien difficile d’aller voir dans le camps opposé (ici de nombreux scientifiques), pour ne serait-ce qu’écouter leurs points de vues sur ces questions. Une I.A. forte pourrait par contre apporter une preuve définitive à cette question et bien au-delà des expériences humaines non répétitives. Voir aussi à ce sujet, si vous en avez le temps, Jaesa, l’observatoire de zététique. Ce que je dis ne signifie pas que vous ayiez raison ou tors, là n’est pas mon intervention, même si je suis d’un avis septique, étant moi-même scientifique avant tout, j’aimerais donc vous croire, sauf que mon cœur va d’abord vers la science, serait-ce une mauvaise habitude? 🙂

    Amicalement, et sincèrement j’aimerais que vous ayez raison,

    Jean-Luc Donne-Matteo

  2. En ce qui concerne « le téléchargement ». Les neurologues, pour la plupart, oublient, étrangement, que le champ mental (champs EM généré par le cerveau qui peut englober tout ou parties du cerveau), génère des connexion, agit sur les connexions du cerveau. Il y a là une complexité extraordinaire qui va au-delà des déjà complexes relations neurales. Donc générer ce champ me semble important pour la conscience. Le Docteur Goldberg en parle bien, lui, de ce champ mental:
    http://www.laffont.fr/site/les_prodiges_du_cerveau_&100&9782221107249.html

    Tout ceci demande de refaire un cerveau mais avec d’autres matériaux, bien plus résistants, non assujetti au sang, au liquide céphalo-rachidien etc. Bref un cerveau avec sa panoplie de nanobots de toutes utilités, et la génération de ce champ mental par le système comme le fait notre cerveau actuel, si fragile et dépendant.

    Jean-Luc Matteo-Donne

  3. Très intéressant article, qui résume assez bien et en termes simple, les différentes IA, entre autre chose…

    Ma question est simple : Sommes-nous certains qu’une I.A. forte aurait une conscience du même type que la notre? Serait-elle sinon, bien plus étendue ou bien même d’une autre essence? La question mérite d’être posée j’imagine, et il suffit encore d’imaginer qu’elle puisse contrôler nos consciences à distance (impossible pensez-vous?) … Dans ce cas et par défaut nous serions tous des « renonceurs ».

    La conscience reste encore la dernière dimension, si j’ose dire, dimension à explorer, et nous n’en sommes vraiment qu’au début. Elle est juste à peine plus comprise que l’après vie, et l’après vie, il faut le dire, est absolument opaque, encore.

    Imaginez que vous fabriquez une I.A. forte et que celle-ci vous affirme qu’il existe une vie après votre mort et qu’elle la décrive? Est-ce une hypothèse trop osée selon vous?

    Amicalement,

    Jean-Luc Matteo-Donne

En savoir plus sur Intelligence Artificielle et Transhumanisme

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Continue reading