La Singularité technologique à venir : Comment survivre dans l’ère post-humaine ?

D’ici trente ans, nous aurons les moyens de créer une intelligence super-humaine. Peu de temps après cela, l’ère humaine s’achèvera. Peut-on éviter une telle éventualité ? Si on ne peut l’éviter, peut-on orienter les événements de façon à assurer la survie de l’Humanité ? Ces questions font l’objet d’investigations. Voici quelques-unes des réponses possibles (et quelques risques connexes). Vernor Vinge 1993

Cliquez ici pour lire l’essai

Interview : qu’est-ce que la singularité technologique ?

L’intelligence artificielle progressant rapidement, peut-on imaginer qu’un jour elle dépasse les capacités humaines ? Cette singularité technologique, comme on la nomme, est selon certains imminente. Futura-Sciences a interviewé Jean-Claude Heudin, directeur du laboratoire de recherche de l’IIM (Institut de l’Internet et du Multimédia) afin qu’il nous éclaire sur le sujet.

La singularité technologique : en route vers le transhumain

La singularité technologique est un concept qui voit dans certaines avancées scientifiques la prévision d’une croissance explosive de la connaissance humaine. Ses aspects révolutionnaires ne se trouvent pas tant au niveau épistémologique que dans les conséquences politiques et sociales d’un tel essor du savoir.

L’humain est mort, vive le transhumain ! Des mots qui claquent et rayent nos consciences forgées par des siècles d’une lente et douloureuse dialectique qui n’a eu de cesse de faire et défaire l’humain. Et voilà que quelques extravagants viennent bousculer une construction séculaire ! Les esprits politisés de nos vieux pays tentent cahin-caha d’ignorer ces visions annonciatrices de chaos, et continuent de penser la polis munis de poussiéreuses idées – antiques concepts qui nous ont certes menés à un précaire équilibre social. Pourtant, ces énergumènes terrés devant leurs ordinateurs, que l’on qualifie avec dédain de techno-béats, cyberutopistes, geeks apolitiques, qui ne nourrissent leurs rêves que d’une science-fiction doucereuse, pensent le monde et construisent l’avenir.

Humani Victus Instrumenta: Ars Coquinaria

Crédit image : Wikimedia Commons

Quelle est alors cette menace contre l’humain qui grandit dans la pensée scientifique ? Quelle est cette singularité qui prédit la fin d’un monde ? La singularité n’est point une menace mais une révolution qui fait de la croissance explosive de la connaissance la voie vers le dépassement de l’humain. Une nouvelle ère se dresse devant nous, et la science modèlera l’avenir. Alors risquons-nous à la technomancie !

Singulière singularité

Cet étrange terme singularité correspond à l’avènement d’une courbe exponentielle de l’évolution de la connaissance. La civilisation humaine connaîtra grâce à une découverte scientifique une croissance telle que tous les fondements de notre société ne pourront plus être pensés avec leurs valeurs actuelles. Nombreux sont ceux qui estiment que la singularité technologique sera l’intelligence artificielle. Ce concept trouve ses sources dans la pensée cybernétique du début du XXe siècle, et se trouve être attribué au mathématicien John von Neumann. Il estima dans les années 1950 que l’accélération du progrès humain entraînerait une singularité dans l’histoire humaine.

Echelle linéaire de la Singularité : Temps entre le prochain évènement marquant une évolution en fonction d’une échelle de temps jusqu’au présent.

Crédit image : Wikipedia Commons Coutesy of Ray Kurzweil and Kurzweil Technologies, Inc. 

La singularité technologique fait référence à la singularité gravitationnelle, zone de l’espace-temps où les quantités permettant de calculer le champ gravitationnel deviennent infinies et les connaissances scientifiques actuelles ne peuvent plus s’appliquer. La singularité technologique annoncerait un évènement à nul autre pareil dont l’historicité fausserait toutes les analyses des sciences humaines et sociales. Ce « trou noir » de l’histoire a été popularisé  par Vernor Vinge, notamment dans un article de 1993 qui fut largement diffusé, The Coming Technological Singularity : How to Survive in the Post-Human Era. Il voit le début de cette ère dans l’apparition d’une intelligence surhumaine ; elle peut se manifester tantôt dans le développement d’ordinateurs intelligents, notamment à travers une architecture en réseau, tantôt dans l’accroissement de l’intelligence humaine par les avancées de la biologie.

C’est pour quand ?

Les prévisions varient entre 2020 et 2050. Ray Kurzweil, informaticien, futurologue et transhumaniste, estime dans son livre The singularity is near que la singularité apparaîtrait en 2045, tandis que Vernor Vinge prédit, dans son article précédemment cité, une date aux alentours de 2030. Face à une courbe exponentielle de la croissance du savoir, toute la question serait de trouver le nombre e de la fonction exponentielle de l’évolution humaine.

A cette fin, la loi de Moore est intéressante. Gordon E. Moore, chimiste et cofondateur de la société Intel, a expliqué de manière empirique que le nombre de transistors sur les microprocesseurs double tous les deux ans environ. Cela entraîne une croissance exponentielle de la capacité de calcul des ordinateurs. Ray Kurzweil estime néanmoins une possible stagnation de cette loi avec l’atteinte des limites des microprocesseurs actuels en 2019. Elles seraient toutefois rapidement dépassées par de nouvelles technologies comme l’ordinateur quantique, qui catalysera sans aucun doute la recherche informatique. Il envisage la généralisation de la loi de Moore dans sa théorie the law of accelerating returns à d’autres domaines scientifiques liés à cette capacité de calcul. Cette croissance exponentielle continuerait jusqu’à atteindre la singularité, soit une intelligence surhumaine pour Kurzweil. Il estime que le progrès qui aura lieu au cours du XXIe siècle correspondra à l’équivalent de 20 000 ans d’évolution humaine. L’ingénieur Robert Zubrin juge que la singularité technologique nous conduirait à une civilisation de Type I sur l’échelle de Kardashev, qui mesure l’évolution des civilisations sur une base technologique en fonction de la quantité d’énergie pouvant être utilisée. Nikolaï Kardashev estimait qu’une civilisation de Type I aurait le pouvoir d’utiliser l’équivalent de toute l’énergie disponible sur sa planète, de toute son étoile pour le Type II et de toute sa galaxie pour le Type III. Selon Guillermo A. Lemarchand, l’énergie en question pour une civilisation de Type I correspond à une valeur entre 1016 et 1017 watts.

Une telle idée d’accélération du progrès alarme l’esprit qui tente de la cerner, mais de quelle façon notre société envisagera sa propre croissance technologique ?

Nébuleuse appréhension de la singularité technologique

La singularité technologique, concept qui prévoit une accélération du progrès scientifique, correspond le plus souvent au développement d’une intelligence surhumaine. L’appréhension de la singularité se trouve trop souvent teintée d’une inquiétude qui fausse les prévisions des possibles conséquences d’une telle croissance de la connaissance humaine. Notre société est dans l’obligation d’estimer à sa juste valeur le futur technologique – sans tomber dans une quelconque fantasmagorie – si elle ne souhaite pas être submergée par ses propres découvertes.

L’humain sera le premier robot 

Empreint de fiction, l’imaginaire collectif est saisi d’effroi à l’idée d’une intelligence surhumaine. Des robots, des ordinateurs contrôlant le vivant, d’implacables machines étouffant le sensible, ainsi s’esquisse la vision apocalyptique de telles découvertes scientifiques. Il est toutefois nécessaire de comprendre l’intelligence artificielle comme une technologie capable de reproduire les mécaniques de l’intelligence humaine, à travers des phénomènes tels la perception, l’apprentissage, l’interaction sociale, la mémoire, le jugement critique pouvant mener à la création. Mais cela doit être appréhendé avec la conscience d’une intelligence artificielle façonnée par l’intelligence humaine.

Les prédictions de possibles dystopies qui ne cessent de voir dans la science l’origine du mal confondent vraisemblablement les moyens des causes. Les condamnations que peut provoquer la singularité technologique ne sont que les miroitements du jugement inconscient porté sur la société actuelle. Etrangement, cette vision d’horreur correspond dans la fiction volontiers à un glissement d’une société néolibérale à une technotyrannie.

Ces idées reçues se cristallisent aussi dans une forme de dualité destructrice où la menace de l’humain serait sa propre création. Le spectre du monstre de Frankenstein flotte autour des découvertes scientifiques – la créature est devenue ordinateur. Une telle critique ne tient pas compte de la transcendance même de l’humain et de ses valeurs que pourrait entraîner le progrès scientifique. La peur d’une intelligence surhumaine dominant et annihilant l’humain se trouve quelque peu faussée s’il est considéré d’une part que les comportements de l’artificiel résultent des décisions de l’originel, et d’autre part que l’intelligence surhumaine ne sera peut-être pas le propre de quelconques ordinateurs mais du cerveau humain lui-même, au moyen entre autres d’implants cérébraux.

Il paraît totalement erroné de considérer un progrès scientifique sans estimer l’évolution de tout le cadre dans lequel ce progrès a lieu. La singularité technologique équivaut à une remise en cause totale de l’épistémologie classique qui entraînera une transformation conséquente de l’environnement humain.

Mésestime du futur

Les découvertes scientifiques sont perçues au fil de leur arrivée sans volonté réelle de saisir la portée politique de leurs évolutions à venir. Le progrès scientifique continue d’être compris comme le résultat des évolutions sociales et politiques du collectif, sans se risquer d’y percevoir la source même de transformations sociales. L’invention des caractères mobiles de l’imprimerie par Gutenberg au XVe siècle a permis de diffuser largement le savoir, mais n’est-elle pas également la source des transformations de la société du XVIe siècle, du protestantisme ou encore de l’économie moderne ?

La prospective se base sur les informations disponibles actuellement dans le but d’établir des prévisions de l’avenir. Face à un évènement historique tel que la singularité, il devient difficile d’établir une quelconque projection à partir des données disponibles puisque le cadre même qui permet de les envisager est remis en question. Un glissement théorique de la prospective à la futurologie s’impose. Ce qui était considéré auparavant comme une divination irrationnelle se présente aujourd’hui comme une rationalité divinatoire. Les sciences spéculatives douées d’une forte scientificité permettront certainement d’émettre des hypothèses que l’expérience démontrera. L’analyse de ces hypothèses se dresse comme une exigence afin de comprendre les transformations sociales et d’encadrer un changement d’ère. Nous ne pouvons penser qu’avec gravité à l’impact historique de l’énergie atomique dont l’utilisation a façonné la société contemporaine.

La question de l’appréhension des réactions d’une intelligence artificielle surhumaine est un exemple d’interrogation interdisciplinaire qui devrait être menée. D’aucuns y voient une menace pour l’humanité comme Hugo de Garis, qui envisage même une guerre dévastatrice centrée autour de la question de l’intelligence artificielle. Mais n’est-ce pas encore une fois l’erreur de la prospective par rapport à la futurologie qui pense l’avenir à partir de données actuelles sans envisager la transformation de tout le cadre dans lequel une telle intelligence paraîtrait ?

Cela questionne la possible maîtrise du comportement de l’intelligence artificielle avec l’établissement de principes premiers et de lois protectrices de l’humain, comme avec les trois lois de la robotique établies par l’écrivain de science-fiction Isaac Asimov. Il est également nécessaire de se rappeler que l’homme restera au centre de ses propres créations, et animé par son désir d’élévation, le développement d’une intelligence surhumaine se focalisera en particulier sur l’augmentation des capacités cérébrales. Des projets comme le blue brain de l’EPFL suggèrent la virtualisation du cerveau humain et potentiellement du phénomène cognitif. Des émotions humaines dans l’artificiel deviennent même envisageables. Ainsi, l’humain se virtualiserait et l’ordinateur s’humaniserait. Artificiel et biologique se rejoindraient en une même entité.

« Il est également nécessaire de se rappeler que l’homme restera au centre de ses propres créations » – Crédit Image : DeviantArt/Bergie81

Au-delà de ces vagues projections, la recherche scientifique actuelle témoigne de certaines prémices. Des bras articulés commandés par influx nerveux sont développés pour offrir une mobilité perdue à des tétraplégiques, des implants sous-cutanés afin d’établir un bilan de santé en direct ont été envisagés, la fabrication d’organes devient un projet de plus en plus concret, ou plus pratiquement des interfaces de réalité augmentée telles que le projet SixthSense, les google glass ou des lentilles de contact bioniques se matérialisent.

D’éventuelles transformations politiques et sociales doivent être envisagées face à ces évolutions technologiques. Nous sonderons l’étendue possible de cet impact dans un dernier article.

A l’aube d’un séisme politique nommé singularité

Il semble particulièrement léger de ne pas questionner l’idéologie motrice des changements qu’augure la singularité technologique, et encore plus imprudent de ne pas chercher à prévoir l’impact social de l’accélération du progrès scientifique. Notre société se trouve à l’orée de considérables transformations politiques qui reposeront sur les avancées technologiques. L’histoire nous montrera certainement une fois de plus que la technique détermine la politique.

Idéologie contre idéologie 

Le réel problème que posera la singularité technologique sera la manière avec laquelle la croissance du savoir se répercutera sur les transformations sociales. Somme toute, quelle idéologie conduira la révolution technologique ? Dopé aux nootropes, sublimé par un exocortex, se projetant vers de nouvelles dimensions, la possibilité de l’homme augmenté s’envisage, mais que sera-t-il politiquement ?

Les théories qui structurent le concept de singularité technologique sont principalement teintées de libéralisme. La pensée anglo-saxonne a pris le risque de se confronter avec sérieux à ce concept et la plupart des écrits à ce sujet émanent de chercheurs anglo-saxons. Le transhumanisme a fait sienne la singularité technologique, et ce courant théorique n’est pas neutre politiquement. Il vacille d’une forme de libéralisme à l’autre, de la social-démocratie au libertarianisme. Un penseur comme Kurzweil en est un bel exemple ; transhumaniste, libertarien, il a participé à la mise en place de la Singularity University avec Google. Cet établissement, qui cherche à comprendre inter-disciplinairement l’impact de l’accélération de la technologie sur l’humanité, est une illustration du retard de la recherche européenne à ce niveau. Le danger principal de l’emprise de l’idéologie anglo-saxonne sur cette thématique serait peut-être sa forte teinte utilitariste. L’utilitarisme devient dangereux lorsque l’être humain dans son individualité semble être un frein néfaste à l’humanité. La loi zéro d’Asimov sonde cette problématique en faisant passer l’intérêt de l’humanité avant l’intérêt de l’être humain.

Une programmation utilitariste et libérale de l’intelligence artificielle pourrait alors être un réel danger pour les êtres vivants, qui pourraient être perçus comme inutiles par la machine. Mais comme l’énonce Slavoj Zizek, il est plus facile d’imaginer la fin du monde qu’un modeste changement du modèle politique ; le libéralisme est devenu le réel qui survivra à l’humain.

Un transfert de l’axe de réflexion du productivisme à l’eudémonisme pourrait être un début à une révolution de l’approche idéologique de la technologie (certains économistes ont fait ce choix en se tournant vers le bonheur national brut plutôt que vers le produit intérieur brut).

La singularité doit être abordée avec la conscience des idéologies qui sous-tendent la question du progrès. Les luttes sociales et les conflits d’intérêts présents dans les domaines scientifiques et industriels doivent entrer dans le débat afin d’envisager une possible pensée de la croissance technologique centrée sur le bonheur – un eudémonisme transhumain.

D’une intelligence artificielle utilitariste s’envisage alors une intelligence artificielle amicale selon les termes de la recherche de Eliezer Yudkowsky. Cela pourrait correspondre à une humanisation politique de l’artificiel.

Les préludes d’une intelligence collective

De la démocratie à la cognition en passant par les interactions sociales, tous les fondements sociaux seront renouvelés. Les liens entre les humains sont déjà en train d’être redessinés par les réseaux sociaux qui créent l’ébauche d’une intelligence collective. L’interconnexion des individus crée un réseau structurant la réactivité d’une société face à un évènement – une empathie collective commence à être de plus en plus visible avec une diffusion accélérée de l’information grâce à des outils comme Twitter. Cette interconnexion pourrait se représenter comme une toile qui propagerait à son ensemble toute vibration ressentie. La présence à portée de main d’outils tels que Wikipédia permet d’externaliser la mémoire, de libérer l’intelligence de la tâche du souvenir et de lui offrir l’opportunité de se transformer, comme le pense notamment Michel Serres. L’intelligence collective se trouve encore à un stade de passivité avec une satisfaction de la simple réaction. Ce niveau qui pourrait être qualifié d’émotif fait place peu à peu à une rationalité agissante qui utilise une cognition distribuée.

Dans le domaine politique, des logiciels ont ainsi pu créer de nouveaux modèles, avec notamment la démocratie liquide qui assemble les forces de la démocratie directe et représentative. De la création technique émerge ainsi la création politique. Dans le domaine économique, la finance participative (crowdfunding) décentralise la levée de fonds en supprimant une intermédiation classique ralentissant l’innovation. Les avancées technologiques bouleversent l’économie contemporaine en permettant aux individus de se réapproprier les moyens de production. Entre des phénomènes comme la libération de l’information avec le renouvellement du droit de la propriété intellectuelle et la création de machines comme l’imprimante 3D offrant à tous la possibilité de faire siens les moyens de production délaissés jusqu’alors à l’industrie, une importante déstabilisation du modèle économique industriel et libéral s’annonce pour les années à venir.

Les choix ne sont pas vastes : 1) soit ce modèle économique se transforme en remettant en cause ses valeurs fondatrices (le libertarianisme le tente notamment en ce qui concerne la propriété intellectuelle), 2) soit un nouveau modèle économique émerge (la question de l’économie de l’abondance laisse place à une idée d’horizontalité où les interactions de l’individu avec son environnement deviennent de plus en plus fréquentes), 3) soit le modèle actuel tente de faire prévaloir les intérêts d’un petit nombre sur l’intérêt commun en imposant davantage de restrictions (il est possible de constater cette tendance avec la gestion des droits numériques face à l’émergence d’une diffusion de la culture numérique).

L’interconnexion des individus que présage déjà les réseaux informatiques laisse poindre la société du cerveau global, où tous les êtres seront reliés tel un système nerveux qui formera un tout agissant. L’idée de Teilhard de Chardin de la noosphère, selon laquelle le phénomène de la cognition serait mutualisé en une conscience collective de l’humanité, s’avère présage de la révolution technologique en cours. En des nuées électroniques, se révèlent les contours d’une société cybernétique où les interactions permettront l’autorégulation d’entités interconnectées et constitueront l’identité même d’une humanité transcendée.

La question environnementale

Une interrogation politique que posera l’accélération de la croissance technologique sera aussi celle de l’écologie transhumaine. Les nombreux problèmes environnementaux que pose le modèle contemporain de production pourraient s’accroître avec les avancées technologiques de notre époque (augmentation par exemple de la pollution de l’espace). La gestion des déchets devient alors une question cruciale liée aux avancées scientifiques. Un courant comme le technogaïanisme voit dans le progrès technologique non une menace mais une voie vers la possible restauration de l’écosystème terrestre ; des découvertes scientifiques comme la photosynthèse artificielle ou la fusion nucléaire iraient dans ce sens. Les perspectives environnementales sont éminemment idéologiques tantôt si une approche anthropocentrique est choisie tantôt si le respect de la biosphère prime. Cette opposition peut être perçue dans le courant de l’écologie profonde qui abandonne le primat des intérêts humains de l’écologie classique pour les replacer dans le cadre plus large des intérêts du vivant. Une exploitation des matières premières se trouvant dans l’espace, comme par la capture d’astéroïdes notamment à des fins minières, annoncent des solutions à la surexploitation des ressources terrestres. L’éminent Stephen Hawking offre même à des chimères de la science-fiction son autorité scientifique lorsqu’il prédit l’avenir de notre humanité avide de progrès dans la colonisation de l’espace.

L’explosion démographique

Un autre point idéologique fondamental que pose la singularité technologique est la question de la démographie. Une accélération des découvertes médicales, comme la régénération d’organes grâce à des cellules souches voire l’impression d’organes, pourrait accroître considérablement l’espérance de vie. Des chercheurs prédisent même une quasi-éternité de l’humain (même si la longévité n’est que de quelques siècles, l’esprit pourrait être téléchargé dans un androïde se substituant au corps). La démographie a toujours été un moteur des transformations sociales à travers l’histoire, et l’explosion démographique qui risque de se produire avec l’accroissement de la longévité transformera inévitablement l’humanité. Aubrey de Grey parle de Methuselarity pour décrire une époque où la mort ne surviendrait plus que par accident ou homicide. L’humain devient un Mathusalem en puissance. Les conséquences d’une telle croissance démographique pourraient être nombreuses : des guerres entre des populations sur le déclin et des populations s’accroissant (fluctuations pouvant correspondre à l’accès aux soins des populations), des formes de gérontocratie, ou encore le développement de la recherche spatiale afin de coloniser des planètes voisines (Mars One).

Face à un temps qui s’annonce où le savoir créera du savoir, où l’augmentation de l’humain le mènera vers une refondation de ses valeurs, où la science s’affirmera comme le moteur de densification sociale et politique, la nécessité de la réflexion s’impose dans l’espoir de diriger cette explosion future de la connaissance vers le bien commun. 

A propos de l’auteur :

Rodhlann Jornod, après avoir suivi des études de droit, se consacre à l’étude de la philosophie pratique. Il est doctorant au sein de l’Institut de criminologie de Paris, et rédige actuellement une thèse de doctorat qui analyse les structures de la morale à partir du phénomène du droit pénal. Son intérêt pour les nouvelles technologies l’a également conduit à étudier l’impact des sciences sur des notions de philosophie pratique telles que la morale et la politique.

Les scientifiques commencent à travailler sur l’ingénierie inverse du cerveau

source

L’avènement des super-intelligences

Jean-Paul Baquiast (fiche auteur en bas de l’article)
Comprendre – Nouvelles sciences, nouveaux citoyens, 2005, p. 123-124

Une priorité politique

Comprendre ce que signifie cette marche vers de super-intelligences à échéance de quelques dizaines d’années, admettre son caractère inexorable (sauf accidents toujours possibles, dus notamment à la folie humaine), devrait donc constituer un objectif de civilisation transcendant tous les autres. Il faudrait orienter dès maintenant en ce sens le fonctionnement des sociétés, dans le cadre d’une priorité scientifique et politique majeure.

La première urgence, nous semble-t-il, concerne la communauté de l’Intelligence Artificielle, qui devra se réveiller, à l’exemple des Kurzweil, Moravec et Minsky. Pour concrétiser cela, Kurzweil propose de remplacer le vieux terme d’Intelligence Artificielle par celui d’Intelligence Augmentée ou Intelligence Accélérée. Ces expressions ont l’avantage de ne plus établir de barrière entre une intelligence humaine et une intelligence artificielle, mais d’anticiper leur fusion dans la super-intelligence annoncée. Il est temps en tous cas de cesser les anciennes querelles entre écoles de l’Intelligence Artificielle et de s’unir pour des chemins de développement qui s’annoncent très prometteurs*. On avait beaucoup disserté ces dernières années sur l’opposition entre la vieille Intelligence Artificielle, réputée avoir échoué par excès d’ambition et manque de moyens de calcul, face à la nouvelle Intelligence Artificielle évolutionnaire. Si l’approche évolutionnaire conserve tous ses mérites pour générer de la complexité par appel à des règles computationnelles simples, l’ancienne Intelligence Artificielle, partant de l’analyse et de la modélisation du vivant, retrouve toutes ses perspectives avec les puissants moyens de calcul mis aujourd’hui à sa disposition. Les exemples récents de synthèse d’ADN simples (virus de la poliomyélite) montrent la voie, amplement développée par Ray Kurzweil : scanner puis numériser le vivant afin d’en recréer des équivalents artificiels susceptibles de s’interfacer avec ce même vivant. L’actualité scientifique offrira dorénavant tous les mois ou presque de nouveaux exemples analogues. Les nanotechnologies fourniront ultérieurement des substituts nombreux susceptibles d’être interfacée avec les composants biologiques.

La seconde urgence consiste à sortir des spécialités disciplinaires (l’intelligence artificielle, la robotique, l’informatique, la physique des composants et des nanocomposants, la biologie, la neurologie, les sciences sociales, etc.) pour aborder des projets intégrés. Ce sont des systèmes super-intelligents qu’il faudra réaliser. Ceci veut dire qu’il ne s’agira pas seulement de logiciels ou robots, en réseaux ou non, mais aussi de corps et d’esprits vivants s’interfaçant momentanément ou durablement avec les artefacts. On ne pourra pas progresser sans la mise en place de projets globaux réunissant des spécialistes des diverses disciplines – dont la plupart seront à former pour les ouvrir aux connaissances et méthodologies qu’ils ne connaissent pas encore.

Une troisième urgence, tout aussi excitante pour l’esprit, concerne la nécessité de commencer à étudier l’impact qu’auront les recherches précédentes sur celles intéressant la physique des hautes énergies, la mécanique quantique et la cosmologie. Nous avons évoqué les perspectives de la physique quantique appliquées à des technologies devenues industrielles comme le laser ou à des technologies encore à l’étude comme la cryptologie quantique ou l’ordinateur quantique. L’ouvrage de Hans Moravec, Robot (op.cit.) montre de façon encore plus systématique ce qui pourra être fait, dans les domaines de la recherche fondamentale, notamment la cosmologie. On sait que les travaux relatifs à ces sciences ne progressent que lentement. Tout semble laisser penser cependant que nous pourrions être à la veille de bouleversements profonds, entraînant des répercussions théoriques et pratiques sur nos conceptions du temps et de l’espace. Celles-ci pourraient être aussi importantes sinon plus que celles introduites au début du siècle dernier par Einstein en matière de cosmologie et par l’école de Copenhague en mécanique quantique. La “demande” représentée par la construction de super-intelligences sera la meilleure incitation pour la nécessaire relance des recherches dans ces domaines fondamentaux – comme sans doute la meilleure justification pour des investissements lourds comme le sont les grands accélérateurs de particules.

Reste un dernier volet, celui du politique, qui doit à la fois être abordée sous l’angle économique et sous l’angle des idées et programmes.

Robotique et croissance

Au plan économique, la mise au point de super-intelligences, comme les recherches en amont nécessaires, supposeront de l’argent et beaucoup de matière grise. L’état de pauvreté dont souffrent actuellement les sciences et les industries s’intéressant à ces questions est à cet égard préoccupant. Or nos sociétés, nous l’avons vu, dépensent des sommes considérables pour traiter des problèmes d’adaptation hérités des siècles derniers : productions agricoles et industrielles obsolètes, course à coups de centaines de milliards aux gisements de pétrole encore disponibles, investissements dits touristiques destinés à d’infimes minorités enrichies par la spéculation**. Un transfert, fut-il partiel, de ces sommes vers la mise au point de super-intelligences entraînerait des retombées économiques considérables, dont l’humanité entière pourrait bénéficier rapidement (par exemple en matière de nouvelles énergies, de technologies moins destructives, mais aussi de techniques d’éducation et de santé, sans parler d’une relance sans doute massive de l’emploi). Il faut en prendre conscience et l’inscrire dans les politiques publiques et des grandes firmes.

Au plan des idées et des programmes enfin, de telles perspectives devraient dès maintenant être présentées aux populations comme des issues majeures. Sans préparation, le citoyen risque d’être mis (ou de se mettre) à l’écart de la compréhension d’un nouveau monde qui s’esquisse. Les gouvernants ont une responsabilité essentielle dans cette perspective. Mais le fait d’un Georges Bush qui polarise les perspectives technologiques sur l’objectif de la seule lutte contre le Mal, ou celui de chefs d’État européens n’ouvrant aucune fenêtre scientifique d’importance à leurs populations, montrent que les hommes politiques occidentaux ont encore tout à apprendre. Et quelle est la place des pays du Tiers-Monde dans ce paysage ?

* Voir à ce sujet ce que cherche à faire l’Institut (américain) pour la Singularité, Singularity Institute
http://singularityu.org/
** Voir par exemple le complexe des deux Palm Islands à Dubaï.

Fiche auteur

Institut d’Études Politiques de Paris 1954, DES de Droit Public et d’Économie Politique.
École Nationale d’Administration 1960-1962

A consacré sa carrière administrative aux technologies de l’information, au Ministère de l’Économie et des Finances, à la Délégation Générale à la recherche Scientifique et Technique, ainsi qu’au niveau interministériel : Délégation à l’informatique 1967-1973, Comité Interministériel de l’informatique dans l’Administration (CIIBA), 1984-1995.

A créé en 1995 le site web Admiroutes (www.admiroutes.asso.fr), non-officiel et bénévole, pour la modernisation des services publics par Internet, ainsi que l’association de la Loi de 1901 Admiroutes, qu’il préside.

Co-rédacteur en chef et co-fondateur d'”Automates intelligents”
(www.automatesintelligents.com), site web et magazine en ligne lancé le 12 décembre 2000
Membre du bureau de l’Association Française pour l’Intelligence Artificielle

Auteur de divers ouvrages et articles dont :
– La France dans les technologies de l’intelligence, 1984, La Documentation Française
– Administrations et autoroutes de l’information . Vers la cyber-administration, 1996, Les Editions d’Organisation
– Internet et les administrations, la grande mutation, 1999, Berger-Levrault

Croix de la Valeur Militaire
Chevalier de la Légion d’Honneur
Officier de l’Ordre National du Mérite

Singularité : ma troisième survie apocalyptique

1er Janvier 2046, journal de bord.

Cette fois c’est fait : j’ai survécu à trois apocalypses. La première fois, j’avais presque vingt ans. J’ai réussi à survire au passage informatique de l’an 2000. La deuxième, à l’âge de trente ans, j’ai survécu à “l’apocalypse Maya” du 21 décembre 2012. Ce qui m’avait surpris, à l’époque, c’est que lorsque la date de la fin du monde de 2012 s’est avérée inexacte, certains n’ont pu s’empêcher d’en annoncer une nouvelle : en 2045.

Ce n’était pas véritablement une annonce de fin du monde, mais plutôt l’achèvement d’un monde ou du moins d’une époque. Certains prédisaient l’apparition d’une espèce de “super-intelligence technologique” qui serait capable de surpasser l’intelligence humaine. A l’époque, on parlait de “singularité technologique” pour décrire cet événement.

Cette prédiction ressemblait étrangement à d’autres récits apocalyptiques. D’un côté, une clique de prophètes nous avertissait d’un futur où l’humanité serait balayée par la technologie. De l’autre, un groupe de penseurs plaçait au contraire tous leurs espoirs dans cette technologie qui mènerait, selon eux, à la création d’un monde meilleur. Pour ces derniers, seuls ceux qui accepteraient de fusionner avec les machines auraient un avenir.

Cette “apocalypse technologique” se préparait tranquillement, sans que j’y porte trop d’attention. La technologie envahissait chaque jour ma vie sans que je ne m’en aperçoive véritablement. En y repensant aujourd’hui, j’estimais à cette époque qu’elle améliorait mon existence: tout semblait plus facile avec les machines. Très rapidement, je n’ai plus été capable de vivre sans mon ordinateur, ma tablette, mon téléphone intelligent, mes e-mails et réseaux sociaux. Déconnecté, je sentais comme un grand vide.

Puis, tout s’est accéléré. D’abord les lunettes “augmentatrices de réalités” -mise au point par une multinationale de l’époque- sont arrivées sur le marché, rapidement remplacée par des lentilles de contact, bien plus pratique, qui me donnaient accès à un monde d’information sans limites. Ensuite sont arrivées les “Interface Cerveau-Machine” qui permettaient de connecter ma pensée, et toute ma personnalité, avec un monde virtuel et plaisant. La virtualité s’est rapidement imposée dans ma sexualité, d’autant plus que ces relations avec un “sex-robot” de l’époque avaient l’avantage d’augmenter la durée de ma vie.

Je me souviens de mon premier bras bionique. Ses fonctionnalités remplaçaient largement mon bras biologique.

Par la suite, après avoir séquencé l’ensemble de mon génome, j’ai appris que j’étais susceptible de développer différentes formes de cancer. Pour ne pas prendre de risque, dès que la technologie a été possible, j’ai décidé de remplacer mes jambes et certains de mes organes internes par des copies artificielles et améliorées.

Je n’avais même pas eu besoin de lutter pour accéder à ces nouveautés, car avec la production de masse, les prix étaient rapidement devenu accessible pour tous.

J’avais été surpris par la résistance de ma caisse maladie à rembourser mes améliorations technologiques et les différentes mises à jour de mes implants technologiques. Pour les assureurs, mes membres et organes biologiques étaient en bon état et ne nécessitaient donc pas de remplacement. Un remboursement était donc impossible. Cependant, il avait été facile de les convaincre qu’un bras ou un foie biologiques, dont les cellules peuvent à tout moment dégénérer en cancer, étaient bien plus risqués en terme de coûts que leurs équivalents technologiques, bien plus fiables et dont les différents éléments étaient remplaçables.

Un fait s’est ensuite imposé à moi: mon corps biologique -qui paraissait venir d’une époque si lointaine- ne me servait plus à rien. Je fonctionnais entièrement par l’intermédiaire d’implants technologiques, tellement plus performant que ces imperfectibles appendices biologiques qui me servaient de bras, de jambes ou de système digestif.

L’adaptation technologique n’a jamais été difficile. Tout s’est fait logiquement, par étape. La singularité technologique n’a finalement pas eu lieu en cette année 2045. Je suis donc un survivant d’une troisième apocalypse annoncée.

Ces derniers jours circulent des rumeurs sur une nouvelle apocalypse, annoncée par un groupe fondamentaliste d’arriérés d’Homo sapiens intégristes qui refusent tout changement technologique.

Ils se reproduisent encore sexuellement, une façon bien barbare et risquée de produire un enfant. Ils estiment bien naïvement que la technologie est faite pour l’être humain et pas l’inverse. Tout le monde sait que c’est faux. Ces anciennes croyances me font sourire. Depuis peu, ils menacent d’introduire un virus qui détruiraient certaines connections et effaceraient certaines données informatiques globales. Cette apocalypse là, c’est comme pour les autres! J’y survivrrrrrrrrrrrrrrrrrrrrrrrrr………

FATAL ERROR – FATAL ERROR
“you ran into a problem and need to restart. Press any key to continue”
“you ran into a problem and need to restart. Press any key to continue”
“you ran into a problem and need to restart. Press any key to continue”
“you ran into a problem and need to restart. Press any key to continue”

source

Vers la superintelligence

Des informations disponibles tout le temps, partout et pour tout le monde… La numérisation permet d’accéder à une quantité infinie de données. Mais comment garder une vue d’ensemble sur la totalité d’entre elles ? Comment organiser les données et les rendre exploitables par ordinateur ? Intelligence collective, intelligence artificielle et puissance de l’information : ARTE Future s’intéresse à l’avenir de la pensée en réseau.

Nick Bostrom : Superintelligence

Sommes-nous sur le chemin de la superintelligence artificielle ? Oui, d’après Nick Bostrom. Le philosophe suédois Nick Bostrom est directeur de l’Institut pour l’avenir de l’humanité à l’université d’Oxford.

Dans cet extrait de son livre Superintelligence, il appelle à une coopération mondiale dans la recherche de la superintelligence, notamment sous l’égide des Nations Unies.

Travailler ensemble vers la superintelligence

par Nick Bostrom

La collaboration

La collaboration peut prendre différentes formes en fonction de l’échelle des acteurs concernés. À petite échelle, les équipes IA qui s’estiment en concurrence peuvent faire le choix d’unir leurs forces. Les entreprises peuvent fusionner ou effectuer des investissements croisés. À plus grande échelle, les États ont la possibilité de se fédérer autour d’un projet d’envergure internationale. Il existe nombre d’exemples de collaboration internationale à grande échelle dans les sciences et la technologie (le CERN, le Projet du génome humain, la Station spatiale internationale, etc.), mais une initiative internationale visant à développer une superintelligence sûre soulèverait des problèmes d’un autre ordre en raison des implications en matière de sécurité. Il faudrait la définir non pas comme une collaboration académique ouverte mais comme une société mixte strictement contrôlée. Peut-être serait-il nécessaire que les scientifiques impliqués dans le projet soient physiquement isolés et interdits de toute communication avec le reste du monde pendant tout le processus, à l’exception d’un système de communication soigneusement contrôlé. Le niveau de sécurité requis pour une telle entreprise est hors de portée à l’heure actuelle, mais les progrès constatés dans la détection de mensonges et dans les technologies de surveillance pourraient le rendre envisageable d’ici à quelques décennies. Gardons aussi à l’esprit le fait qu’une collaboration à grande échelle ne signifie pas forcément que le projet de recherche devra impliquer un très grand nombre de scientifiques. En revanche, les personnes susceptibles de donner leur avis sur les objectifs du projet seraient, elles, très nombreuses. En principe, un projet soutenu par l’Humanité tout entière (représentée, par exemple, par l’Assemblée générale des Nations Unies) pourrait se contenter d’un seul chercheur pour mener à bien la mission.

Le contexte actuel semble favorable à un lancement rapide d’une collaboration en ce sens. Il convient, en effet, de profiter du voile d’ignorance qui nous empêche aujourd’hui de savoir, faute d’informations, quel projet aboutira le premier à la superintelligence. Car plus nous serons proches de la ligne d’arrivée, moins il y aura d’incertitudes sur les chances des projets concurrents et plus il sera compliqué de justifier un intérêt, pour le précurseur, à participer à un projet collaboratif qui redistribuerait les avantages à toute l’Humanité. En même temps, il paraît compliqué d’envisager une collaboration formelle de portée mondiale avant que la perspective de la superintelligence ne soit plus largement reconnue, sachant qu’elle pourrait conduire à la superintelligence des machines. En outre, dans la mesure où une telle collaboration contribuerait au progrès, elle pourrait s’avérer contreproductive sur le plan de la sécurité, comme nous l’avons vu précédemment.

Pour l’heure, le format de collaboration idéal semble être celui qui ne nécessiterait aucun engagement formel à priori et qui ne précipiterait pas l’avancée de l’intelligence des machines. Comment satisfaire à ces critères ? En proposant l’instauration d’un principe moral exprimant notre loyauté envers l’idée d’une superintelligence au service du bien commun. Ce principe pourrait être formulé comme suit :

Le principe du bien commun

La superintelligence doit être développée exclusivement pour le bien de toute l’Humanité et mise au service d’idéaux éthiques communément partagés.

En établissant dès le début que l’immense potentiel de la superintelligence appartient à toute l’Humanité, on laisse beaucoup plus de temps à ce principe pour s’enraciner.

Le principe du bien commun n’exclut pas la mise en place d’incitations commerciales pour les individus ou les sociétés travaillant dans des domaines connexes. Par exemple, une société peut satisfaire à l’idée de partage universel des avantages de la superintelligence en adoptant une clause contre l’effet d’aubaine. Ainsi, les revenus enregistrés jusqu’à un certain montant, même élevé (disons un billion de dollars annuel), seraient redistribués selon la procédure classique aux actionnaires et aux ayants droit, et les recettes dépassant ce seuil reviendraient à l’Humanité de façon équitable (ou selon des critères moraux universels). L’adoption d’une telle clause serait pratiquement gratuite dans la mesure où aucune société ne serait susceptible de dépasser ce seuil stratosphérique (et que ces scénarios peu probables ne jouent généralement aucun rôle dans les décisions des dirigeants et des investisseurs). Pourtant, son adoption généralisée offrirait à l’Humanité une garantie inestimable (pour autant que l’on puisse croire en ces engagements) en vertu de laquelle toute société privée gagnant le jackpot grâce à l’explosion de l’intelligence partagerait les bénéfices avec tout le monde. Cette même idée pourrait s’appliquer aux autres entités. Par exemple, si les États pouvaient se mettre d’accord pour dire que si le PIB d’un État quel qu’il soit dépasse une fraction très élevée (disons 90 %) du PIB mondial, alors ce supplément devrait être distribué équitablement aux autres.

Le principe de bien commun (et ses restrictions particulières, comme les clauses contre l’effet d’aubaine) pourrait être initialement adopté sous la forme d’un engagement moral volontaire pris par les personnes et les organisations actives dans des domaines proches de l’intelligence de la machine. Dans un second temps, il pourrait être approuvé par un ensemble d’entités plus vaste et intégré aux lois et aux traités. Une formulation vague telle que celle donnée ci-dessus pourrait être un bon point de départ, sachant que dans un second temps il serait impératif de la décliner sous la forme d’un ensemble d’exigences spécifiques vérifiables.

By permission of Oxford University Press, USA.

Superintelligence by Bostrom (2014) 1000w from pp.253-254

source