La Chine met en place un énorme système de géo­-ingénierie

Modification artificielle des conditions météorologiques

Le gouvernement chinois a annoncé qu’il prévoit d’augmenter considérablement son utilisation de technologies qui modifient artificiellement le climat.

La technologie d’ensemencement des nuages, ou des systèmes qui peuvent projeter des molécules d’argent dans le ciel pour provoquer la condensation et la formation de nuages, existe depuis des décennies, et la Chine y a fréquemment recours. Mais aujourd’hui, CNN rapporte que la Chine veut augmenter la taille totale de sa zone d’essai de modification du climat à 5,5 millions de miles carrés d’ici 2025 – une augmentation énorme, et une zone plus grande que celle de tout le pays de l’Inde, ce qui pourrait affecter l’environnement à une échelle gigantesque et provoquer des conflits avec les pays voisins.

Plus particulièrement, la Chine et l’Inde partagent une frontière très contestée sur laquelle elles se sont violemment affrontées dernièrement, comme l’a déjà rapporté CNN. L’agriculture indienne dépend d’une saison de mousson qui est déjà devenue imprévisible en raison du changement climatique, ce qui fait craindre aux experts du pays que la Chine utilise sa capacité à contrôler les pluies et les chutes de neige comme une arme.

Le manque de coordination des activités de modification du climat pourrait conduire à des accusations de “vol de pluie” entre régions voisines”, concluent des chercheurs de la National Taiwan University dans un article publié dans Geoforum en 2017.

Par le passé, la Chine a utilisé sa technologie de modification météorologique pour semer des nuages bien avant de grands événements comme les Jeux olympiques de 2008 et les réunions politiques, afin que les événements eux-mêmes se déroulent sous un ciel dégagé.

Mais cette expansion envisagée du système signifie que d’autres pays peuvent être soumis à des aléas météorologiques.

Certains experts ont estimé que le succès de la modification du climat pourrait amener la Chine à adopter des projets de géo-ingénierie plus ambitieux, d’autant plus que le pays souffre aussi des effets du changement climatique. Des solutions radicales telles que l’ensemencement de l’atmosphère avec des particules réfléchissantes pourraient théoriquement aider à réduire les températures, mais pourraient également avoir des conséquences majeures imprévues, et de nombreux experts appréhendent ce qui pourrait arriver si un pays expérimentait de telles techniques.

Bien que la Chine n’ait pas encore montré de signes de déploiement “unilatéral” de projets de géo-ingénierie sur le terrain, l’ampleur de ses projets de modification du climat et autres projets d’ingénierie massifs, y compris les méga-barrages, suggère que la Chine est prête à déployer des projets de géo-ingénierie à grande échelle pour faire face aux impacts du changement climatique et atteindre ses objectifs de Paris.

De la rareté des ressources aux paris sur l’avenir

Guillaume Pitron livre avec La guerre des métaux rares1 la synthèse d’une enquête de plusieurs années sur les nouveaux équilibres géopolitiques et les problèmes environnementaux auxquels nous confronte la convergence des technologies vertes avec les technologies numériques. Ces dernières étant non seulement supposées optimiser les premières, mais également œuvrer à la dématérialisation des flux, on pourrait s’attendre à l’avènement d’une croissance mondiale décarbonée, présentée comme « propre » et durable par ses promoteurs. Mais c’est sans compter avec la matérialité bien tangible des métaux rares nécessaires à l’ensemble de ces technologies, dont nous feignons d’ignorer l’impact sur la terre et les gens comme si, par exemple, le cloud était une sorte de saint-esprit sans support physique. Or nous ne sommes qu’au début du paradoxe de la transition énergétique, dont la consommation ne cesse de croître : la dernière étude de Greenpeace estime que le secteur numérique représente déjà 7% de la consommation mondiale d’électricité… tout en encourageant ce secteur à se tourner vers les énergies renouvelables2. Le travail de Guillaume Pitron inviterait justement à douter de l’évidence de cette recommandation (qui n’est d’ailleurs pas contredite par les géants du numérique, pressés de se mettre au diapason vert des marchés du moment). Contre toute attente, il existe même quelques convergences entre certains courants écologistes et transhumanistes3. Les solutions transhumanistes au problème écologique vont de la modification de l’environnement (géo-ingénierie par exemple) à la modification de l’empathie et de la morale humaine (moral enhancement). Elles ne remettent pas en question la capacité de la technologie à surmonter la finitude terrestre en explorant l’univers.

Voyons plutôt où mène l’examen de l’industrie des métaux rares. Tout le monde se souvient de l’usine de Rhône-Poulenc de la Rochelle qui, au début des années 90, était le premier traiteur et fournisseur mondial de terres rares4 (à côté des activités textiles, agrochimiques et pharmaceutiques du groupe, nationalisé en 1982 et privatisé en 1993, et auquel succéda Aventis en 1998). Les Français s’inquiétaient à l’époque du traitement des déchets radioactifs générés par l’usine. Le problème du traitement des déchets n’a pas été résolu, mais les temps ont changé. En 2010, c’est la Chine qui détenait 95% du marché mondial des métaux rares5. Sous la pression des citoyens, des riverains, et des écologistes, tout comme sous la pression des marchés financiers mondialisés, les activités d’extraction minière et de raffinage – confrontées à une demande mondiale exponentielle – furent délocalisées et alimentèrent l’illusion occidentale des technologies propres. Guillaume Pitron, qui est allé voir sur place, donne une toute autre version de ce « cauchemar environnemental où se côtoient – pour ne citer qu’eux – rejets de métaux lourds, pluies acides et eaux contaminées. (…) En ce sens, la transition énergétique et numérique est une transition pour les classes les plus aisées : elle dépollue les centre-villes, plus huppés, pour mieux lester de ses impacts réels les zones plus miséreuses et éloignées des regards6. » En conséquence de quoi l’auteur propose de réouvrir les mines sur le sol français, à l’encontre des militants écologistes, afin que les citoyens et gouvernements aient à nouveau « sous leurs fenêtres », dit-il, les conséquences intenables du mode de production et de consommation actuel et prennent les responsabilités qui vont de pair. Une proposition de bon sens pour réintégrer les externalités dans le bilan final. Les standards européens sont, de fait, plus exigeants que les standards chinois et la confrontation directe avec les problèmes environnementaux pousseraient peut-être les consommateurs à exiger la fin de l’obsolescence programmée. C’est du moins là-dessus que l’on peut spéculer.

Or il se pourrait que cette idée – défendue par Emmanuel Macron – soit prise au sérieux, non pas tant par souci de l’environnement que pour retrouver dans le domaine des métaux rares une souveraineté perdue, essentielle en termes de stratégie économique et militaire. Ce livre conte l’ascension fulgurante de la Chine dans le monopole mondial des métaux rares, qui explique sa position actuelle de première puissance informatique au monde – exploit conjugué à son bilan écologique catastrophique. Ayant compris qu’elle n’avait aucun intérêt à rester le fournisseur de matières premières à bas prix qu’elle avait été jusqu’alors et ayant pris la mesure de la fin annoncée des énergies fossiles, la Chine a provoqué des embargos sur ses exportations de terres rares, attiré les industriels étrangers sur son territoire en les alléchant par un accès aux matières premières et passé avec eux des partenariats de « co-innovation » qui lui permirent de s’approprier les technologies de pointe, de garder la main sur la valeur ajoutée et d’investir ensuite dans ses propres laboratoires de recherche. L’Union Européenne, le Japon et les États-Unis furent pris de vitesse et l’attaquèrent d’ailleurs devant l’OMC pour ses quotas d’exportation7. La Chine remplaça alors ses quotas par un système de licences. Mais le chantage chinois « technologies contre ressources8 » inspira d’autres pays émergents…

Comme le rappelle Guillaume Pitron, devant la raréfaction de ces ressources difficiles à extraire de la croûte terrestre, certains lorgnent déjà les gisements marins et la captation d’astéroïdes. La question que personne ne pose volontiers est la suivante : « Combien faut-il d’énergie pour produire de l’énergie ?9 » Car les procédés d’extraction capables d’atteindre l’espace ou le fond des océans ne sauraient être eux-mêmes gratuits et écologiquement inoffensifs, ils ne font que décupler le challenge énergétique. Ainsi la question des limites de la croissance ne fait que reculer indéfiniment son échéance jusqu’à l’acculement ultime. Comme le résumait Philippe Bihouix : « Nous faisons face à [ces] deux problèmes au même moment, et ils se renforcent mutuellement : plus d’énergie nécessaire pour extraire et raffiner les métaux, plus de métaux pour produire une énergie moins accessible10. » Ce n’est pas tout : l’impact écologique des voitures électriques, panneaux solaires ou éoliennes est, selon certains calculs, peu concluant considéré sur l’ensemble d’un cycle de vie, même si l’empreinte carbone est moindre. Si l’on ajoute à ce bilan pas si glorieux l’effet rebond (selon lequel un équipement technologique plus efficace et plus rentable s’accompagne en fait d’une hausse de consommation et non de la diminution attendue) – duquel l’auteur de la Guerre des métaux rares ne fait pas mention – alors le battage médiatique et les formidables investissements que mobilisent les énergies renouvelables semblent une cruelle escroquerie effectuée sur le dos des populations des pays émergents, qui, certes, voient leur niveau de vie s’élever au rythme de la croissance mondiale, mais en ignorant la facture ultime de cette amélioration relative.

Il ne resterait, pour non pas empêcher mais ralentir cette échéance, que le recyclage. Or lui-même a un coût si prohibitif que l’on investit peu dans cette filière. Les alliages et matériaux composites, les multicouches à l’origine de propriétés extraordinaires des objets modernes sont difficiles à séparer et nécessitent de repenser les modes de fabrication, afin de prendre en compte dès la conception la perspective du recyclage en fin de vie. Le recyclage de matériel électronique exige des opérations chimiques polluantes destinées à séparer les composants. Des méthodes plus propres et prometteuses sont toutefois en cours de recherche. Le caractère apparemment écologique et charitable de la volonté de rendement (rendre accessible à plus de monde des produits informatiques ou de l’énergie bon marché avec moins de risques sanitaires et écologiques) ne saurait masquer l’enjeu capitaliste : produire, vendre et consommer toujours plus. Dans ces conditions, même le recyclage intégral ne compenserait pas l’augmentation constante de la consommation globale et l’apparition régulière de nouveaux gadgets, tels la cigarette électronique. Les annonces d’Apple sur le recyclage des iPhones représentent en effet une goutte d’eau dans les chiffres de la consommation électronique. La directive européenne DEEE de 2002, qui transfère la responsabilité du recyclage aux fabricants reste suivie d’effets très insuffisants et les fabricants ont plus intérêt à fabriquer de nouveaux appareils à l’aide de matériaux partiellement recyclés qu’à récupérer les pièces et réparer les vieux. Il y a fort à parier que des techniques propres et efficaces de recyclage ne seront étudiées et mises en œuvre à grande échelle que lorsque les ressources disponibles seront épuisées (c’est à dire lorsque le coût d’extraction des ressources disponibles sera devenu supérieur à celui de l’exploitation des montagnes de déchets accumulées entre temps), ce qui laisse augurer d’une situation planétaire infernale, chaque parcelle de terre ayant été exploitée au maximum, avec une humanité dépendante de machines qui seront devenues omniprésentes et hypersophistiquées, mais peut-être privées de l’énergie nécessaire à leur entretien… Nous devrions alors nous contenter d’un stock de ressources limité à gérer parcimonieusement et à se disputer âprement entre terriens, loin des rêves de conquêtes spatiales. Enfin, aucun recyclage n’est intégral, son écobilan n’est jamais nul et les matériaux recyclés peuvent être de qualité inférieure. Georgescu-Roegen l’exprimait de cette manière imagée : « Nous pouvons ramasser toutes les perles tombées par terre et reconstituer un collier cassé, mais aucun processus ne peut effectivement réassembler toutes les molécules d’une pièce de monnaie usée11. » Il précisait qu’il ne s’agit pas d’exclure en principe la reconstitution d’une structure matérielle, mais que « si en pratique de telles opérations sont impossibles, c’est seulement parce qu’elles réclameraient un temps pratiquement infini12. » On ne reconstitue pas miraculeusement des stocks naturels qui ont mis des millions d’années à se constituer.

Georgescu-Roegen démontra implacablement pourquoi la dégradation de l’environnement était liée à un principe d’entropie irréversible (« la seule loi naturelle dont la prédiction n’est pas quantitative13 ») mais accéléré par les activités humaines et constamment ignoré par les économistes orthodoxes, qui ne s’intéressent ni à l’input des ressources ni à l’output des déchets. Selon lui, les limites du progrès technologique seront données par le coefficient de rendement énergétique qui ne saurait être exponentiel sans rendre la production incorporelle, ce que prétend sans le savoir « le sophisme de la substitution perpétuelle14» qui ne tient pas compte du coût énergétique croissant de l’accès à de nouvelles énergies. Ce modèle suppose, en somme, une croyance surnaturelle exactement là où il se prétend le plus scientifique. La promotion de l’extropie – antonyme de l’entropie – développée dans le journal et l’institut du même nom, et formalisée par Max More en 1998 dans Les principes extropiens15 se fonde, quant à elle, exclusivement sur un article de foi dans le progrès technologique illimité. Elle ne constitue en rien une réponse scientifique aux travaux de Georgescu-Roegen et aux objections de nombreux physiciens.

Guillaume Pitron ne prône pas la décroissance, ne s’exprime pas sur les principes de la thermodynamique et ne tire aucune conclusion prospective. C’est au lecteur de le faire. La situation qu’il décrit ne nous confronte pas seulement au délire d’une croissance qui ne s’arrête jamais et se croit capable d’inventer sans cesse à mesure de ses nouveaux déficits. Elle nous ramène aussi au pari transhumaniste, celui qui propose de risquer le va-tout pour atteindre peut-être « la maturité technologique » capable de résoudre un jour des problèmes aujourd’hui insolubles. Au-delà du risque brandi par certains de l’avènement d’une intelligence artificielle maligne, c’est le problème platement physique des ressources qui se pose déjà. Un problème trop terre-à-terre ? La focalisation sur le développement de l’intelligence occulte la question d’une barrière énergétique infranchissable dans les conditions physiques connues. Le technoprogressisme ne donne aucun scénario vraisemblable de réponse à l’accroissement exponentiel de la demande d’énergie que suppose sa vision. Au mieux, il affirme son engagement écologique sur le mode religieux du déni green tech exposé plus haut et choisit de croire qu’il existe quelque part dans le futur un degré de développement technologique capable d’inverser une équation tenue par les physiciens pour impossible, à savoir l’accès à une source d’énergie à la fois propre, gratuite et illimitée.

Le paradoxe formulé par le prix Nobel de physique Enrico Fermi en 1950 – s’étonnant de l’absence de signes extraterrestres, compte tenu de la très haute probabilité de civilisations extraterrestres plus anciennes que la nôtre – a suscité un nombre considérable d’hypothèses. Une solution fut celle formulée par l’astrophysicien Haqq-Misra et le géographe Baum16, qui considéraient les paramètres de croissance durable ou non durable comme une explication plausible soit de l’échec (en raison d’un effondrement de leurs écosystèmes), soit de la lenteur (en raison d’une croissance ralentie ou bloquée) de civilisations extraterrestres à coloniser l’espace jusqu’à nous. Le physicien Gabriel Chardin a émis récemment une hypothèse similaire : « Sous l’hypothèse apparemment raisonnable d’un taux de croissance de la consommation et de l’utilisation des ressources de 2 % par an, la durée d’épuisement des ressources de la Terre est de quelques centaines d’années, avec une large marge d’incertitude. Pour l’Univers observable tout entier, curieusement, l’estimation est plus précise : entre 5 000 et 6 000 ans, à très peu de chose près… (…) Autrement dit, une croissance de 2 % par an poursuivie pendant quelques millénaires grille presque nécessairement le système planétaire qui en subit l’expérience17. »

Ces hypothèses ne sont pas apocalyptiques, au sens où elles ne postulent pas l’extinction inéluctable de l’espèce humaine (du moins une extinction d’origine anthropique). En revanche elles suggèrent qu’une croissance rapide est à coup sûr incompatible avec la colonisation de l’espace ou même avec l’accomplissement d’un progrès technologique qui sera pris de court par sa propre accélération. Seul un rythme d’innovation ralenti, déconnecté d’intérêts marchands et financé par des fonds publics, éloigné d’applications de masse et faisant l’objet de délibération éthique et politique aurait peut-être une chance de favoriser le progrès technologique à long terme. La course en avant chargée de nous donner la solution toujours repoussée à des problèmes toujours plus gros semble par contre aller droit dans le mur. Mais notons que ce n’est pas sûr : personne ne connaît la structure ultime de l’univers. Georgescu-Roegen concluait ses travaux sur cette alternative : « Peut-être le destin de l’homme est-il d’avoir une vie brève mais fiévreuse, excitante et extravagante, plutôt qu’une existence longue, végétative et monotone. Dans ce cas, que d’autres espèces dépourvues d’ambition spirituelle – les amibes par exemple – héritent d’une Terre qui baignera longtemps encore dans une plénitude de lumière solaire !18 » Cet avertissement pose d’une manière plus aiguë que jamais l’enjeu de choix politiques fondés sur des paramètres inconnus et peut-être inconnaissables ou impossibles à mesurer.

Sandrine Aumercier

1Guillaume Pitron, La guerre des métaux rares – La face cachée de la transition énergétique et numérique, Éditions Les Liens qui Libèrent, Paris, 2018.

2« Impact environnemental du numérique : il est temps de renouveler Internet », 10 janvier 2017

3Marc Roux, « Transhumanisme et écologie », 11 avril 2016

4Dominique Challiol, « Déchets : une solution en vue pour l’usine Rhône-Poulenc de la Rochelle », Les Echos, 24 mai 1991.

5Bertrand d’Armagnac, « Grandes manœuvres autour des métaux rares », Le Monde, 03 février 2010.

6Guillaume Pitron, La guerre des métaux rares, pp. 80-81.

7Dominique Albertini, « Les terres rares, un facteur majeur de la puissance chinoise », Libération, 14 mars 2012.

8Guillaume Pitron, La guerre des métaux rares, p. 151.

9Ibid. p. 220.

10Philippe Bihouix, « Du mythe de la croissance verte à un monde post-croissance », in Crime climatique stop , Collectif, Seuil, Paris, 2015.

11Nicholas Georgescu-Roegen, La décroissance, Sang de la Terre, Paris, 2011, p. 105.

12Ibid., p. 105.

13Ibid., p. 98.

14Ibid., p. 113.

15Principes transhumanistes d’Extropie

16Jacob D. Haqq-Misra et Seth D. Baum, « The Sustainability Solution to the Fermi Paradox », Journal of British Interplanetary Society, vol. 62,‎ 2009.

17Gabriel Chardin, « Le paradoxe de Fermi et les extraterrestres invisibles », Libération, 2 mai 2015.

18Nicholas Georgescu-Roegen, La décroissance, op. cit., p. 149.

Deux minutes trente avant minuit… Global Challenges Foundation et les « risques » de catastrophe globale

« Nous avons tendance à regarder ce qui confirme notre savoir, non notre ignorance. »
Nassim Nicholas Taleb, Le Cygne noir. La puissance de l’imprévisible

Alors que l’Horloge conceptuelle de l’Apocalypse, comme une mise en garde, se rapproche dangereusement de minuit1, Global Challenges Foundation publiait, en mai dernier, son troisième rapport sur les risques de catastrophe globale (Global Catastrophic Risks). Catastrophisme ?

Créée en 2008, à l’initiative de l’homme d’affaires László Szombatfalvy2, Global Challenges Foundation, basée à Stockholm, a pour objectif de rendre accessible la dynamique des périls anthropiques (liés à l’action humaine) et naturels qui menacent l’humanité dans sa globalité (points de basculement, boucles de rétroaction, interconnections globales).

Il s’agit surtout de stimuler une proactivité, c’est-à-dire anticiper des réponses, afin d’assurer un meilleur futur à tous.

D’après un sondage réalisé dans 8 pays par Global Challenges Foundation sur la perception des risques globaux et les institutions susceptibles d’y répondre, 61 % des gens interrogés considèrent le monde plus dangereux qu’il y a deux ans. Un quart (27 %) estime qu’il est beaucoup plus dangereux. Les armes de destructions massives sont pensées comme le risque le plus préoccupant (62 %). Le réchauffement climatique arrive en troisième position avec 57 %. Huit adultes sur 10 (85 %) pensent que les Nations Unies devraient être réformées pour mieux répondre aux risques globaux.

Outre les armes de destruction massive nucléaires, biologiques et chimiques, le changement climatique et l’effondrement écologique, ce rapport aborde, parmi les risques anthropiques émergeants, la géo-ingénierie (manipulation et modification artificielles du climat et de l’environnement), la nanotechnologie, l’intelligence artificielle telle que nous la connaissons et l’intelligence artificielle « générale », si elle advient un jour.

Considérant les risques naturels, les auteurs focalisent leur attention sur les super éruptions volcaniques (type Yellowstone) et leurs répercussions climatiques, l’impact d’un astéroïde et les pandémies globales avec des virus candidats comme Ebola, Zika, etc.

Paradoxal en apparence, parce que non rétrospectifs, les risques encore inconnus sont aussi envisagés et particulièrement ceux liés à l’action humaine. Un risque qui, selon les auteurs, à partir du connu, pourrait provenir de l’intrication profonde de nos sociétés avec la technologie mais aussi du développement rapide de technologies nées de combinaisons nouvelles qui prendraient de court nos mécanismes de gouvernance. Sans relief, dépolitisé (les responsabilités ne sont pas pointées), ce rapport apporte néanmoins une connaissance apte à fertiliser les esprits.

Dérisoire en apparence, Global Challenges Foundation organise un concours doté de 5 millions de dollars afin de renforcer, compléter, réviser, la gestion actuelle des « risques globaux » par les Nations Unies, faire émerger de nouvelles formes de gouvernances, générer des prises de décisions collectivement contraignantes, durables, prenant en compte tous les individus et notamment ceux à venir.

Vincent Guérin est docteur en histoire contemporaine. Spécialisé dans les mutations technologiques (www.mutationstechnologiques.fr), il a récemment publié « Anticiper le crime aux États-Unis. Des méthodes actuarielles à l’usage du Big data » dans la revue Études digitales.

1 Créée en 1947, à l’initiative du Bulletin of the Atomic Scientists, une revue fondée en 1945 par les physiciens du projet Manhattan qui donna naissance à la bombe atomique américaine, l’Horloge de l’Apocalypse (Doomsday Clock) initialement située 7 minutes avant minuit, l’heure fatidique, est supposée mettre en garde contre le risque nucléaire. Depuis 2007, ce processus d’alerte intègre les risques liés au réchauffement climatique et aux nouvelles technologies. En 1953, après la naissance de la bombe à hydrogène, l’aiguille est positionnée, pour un temps, deux minutes avant minuit. Depuis janvier dernier, en raison de l’exacerbation des nationalismes, la menace nucléaire diffuse et le revirement étasunien sur le réchauffement climatique durant la campagne de Donald Trump, l’aiguille pointe 2 minutes 30 avant minuit.

2 László Szombatfalvy est l’auteur de The greatest challenges of our time, 2010 (livre gratuit).

La plus grande étude de géo-ingénierie solaire au monde démarre aux États-Unis

D’ici 2022, les chercheurs de Harvard prévoient de disperser de petites quantités de deux matériaux dans la stratosphère dans l’espoir de répliquer les effets atmosphériques rafraîchissants d’une éruption volcanique d’envergure.

Une équipe de scientifiques américains sont prêts à procéder à des injections par aérosols dans la stratosphère (jusqu’à 20 km d’altitude = 12.4 miles) afin de valider la faisabilité technique d’une méthode permettant de résoudre le problème du réchauffement climatique. L’objectif est de simuler en toute sécurité les effets atmosphériques rafraîchissants d’une éruption volcanique de grande ampleur. Le projet de 20 millions de dollars porté par la Harvard University est le plus grand programme de géo-ingénierie jamais imaginé, et il sera lancé dans les prochaines semaines (début avril 2017).

Les scientifiques porteurs du projet visent à réaliser deux dispersions à petite échelle d’ici 2022. La première dispersera de l’eau dans la stratosphère, et la seconde dispersera des particules de carbonate de calcium. Dans le futur, des tests pourraient inclure également l’émission, dans l’atmosphère supérieure, d’oxyde d’aluminium ou peut-être même d’un élément plus exotique : des diamants.

Ces techniques imitent les altérations naturelles de la balance de radiation terrestre normale observées à la suite d’éruptions volcaniques d’envergure. L’éruption du Mont Pinatubo en 1991, par exemple, a engendré la baisse des températures de 0.5°C (9°F). En outre, l’éruption du Mont Tambora a rafraîchi la Terre avec des effets secondaires plus sinistres (maladies, mauvaises récoltes, et famines observées en Europe à la suite de cette éruption, l’année que nombreux appellent « l’année sans été »). En effet, une étude menée en 2013 par le service national britannique de météorologie, a émis une alerte selon laquelle la dispersion de particules fines dans la stratosphère pourrait engendrer une sécheresse dramatique en Afrique du Nord.

L’éventail de résultats imprévisibles et potentiellement dangereux justifie l’accueil assez froid du programme par la communauté scientifique. Et malgré le manque de solutions techniques fiables, il faut toutefois remarquer les efforts menés afin d’obtenir des solutions alternatives et dont les résultats sont plus probants. Ceci étant, il ne faut pas perdre de vue que, pour le moment, ces résultats ne sont pas la panacée.

“L’ingénierie [S]olar n’est pas la solution” a déclaré Kevin Trenberth, un des principaux membres du jury intergouvernemental des Nations Unies sur le changement climatique, lors d’un entretien avec The Guardian. « Réduire les effets des radiations solaires sur la Terre affecte la météo et le cycle hydrologique, engendre la désertification, déstabilise les choses et pourrait déclencher des guerres. Les effets secondaires sont nombreux, et nos modèles sont loin d’être capables de prédire les résultats à l’avenir ».

Des pays tels que la Chine ont travaillé avec ardeur sur les façons de réduire les émissions et d’adopter des solutions énergétiques propres. Et alors que les instances politiques officielles des US semblent faire fi de toute discussion relative au changement climatique (quand ils ne dénient pas tout simplement les effets de l’activité humaine sur le réchauffement climatique), une équipe leader composées de techniciens de haut vol aux USA recherche très activement des solutions à ce problème avec pour objectif de réduire les émissions. L’État de Californie qui continue également ses travaux de réduction des émissions, engage le reste des USA dans cette démarche.

Même les scientifiques à la tête du programme à Harvard reconnaissent que la géo-ingénierie doit constituer une méthode complémentaire plutôt qu’un moyen offensif de réduire les émissions. Quoi qu’il en soit, ils affirment qu’il est vital que nous en apprenions plus sur la géo-ingénierie dans l’éventualité où nous aurions besoin de nous en servir à l’avenir. Frank Keutsch, professeur de sciences atmosphériques et coordinateur de l’expérimentation, donne le nom de « perspective terrifiante » au déploiement d’un système de géo-ingénierie solaire. Et d’ajouter « Mais il serait dramatique de préférer l’ignorance à la connaissance dans une situation comme celle-ci ».

traduction Virginie Bouetel

The Guardian, New York Times, Harvard’s Solar Geoengineering Research Program, Futurism

Catastrophe globale et transhumanisme

Les transhumanistes ne sont pas tous techno-optimistes

« Only a singleton could control evolution1 »

Nick Bostrom

En 2008, le philosophe transhumaniste Nick Bostrom (université d’Oxford) publiait un article au titre singulier : « Où sont-ils ? Pourquoi j’espère que la quête de la vie extraterrestre ne donnera rien2. » Tandis que la sonde spatiale américaine Phoenix poursuivait ses investigations sur Mars, il développait l’idée que si nous trouvions une trace de vie intelligente, ce serait un mauvais présage pour l’humanité.

Inspiré du paradoxe du physicien Enrico Fermi, son raisonnement procède de la sorte : alors que nous sondons l’univers depuis plus de 60 ans (notamment dans le cadre du projet SETI – Search for extraterrestrial intelligence)3, que la Voie lactée recèle plus de 200 milliards d’étoiles et l’univers observable entre 100 et 200 milliards de galaxies, pourquoi n’avons-nous pas trouvé de traces tangibles de vie extraterrestre ? En d’autres termes, alors que la probabilité de la vie semble si grande, pourquoi aucune intelligence extraterrestre n’a encore entrepris l’exploration de l’univers ? Comment expliquer ce paradoxe ? Reprenant le concept de l’économiste américain Robin Hanson4, Nick Bostrom s’interroge : existe-t-il « un grand filtre »5, un obstacle, un goulot d’étranglement, une étape critique, au saut évolutionniste nécessaire à l’expansion de la vie et l’essaimage d’une l’intelligence dans l’univers, la civilisation galactique ? Partant de là, il distingue deux possibilités. Soit le « grand filtre » se situe dans notre passé et nous l’avons franchi : au seuil de notre expansion dans l’univers, il est vrai encore timide, cela revient à dire que la vie est rare, peut-être unique, et qu’elle nécessite d’improbables coïncidences pour émerger, sinon d’autres intelligences seraient venues nous rendre visite. La vie étant peu répandue et l’univers immense, on peut aussi imaginer qu’elle a pu émerger loin de nous, dans ce cas les deux intelligences resteront peut-être pour toujours étrangères l’une à l’autre. Dans l’autre hypothèse, le « grand filtre » se situe devant nous, dans le futur, cela signifierait qu’il y a dans le développement technologique de la civilisation un stade critique, qui expliquerait que quelque chose a empêché l’essaimage de l’intelligence. Dans ce cas c’est le risque anthropique, lié à l’homme lui-même, qu’il faut redouter.

Ces considérations liminaires mettent en relief le primat de l’intelligence et le risque anthropique existentiel, qui pourrait nuire à l’étape prochaine de l’évolution désirée par certains transhumanistes, un mouvement philosophique, scientifique et politique, qui s’est cristallisé notamment en Californie dans les années 1960 et qui a pour ambition de prendre en main l’évolution humaine, jugée imparfaite, par la technologie.

Souvent présentés comme techno-fétichistes, il s’agit ici d’explorer un aspect moins connu des transhumanistes : les liens qui unissent certains d’entre eux à l’idée de catastrophe globale6 et comprendre les ressorts de cette inquiétude. Après quelques éléments biographiques sur Nick Bostrom et une définition du risque anthropique existentiel, nous développeront l’exemple de l’« explosion de l’intelligence ».

Nick Bostrom

Niklas Bostrom est né en Suède. Mû par une curiosité intellectuelle intense, adolescent, il décide de faire sa propre éducation7. Au début des années 1990, il réussi le tour de force d’être diplômé de l’université de Göteborg en philosophie, en logique mathématique et en intelligence artificielle. Il poursuit ensuite sa formation à Stockholm où il étudie la philosophie et les mathématiques puis au King’s College de Londres où il s’initie à l’astrophysique et aux neurosciences8.

Acteur transhumaniste historique, il fonde, en 1998, avec le philosophe anglais David Pearce, le World Transhumanist Association (maintenant Humanity +), une institution qui a pour ambition de donner corps au transhumanisme mais aussi lui donner du crédit afin de stimuler des recherches académiques9. La même année, il participe à la rédaction de La déclaration transhumaniste ainsi qu’à la création du Journal of Transhumanism (devenu Journal of Evolution & Technology).

Son doctorat de philosophie obtenu à la London School of Economics porte sur le paradoxe de l’Apocalypse (Doomsday argument), un raisonnement probabiliste sur le risque d’extinction de l’humanité inspiré par l’astrophysicien Brandon Carter que, selon Nick Bostrom, l’on sous-estime trop souvent, notamment dans sa dimension anthropique10. En 2005, il donne naissance, au sein d’Oxford Martin School11, au laboratoire Future of Humanity Institute (FHI)12. Son objectif : générer des outils pluridisciplinaires pour appréhender les risques technologiques émergents mais aussi les opportunités civilisationnelles associées afin de clarifier les choix qui façonnent le futur de l’humanité sur le long terme, en tirer le meilleur profit. En 2014, son livre, Superintelligence, paths, dangers, strategies, a eu un grand retentissement13. En écho à cette publication, qui alimente l’inquiétude autour de l’intelligence artificielle, Elon Musk (Tesla Motors, PayPal, SpaceX, SolarCity) a doté le FHI d’une somme d’un million de dollars14. Récemment on a pu voir Nick Bostrom témoigner sur le risque existentiel à l’ONU au côté du cosmologiste Max Tegmark (MIT)15 fondateur du Future of Life Institute16.

Le risque existentiel

Nick Bostrom définit le risque existentiel comme un risque qui menace prématurément l’extinction de l’intelligence née sur Terre avant qu’elle ne puisse atteindre sa maturité, l’expression de sa plénitude17.

Depuis 500 millions d’années, 15 extinctions de masse auraient eu lieu dont 5 ont failli faire disparaître la vie sur Terre. Une en particulier, au Permien-Trias, il y a 250 millions d’années, aurait éliminé 90 % des espèces18. Dans un passé plus récent, la chute d’un astéroïde comme celui du Yucatán (Mexique), il y a 65 millions d’années, mais aussi l’impact du supervolcan Toba (Indonésie) sont à l’origine d’extinctions massives, directement et indirectement par l’absence de luminosité et le refroidissement induit.

Cependant, si l’humanité a survécu aux risques naturels depuis des centaines de milliers d’années, Nick Bostrom est moins optimiste quant aux menaces nouvelles introduites par celle-ci, depuis peu : c’est le risque existentiel anthropique19. Outre le réchauffement climatique global, l’usage de l’arme nucléaire, d’autres risques sont mis en avant comme une pandémie anthropogène liée au bioterrorisme, l’altération du climat par la géo-ingénierie et l’avènement d’une superintelligence artificielle hostile.

Nick Bostrom fait aussi état du risque nanotechnologique, pas seulement le très fantasmé gray goo20, une écophagie environnementale liée à la perte de contrôle d’un assembleur moléculaire popularisée par Eric Drexler (FHI)21, mais aussi l’usage d’armes nanométriques22. Il ajoute quelque chose d’imprévisible23. Focalisons-nous sur le risque inhérent à l’émergence de la superintelligence artificielle.

« 10 scénarios pour la fin de l’homme (avec Nick Bostrom) :

Partie 2

L’ « explosion de l’intelligence »

Le statisticien Irving John Good (1916-2009) serait le premier à l’avoir exposée officiellement en 1965 :

« Supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. […] cette machine pourrait à son tour créer des machines meilleures qu’elle-même ; cela aurait sans nul doute pour effet une réaction en chaîne du développement de l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en résulte que la machine ultra-intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir. Il est curieux que ce point soit si rarement abordé en dehors de la science-fiction. Il faudrait parfois prendre la science-fiction au sérieux24. »

Cette ultra-intelligence devient singularité technologique sous la plume du mathématicien et auteur de science fiction Vernor Vinge en 1993.

« Within thirty years, we will have the technological means to create superhuman intelligence. Shortly after, the human era will be ended25. »

En 2008, Robin Hanson (FHI) et Eliezer Yudkowsky (Machine Intelligence Research Institute) ont débattu à ce propos, l’un considérant que le « décollage » (takeoff) sera lent, qu’il prendra des années, des décennies et l’autre, au contraire, fulgurant26. Nick Bostrom pense aussi que le décollage sera explosif27.

L’ « explosion de l’intelligence » peut être résumée de cette manière : lorsque la machine aura atteint le stade de l’intelligence humaine, elle pourrait se reprogrammer, puis à nouveau se reprogrammer à partir de cette nouvelle programmation et ainsi de suite jusqu’à produire une évolution exponentielle.

Les techno-optimistes de la Silicon Valley comme Peter Diamandis et Ray Kurzweil utilisent ce concept de singularité technologique pour illustrer l’émergence de la superintelligence28. Nous serions au seuil d’une « accélération technologique », objectivement impensable, qui passé un point d’inflexion deviendra explosive et profondément transformatrice. Cette singularité technologie échappe à nos catégories de pensée car nous pensons de façon linéaire, alors que l’évolution technologique se fait de manière exponentielle. Peter Diamandis utilise cette métaphore : si 30 pas linéaires (1, 2, 3, etc.) amènent approximativement à 30 mètres, 30 pas exponentiels (1, 2, 4, 8, 16, etc.) nous feraient parcourir 26 fois le tour de la planète29. Dans le cadre de cette accélération, Ray Kurzweil prophétise l’émergence de la super-intelligence autoréplicante pour 204530. Nous sommes dans un compte à rebours quasi messianique, espéré auto-réalisateur, comme l’a été la loi de Moore31. C’est le retour en grâce du fantasme de l’intelligence artificielle « forte » stimulé par le l’augmentation des capacités de stockage de l’information et des puissances de calcul.

Pour Nick Bostrom, parmi les leviers devant conduire à une augmentation cognitive, si la digitalisation du cerveau (whole brain emulation) semble la voie la plus prometteuse, la méthode la plus rapide à mettre en œuvre serait le couplage avec la superintelligence artificielle32. Seulement, cette méthode qui conditionne un devenir hybride, cyborg, comporte un risque existentiel ; nous sommes revenus au « grand filtre ».

Nick Bostrom considère que l’évolution ne sera pas toujours nécessairement avantageuse pour l’humanité33. Contrairement aux libertariens de la Silicon Valley, il n’est pas techno-optimiste, il redoute les risques existentiels qui pourraient nuire à l’humanité toute entière.

Plus précisément, ces risques menacent de façon prématurée l’extinction, selon lui, non pas de l’humanité au sens de l’Homo sapiens, une incarnation transitoire, mais de l’ « intelligence d’origine terrestre » et sa « maturité technologique », c’est-à-dire le maximum de ses potentialités : le posthumain et ses promesses comme la colonisation de l’espace, etc34.

Selon Nick Bostrom, nous sous-estimons le risque anthropique existentiel et notamment celui inhérent à la superintelligence artificielle.

Comment se prémunir contre cette catastrophe ? Une manière d’éviter le désastre consisterait à prendre en main l’évolution de l’humanité, aussi suggère-t-il de développer ce qu’il appelle un singleton (en mathématiques, un ensemble formé d’un seul élément), un ordre mondial présidé par une entité indépendante qui nous permettrait d’éviter les risques existentiels35. Ce singleton pourrait être un gouvernement mondial démocratique, une dictature  ou… une superintelligence, une sorte de gouvernement pastoral machinique36.

Finalement, la création d’un singleton, quelque soit sa nature, pourrait anticiper et ainsi réduire certains risques. Il pourrait aussi en faire advenir d’autres comme un régime oppressif global et permanent37.

Notes

1 Nick Bostrom, « The future of human evolution », in Charles Tanguy (ed), Death and anti-death: two hundred years after Kant, fifty years after Turing, Palo Alto, rup, 2004, 2009, [version en ligne], p. 16.

2 Nick Bostrom, « Where are they. Why I hope the search for extraterrestrial Life Finds Nothing », MIT Technology review, mai/juin, 2008, p. 72-77.

3 SETI Institute Home.

4 Robin Hanson, « The great filter – Are we almost in the past ? », 15 septembre 1998.

5 Ce concept est utilisé en exobiologie (ou astrobiologie). Lire Aditya Chopra et Charles H. Lineweaver, « The case for a Gaian bottleneck. The biology of habitability », Astrobiology, vol. 16, no 1, 2016.

6 Le rapport de la fondation Global challenges définit la catastrophe globale comme un événement qui tuerait au moins 10 % de l’humanité, soit actuellement 750 millions de personnes. Lire Global Challenges Foundation/Global Priorities Project (Future of Humanity Institute), Global Catastrophic Risks, 2016, p. 6.

7 Raffi Khatchadourian, « The doomsday invention. Will artificial intelligence bring us utopia or destruction ? », The New Yorker, no 23, novembre 2015.

8 Curriculum vitae de Nick Bostrom.

9 Nick Bostrom, « A history of transhumanist thought », Journal of Evolution & Technology, vol. 14, no 1, avril 2005, p. 15.

10 Cet argument est discuté par John A. Leslie dans The end of the world. The science and ethics of human extinction, London, Routeldge, 1996

11 Fondé en 2005 par James Martin, un spécialiste des technologies de l’information, Oxford Martin School, est un centre de recherche pluridisciplinaire qui porte sur les enjeux  globaux pour le XXIe siècle.

13 Nick Bostrom, Superintelligence, paths, dangers, strategies, Oxford, OUP, 2014.

14 Ideas into action, 10 years of groundbreaking research, Oxford Martin School/University of Oxford, 2015, p. 9.

15 Prof. Max Tegmark and Nick Bostrom speak to the UN about the threat of AI.

17 Nick Bostrom, « Existential risk prevention as global priority », Global Policy, vol. 4, no 1, 2013, p. 15.

18 Nick Bostrom et Milan M. Ćirković, « Introduction », Global Catastrophic Risks, Oxford, OUP, 2008, p. 8.

19 Nick Bostrom, « The future of humanity », in Jan-Kyrre Berg Olsen, Evan Selinger et Soren Riis (eds),  New Wages in philosophy of technology, NY, Palgrave McMilla, 2009 [version en ligne], p. 10-11.

20 Nick Bostrom, Existential risks: Analyzing human, extinction scenarios and related hazards, Journal of Evolution and Technology, vol. 9, mars 2009, p. 8.

21 Eric K. Drexler, Engins de création : l’avènement des nanotechnologies, Paris, Vuilbert, 2005 [Engines and creation. The coming era of nanotechnology, 1986].

22 Nick Bostrom, « The future of humanity », op. cit., p. 10-11.

23 Nick Bostrom, Existential risks : Analyzing human, extinction scenarios and related hazards, op.cit., p. 8.

24 Irving J. Good, « Speculations concerning the first ultraintelligent machine », in F. Alt et M. Ruminoff (eds.), Advances in computers, vol. 6, 1965, p. 33.

25 Venor Vinge, « The coming technological singularity: How to survive in the post-human era », Vision-21, Interdisciplinary science and engineering in the era of cyberspace. Proceedings of a symposium cosponsored by the NASA Lewis Research Center and the Ohio Aerospace Institute and held in Westlake, Ohio March 30-31, 1993, p. 11.

26 Robin Hanson et Eliezer Yudkowsky, The Hanson-Yudkowsky AI foom debate, Berkeley, CA, Machine Intelligence Research Institute, 2013.

27 Nick Bostrom, Superintelligence, paths, dangers, strategies, op. cit., p. 64-65.

28 Voir Ray Kurzweil, The singularity is near. When humans transcend biology, London, Penguin Books, 2005.

29 Peter Diamandis et Steven Kotler, Bold. How to go big, create wealth and impact the world, NY, Simon and Schuster Books, 2014, p. 16.

30 Peter Diamandis, « Ray Kurzweil’s mind-boggling predictions for the next 25 years », Singularity Hub, 20 janvier 2015.

31 Walter Isaacson, Les innovateurs. Comment un groupe de génies, hackers et geeks a fait la révolution numérique, Paris, JC Lattès, 2015, p. 247.

32 Nick Bostrom, Superintelligence, paths, dangers, strategies, op. cit.

33 Nick Bostrom, « The future of human evolution », op. cit., p. 1-2.

34 Nick Bostrom, « Existential risk prevention as global priority », op. cit., p. 15-31.

35 Nick Bostrom, « The future of human evolution », op. cit., p. 16-18.

36 Nick Bostrom, « What is a Singleton », Linguistic and Philosophical Investigations, vol. 5, no 2, 2006, p. 48-54.

37 Nick Bostrom, « The future of human evolution », op. cit. p. 18.

Géo-ingénierie : les apprentis sorciers du climat

Pour stopper le réchauffement de la planète, des scientifiques proposent de modifier le climat. Stimuler le plancton, repeindre les toits en blanc, envoyer des miroirs dans l’espace… : des lubies ? Non, la géo-ingénierie. Ces techniques plus ou moins fantaisiste, visent à modifier le climat afin d’enrayer le réchauffement de la planète. Longtemps, les scientifiques se sont refusé à mentionner ce plan B parce qu’ils pensaient qu’il détournerait le monde politique du plan A (limiter les émissions de gaz à effet de serre). Autrefois décrié, il opère aujourd’hui un retour en force.

Les recherches les plus avancées se proposent d’imiter l’effet des éruptions volcaniques en pulvérisant des particules refroidissantes dans la stratosphère. Pour l’instant, ces expériences restent confinées en laboratoire. Mais jusqu’à quand ? Aux États-Unis, la géo-ingénierie séduit les milieux conservateurs, ceux-là mêmes qui nient le lien entre le réchauffement climatique et l’activité humaine. Cette solution présente, il est vrai, des avantages : elle évite de se mettre les industries polluantes à dos, d’imposer de nouvelles taxes, de changer nos modes de vie, et crée du business. Mais des scientifiques prédisent des effets dévastateurs en cascade : augmentation des pluies, suppression de la mousson, désertification…

Course à l’arme météorologique

Ce documentaire réunit de nombreux experts, partisans ou critiques à l’égard de la manipulation du climat : scientifiques, journalistes, lobbyistes, historiens, “géo-ingénieurs”, exposant placidement des projets qui font froid dans le dos… À l’aide d’un riche fonds d’archives, le film se penche sur l’histoire ahurissante de ces techniques qui ont pris leur essor durant la course à l’armement de la guerre froide, brossant au passage le portrait d’Edward Teller, qui a inspiré le docteur Folamour de Stanley Kubrick. Ce dernier pensait, notamment, régler le problème de la sécheresse californienne par une explosion nucléaire…

(France, 2014, 83mn) ARTE

Les Apprentis sorciers du climat
Raisons et déraisons de la géo-ingénierie

Clive Hamilton*

L’échec répété des négociations internationales sur le climat signifie que nous nous dirigeons vers une hausse globale des températures de 3 à 6 °C d’ici 2100. Celle-ci entraînera des événements météorologiques extrêmes et de nombreuses souffrances humaines.

Les espoirs se tournent aujourd’hui vers des technologies qui proposent de refroidir la Terre sans changer notre modèle de développement ni de consommation. Telle est la promesse de la géo-ingénierie et de ses promoteurs, soutenus par Bill Gates lui-même. Pulvériser du soufre dans la haute atmosphère, modifier la chimie des océans, stocker le carbone dans les profondeurs de la Terre : tels sont les projets et les expériences à hauts risques de ces « géocrates » ? ingénieurs, scientifiques et hommes d’affaires ? qui entendent régler le thermostat de la planète.

Clive Hamilton, spécialiste des enjeux environnementaux, pose la question de fond : ces hommes ont-ils le droit de jouer aux apprentis sorciers avec la Terre ?

*Clive Hamilton est un essayiste, politique, économiste et philosophe australien. Il a déjà publié une dizaine d’ouvrages, dont Growth Fetish (2003), Affluenza (2005), Silencing Dissent (2007), Scorcher : The dirty politics of climate change (2007), The Freedom Paradox (2008) et Requiem for a Species ( Requiem pour l’espèce humaine, Presses de Sciences Po, 2013).