Quelle monnaie virtuelle pour demain, DTS ou crypto ?

Les assouplissements quantitatifs (ou planche à billet) et les taux négatifs bancaires permettent de maintenir le statu quo économique actuel en donnant les moyens à de grandes entreprises déficitaires de survivre avec des liquidités faciles d’accès. Dans l’optique où l’on sortirait de cette période par un krach ou par une transition réelle, deux grandes alternatives seraient concevables et nous (Français) ne serons gagnants dans aucun scénario.

Certaines institutions internationales détiennent de l’or afin de faciliter leurs missions. C’est le cas du Fonds Monétaire International (FMI), qui fut constitué et financé par les réserves d’or de ses membres. Selon elle, les réserves mondiales d’or détenu par les banques centrales et institutions financières avoisinaient les 34 000 tonnes en 2019. Cette institution possède également 2 814,1 tonnes de métal jaune. Ces métaux lui serviraient de réserve et de financement de ses activités. Cette somme imposante place le FMI en troisième position du classement mondial des réserves d’or, après les États-Unis et l’Allemagne.

Credit: FMI

Comme le dit très justement Simone Wapler, spécialiste des métaux, des matières premières et du secteur de l’énergie :

« si l’or est une relique barbare : pourquoi le FMI a-t-il de l’or, pourquoi les grandes banques centrales continuent-elles à détenir de l’or, pourquoi certaines en ont même acquis depuis 2008 et enfin, une banque centrale peut-elle avoir comme réserves des emprunts d’État à taux d’intérêt négatif ? »

Ceci pose question dans un scénario de retour du métal historique dans le commerce international. Quelle place aurait vraiment le FMI dans un contexte d’étalon-or ? Après la Seconde Guerre mondiale, les Accords de Bretton Woods avaient marqué la fin progressive de l’étalon-or et la mise en place d’un nouveau système financier international dès 1944. Pour structurer ce nouveau monde, différentes institutions émergèrent à cette époque :

  • La Banque internationale pour la reconstruction et le développement (BIRD), aussi appelée Banque mondiale ;
  • Le FMI ;
  • Ainsi que la signature de l’Accord général sur les tarifs douaniers et le commerce (mieux connu sous le sigle anglo-saxon de GATT) donnant naissance à l’Organisation mondiale du commerce (OMC) en 1995.

L’objectif était d’ouvrir, unifier et uniformiser les économies du monde sous l’égide du dollar américain directement indexé sur l’or. Cela marcha plutôt bien après-guerre mais, en 1971, les États-Unis mirent fin à la convertibilité du dollar en or ce qui sonna l’avènement du billet vert seul comme première devise de réserve internationale. Depuis l’économie mondiale a bien changé. Sous l’angle de la dédollarisation, j’avais établi des scénarios du prochain système économique international il y a près d’un an dans un article intitulé « Vers la fin de Bretton Woods et de l’hégémonie du dollar ? » :

Depuis, les lignes ont déjà beaucoup bougé et de nouvelles informations me permettent de réviser ces points. Commençons déjà par définir les DTS (Droits de Tirage Spéciaux), dont la Chine n’est partie prenante que depuis 2015. Ils ne sont pas une monnaie, mais une unité de compte immatérielle créé par le FMI en 1969. Les DTS consistent en un panier de monnaies utilisé pour le commerce international et les marchés financiers. Pour le dire autrement, il s’agit d’un étalon de réserve à l’instar de l’or. Le DTS est composé par pondérations respectives du dollar américain (41,73 %), de l’euro (30,93 %), du yuan (ou renminbi) chinois (10,92 %), du yen japonais (8,33 %) et de la livre sterling anglaise (8,09 %).

Credit: FMI

Au lendemain de la Seconde Guerre, deux projets monétaires mondiaux s’opposèrent : celui symbolisé par l’économiste américain Harry Dexter White dans lequel le dollar était la monnaie pivot du monde et celui symbolisé par l’économiste britannique John Maynard Keynes dans lequel le bancor, une nouvelle monnaie mondiale à créer, était la nouvelle référence internationale des échanges. Les deux monnaies comprenaient l’indexation de l’or dans ses bases. Nous connaissons la suite, le projet américain l’emporta.

De nos jours, certains analystes alternatifs comme la juriste Valérie Bugault, pensent que la chute possible du dollar amènerait à la promotion d’une monnaie supranationale sur le modèle du bancor. Les DTS seraient la première phase de l’avènement de ce projet de devise mondiale unique contrôlée par des banquiers internationaux. Dans un tel cas, il ne s’agirait non plus de la fin, mais plutôt d’un aboutissement alternatif du système de Bretton Woods avec une gouvernance mondiale gérée par ses institutions clefs.

En parallèle, il ne faut pas oublier que la Chine a également créé de son côté des institutions eurasiatiques alternatives à Bretton Woods censées faire concurrence au FMI et à la Banque mondiale. Il s’agit de la Banque asiatique de développement, de l’Organisation de coopération de Shanghai ou encore de la Banque asiatique d’investissement pour les infrastructures. Prendre part au DTS en 2015 fut un moyen pour Pékin d’internationaliser sa monnaie en lui attribuant une reconnaissance officielle pour stimuler les investisseurs institutionnels du monde entier.

Mais pour que le yuan devienne une réelle monnaie de référence sur le marché, il faudrait que la Chine rende sa monnaie convertible, c’est-à-dire qu’elle abandonne son contrôle des capitaux pour la laisser fluctuer au gré du marché de change. Le problème est que contrôler la valeur de la monnaie, en la sous-évaluant par exemple comme l’accuse Washington depuis des années, permet de soutenir les exportations au détriment des importations. Abandonner ce pouvoir est donc d’un sacrifice difficile à faire pour le Parti Communiste Chinois. Bien que la thèse du yuan-or ou du yuan tout court en tant que devise internationale ait connu des avancées significatives indéniables, elle a peu de chance de s’imposer au monde prochainement. C’est probablement pour cette raison que Pékin joue sur tous les tableaux (DTS/pétro-yuan-or) pour pouvoir se positionner stratégiquement en fonction de la conjoncture.

Avec les éléments que nous avons vus jusque-là, les scénarios actualisés avec l’or pourraient être de cet ordre :

  1. Une crise financière mondiale amenant :
  • À la chute du dollar et l’émergence des DTS sous une forme de cryptomonnaies possiblement indexées sur l’or et gérées majoritairement par le FMI (la question est donc de savoir qui contrôle le FMI).
  • Au maintien de la domination du dollar avec ou sans son indexation sur l’or.

Peu importe l’issue de ce scénario, les États-Unis en sortiront hégémoniques au vu de la pondération du dollar dans les DTS, de sa capacité d’influence sur le FMI et de la quantité écrasante de ses stocks d’or (à 8 133 tonnes contre 3 366 pour l’Allemagne en deuxième position).

  1. Le statu quo du système économique international amenant :
  • Au maintien du dollar en tant que devise de référence internationale avec ou sans indexation à l’or.
  • Une transition douce possible à moyen terme vers un système financier diversifié soit avec plus de place pour des devises autres que le dollar (euro, yuan, yen…), soit avec la consolidation progressive de cryptomonnaies privées et d’État, soit avec l’utilisation graduelle des DTS (indexés sur l’or ou non) dans les transactions, soit un peu de tout à la fois.

Malgré une concurrence monétaire internationale émergente, la domination du dollar reste encore écrasante : 63,5 % des réserves en devises des banques centrales mondiales restent constituées en dollars contre 20 % en euro, 4,52 % pour le yen et 1,1 % pour le yuan. L’euro est la devise concurrente la plus sérieuse ce qui fait doucement rire au vu de l’instabilité politique et économique de la zone (Allemagne en récession, Brexit, Italie endettée avec peut-être un projet de sortie de l’euro…). De toute façon, il n’y a pas de volonté de l’Union européenne de voir l’euro s’internationaliser, car cela signifierait que la devise subirait plus de spéculation et donc plus de fluctuation de son cours ce que les Allemands ne tolèreraient pas. Christine Lagarde, ancienne n° 1 du FMI et nouvelle patronne de la BCE, a quant à elle affirmé son soutien à une monnaie internationale sur le modèle du bancor, c’est-à-dire une valeur supranationale (les DTS en résumé) qui remplacerait le dollar dans les transactions mondiales.

L’ordre économique et financier de demain sera donc géré indirectement par une gouvernance mondiale du FMI ou directement par l’empire américain. Nous assistons à la lutte entre ces deux camps pour l’hégémonie depuis de nombreuses décennies déjà. Toutes les alternatives annexes ont encore peu de chance d’aboutir et surtout de s’imposer au monde dans l’immédiat. Le phénomène de dédollarisation mondiale est un mouvement inéluctable, mais cela ne signifie pas la fin du dollar pour autant. Comme vous le voyez, de nombreuses possibilités s’entrechoquent. Une multipolarité monétaire semble difficilement envisageable à court et moyen terme tant du point de vue technique que juridique. L’or et les cryptomonnaies vont, quant à eux, être graduellement de plus en plus présents dans les réserves et dans les échanges dans le cadre d’une diversification des actifs.

Franck Pengam

Pour en savoir plus, recevez ici 27 pages OFFERTES du livre : « Géopolitique de l’or : le métal jaune au cœur du système international ».

L’intelligence artificielle : la bataille commence

L’intelligence artificielle

L’intelligence artificielle est fondée sur différentes théories de calculabilité. C’est dans les années 1930 à l’université de Princeton aux États-Unis qu’émerge la thèse de Church (0) qui servira de pierre angulaire pour ce qui est aujourd’hui désigné comme l’IA. La thèse de Church s’appuie sur des fonctions générales récursives et cherche à démontrer que tout ce que peut réaliser un système physique ou mécanique peut être exprimé par un ensemble de règles de calcul. De ses travaux, il en sortira le personnage clé et précurseur de l’intelligence artificielle  : Alan Turing.

En octobre 1950, il publie son article intitulé « L’ordinateur et l’intelligence » dans la revue philosophique Mind (1). C’est dans cet article qu’apparaît la première définition qui qualifie un ordinateur ou une machine de « consciente » – le texte s’ouvre sur le jeu de l’imitation, dans lequel le chercheur imagine le moyen pour une machine de se faire passer pour un être humain. Il perfectionnera cette idée sur des forums et dans des conférences sur « l’intelligence de la machine ».

C’est pendant l’été 1956 que l’intelligence artificielle fut considérée comme un domaine de recherche, suite à la conférence du campus de Dartmouth College (2). D’un point de vue technique, le fonctionnement de l’intelligence artificielle utilise principalement les statistiques et les probabilités. Le perceptron ou neurone formel est l’outil pour coordonner les données reçues. Il est basé sur le principe d’un neurone naturel. C’est une sorte de fonction de transfert avec différentes entrées (données) induisant la sortie :

Le neurone formel de McCulloch et Pitts est un modèle mathématique très simple dérivé d’une analyse de la réalité biologique.
Éthique de la recherche en apprentissage machine, édition provisoire, juin 2017 – CERNA

L’algorithme, c’est la manière dont les données sont véhiculées vers l’entrée. C’est ainsi que nous trouvons trois types d’algorithmes : supervisé, non supervisé et de renforcement.

Cette explication vulgarisée amorce le b.a.-ba de l’IA mais pour les plus éclairés, à l’heure du deep learning, l’utilisation des réseaux récurrents ou convolutifs de perceptrons multicouches à rétropropagation de gradient pouvant combiner plusieurs types d’algorithmes sont les plus souvent utilisés.

De nos jours

Vous souvenez-vous de la dernière fois où vous n’avez pas eu recours à la technologie numérique ? De la dernière fois où vous avez utilisé un stylo pour écrire une lettre ? Du désagréable moment où il fallait coller le timbre amende sur la contravention reçue au retour de vacances ? Vous rappelez-vous du grésillement de la radio lorsque la réception hertzienne était mauvaise ? Ou encore votre mémoire est-elle suffisamment bonne pour se remémorer du poids de votre dictionnaire et du temps passé à la recherche d’un mot introuvable ? etc.

Aujourd’hui, si vous avez laissé votre mémoire aux dernières pages consultées de votre « Larousse », prenez conscience que tout ce qui a été listé un peu plus haut peut se faire avec votre plus fidèle outil : votre smartphone. Ce petit appareil dont l’utilité première est de téléphoner vous a rendu hétéronome aux nouvelles technologies. Sans vous en rendre compte, il a fallu dix ans pour vous induire une dépendance que les algorithmes ont su fortifier par la création d’une vie sociale : propositions d’ami.e.s , voir de petit.e.s ami.e.s, en plus de vous orienter sur les produits à consommer pour exister.

Comme les choses sont bien faites, que la demande est toujours plus forte en matière d’assistance et de numérisation et que nous sommes maintenant préparés à vivre dans un monde artificiel de « l’avoir » (3), nos dirigeants et nos grandes entreprises nous ont fait entrer dans la quatrième révolution industrielle avec une cinétique telle que nos dix dernières années passées vont nous paraître préhistoriques.

« Ce qui constitue vraiment la révolution que nous connaissons depuis peu est le couplage désormais permis de ces algorithmes avec des données et une capacité de calcul qui n’étaient pas accessibles alors, ouvrant des perspectives dont on ne perçoit pas encore les limites. » (4)

Le Monde est déjà en marche

« En 2015, les ventes de robots industriels ont augmenté de 15% avec un volume record de 253.750 unités et une valeur globale estimée à 11,1 milliards de US$ (+9%) […]. La Chine a acheté 27% de ce volume mondial total (68.600 robots) et dépasse ainsi les ventes de robots industriels dans l’Europe entière (50.100 unités). La Chine a produit 30% de ces robots industriels (20.400 unités en 2015), le reste est importé d’Asie et d’Europe. En Europe, c’est toujours l’Allemagne qui s’équipe le plus en robots industriels (50K unités), suivie de l’Italie pour 6.657 unités. L’Europe de l’Est entre dans une ère d’automatisation. La France accroît ses achats de robots industriels d’environ 3% pour un volume global de 3.045 robots industriels en 2015.

Cette tendance de croissance à deux chiffres devrait continuer sur les prochaines années, voire s’intensifier avec les initiatives Industrie 4.0 (11) qui fleurissent sous différentes appellations dans les différents pays et continents […].

Les filières les plus importantes en valeur sont celles de la robotique médicale, suivie de la robotique domestique et la robotique de loisirs, mais aussi la robotique de terrain (field robotics) avec notamment la robotique agricole et les drones, ainsi que les robots d’inspection, de sécurité et de maintenance. Depuis quelques années, la robotique a conquis nos entrepôts logistiques. Deux nouvelles filières émergent avec force : celle des robots de nettoyage professionnel et celle des robots de relations publiques ou robots-guide. » (5)

Un besoin fondamental d’intelligence artificielle

« Depuis 2012, les investissements dans les startups spécialisées en intelligence artificielle ne cessent de croître, passant en 5 ans de 415 millions de dollars à 5 milliards de dollars […].

La Chine a communiqué en mai 2016, sur un programme de 3 ans comprenant la construction de plateformes pour l’innovation, l’engagement de projets majeurs dans différents secteurs (électroménager, automobile, robot), l’élaboration de politiques budgétaires de soutien et le développement de coopérations internationales. Dans le cadre de son plan Internet+ un fonds spécifique en intelligence artificielle de 140M€ est mis à disposition de l’Académie des sciences chinoise. Les acteurs du privé tels que Baidu investissent dans des centres de deep learning l’équivalent de plusieurs milliards d’euros.

Plus récemment, en octobre 2016, le gouvernement américain a rendu publics un rapport de diagnostic des avancées et des possibles applications de l’intelligence artificielle dans plusieurs domaines d’action, et un plan stratégique national de recherche et développement en intelligence artificielle. En décembre 2016, un troisième rapport est publié sur les conséquences économiques de l’intelligence artificielle et de l’automatisation.

Au Japon, l’ouverture de deux nouveaux centres de recherche en intelligence artificielle fondamentale et appliquée en 2016, avec des investissements respectifs de 57M€ et 157M€, témoigne de l’intérêt prioritaire du gouvernement japonais. Le Canada a de son côté réussi à attirer l’attention par la qualité de son tissu et de ses recherches appliquées, avec la création du pôle NextIA autour de trois universités piliers et un financement dédié. En février 2016, le Parlement européen a adopté un rapport préconisant de créer au plus vite un cadre juridique européen pour les robots. » (4)

Nous l’avons compris, la robotique nous fait entrer dans la quatrième révolution industrielle et pour qu’elle puisse tenir tous ses engagements d’un point de vue économique, il va falloir générer les algorithmes qui donneront « vie » à cette technologie – le développement de l’intelligence artificielle devient donc prioritaire. Et pour que les algorithmes puissent faire « battre le cœur » de ces machines, nous allons devoir récolter énormément de données avec un volume de stockage toujours plus grand (Cloud) et ainsi créer une consommation supplémentaire en énergie et en surface (6).

La France : une volonté d’être acteur

Rapport de synthèse #FranceIA

« Le développement puis l’adoption par le monde industriel de l’intelligence artificielle font de l’IA un élément clé de la quatrième révolution industrielle […]. Il s’agit en définitive de permettre à la France de tirer parti de tout le potentiel de croissance économique et de progrès social offert par l’intelligence artificielle, dans un contexte où la concurrence mondiale se durcit fortement et où l’intelligence artificielle devient aussi un enjeu politique et diplomatique.

En France, depuis plusieurs mois, de nombreux acteurs, des groupes de réflexion et des institutions se sont emparés des enjeux de l’intelligence artificielle. De nombreux document ou autres initiatives en résultent […]. L’identification des technologies clés de l’intelligence artificielle et le soutien à leur maîtrise par les laboratoires et les entreprises françaises est donc l’un des enjeux majeurs de ces 10 prochaines années […].

Pour soutenir la dynamique française autour de l’intelligence artificielle, le secrétaire d’État chargé de l’Industrie, du Numérique et de l’Innovation et le secrétaire d’État chargé de l’Enseignement supérieur et de la Recherche ont lancé, le 20 janvier 2017, la démarche #France IA. Cette démarche de mobilisation de toute la communauté française de l’intelligence artificielle a pour objectif principal l’élaboration d’une stratégie nationale destinée à confirmer la place de la France au premier plan de l’intelligence artificielle, tout en facilitant l’appropriation des technologies par le tissu économique et en répondant aux craintes souvent exprimées sur la rapidité de ces changements […].

La France dispose de chercheurs au meilleur niveau international dans tous les sous domaines de l’intelligence artificielle […]. Il n’y a pas dans la recherche amont une véritable présence des grands groupes industriels français ; cette recherche reste financée pour l’essentiel par des fonds publics. » (4)

Les résolutions

« De façon plus générale, le déploiement de l’intelligence artificielle dans les entreprises, qu’elles soient productrices ou utilisatrices d’IA, est directement dépendant de la disponibilité de données et d’infrastructures numériques permettant de les traiter, ainsi que de la confiance dans la pérennité de ces outils. L’usage des technologies de cloud computing est souvent présenté comme la solution, mais il pose deux défis majeurs :

– l’augmentation des puissances de calcul nécessaires et dédiées à l’apprentissage machine ;
– la disponibilité d’un cloud maîtrisé, français ou européen, pour garantir la sécurité des données qui y sont déposées et traitées. […]

L’impact de l’intelligence artificielle sur sept segments d’activité a plus particulièrement été étudié dans le cadre de l’initiative France IA : la construction automobile, avec le véhicule autonome, la problématique de la relation client, le secteur de la finance, celui de la santé, des énergies renouvelables, de la robotique et de l’éducation numérique. […] Le besoin croissant de solutions basées sur des technologies d’intelligence artificielle fait apparaître la nécessité de former davantage d’experts et de chercheurs dans les domaines scientifiques sous-jacents. » (4)

Nous constatons que la France s’engage dans la quatrième révolution industrielle avec un maximum d’ambition et de lucidité. Il est vrai qu’à travers le réel enjeu économique de l’intelligence artificielle c’est surtout la crainte de devenir dépendant des états souverains qui pousse à l’action.

Prenant en compte la situation mondiale sur les technologies basées sur les algorithmes, la France veut devenir leader du marché en conservant ses cerveaux et en proposant des financements pour le développement de ses startups et grandes entreprises. Mais au-delà de l’aspect financier ce sont les risques éthiques de l’utilisation de l’intelligence artificielle sur la société qui animent le débat.

En effet, le rapport #FranceIA soulève de nombreux points sur les dangers de l’utilisation de cette technologie algorithmique pour une population non préparée :

protection : faciliter l’accès aux données par des blockchains, le stockage des données (cloud) et encourager le recours à l’intelligence artificielle pour l’abreuver de données sont des risques importants de voir nos données personnelles utilisées de manière frauduleuse ou à l’encontre de nos propres intérêts.
formation : dans l’ensemble, la qualité de la formation initiale en intelligence artificielle en France, au niveau master, semble répondre aux attentes des entreprises au regard du niveau d’expertise atteint. Cependant, le vivier ainsi formé suffit à peine à combler les besoins des startups et des grands groupes actifs dans le domaine.
économie : […] risque de nouvelles dépendances économiques, vis-à-vis de détenteurs de certaines technologies critiques ou, ce qui est plus nouveau, de détenteurs de gros volumes de données.
emploi : s’agissant de l’emploi total, sujet qui suscite le plus de craintes, force est de constater que l’impact de l’intelligence artificielle (et plus généralement du numérique) reste incertain, les études disponibles fournissant des résultats contradictoires.
société : il est possible par exemple que, si l’on n’y prend pas garde, une diffusion inégale des technologies sur le territoire ou les mutations engendrées sur le marché de l’emploi ne renforcent une polarisation du développement des usages au bénéfice des métropoles.

Un avenir fait d’algorithmes et de doutes

En France, en janvier 2017, le rapport Mady Delvaux (7) est publié. Il contient des recommandations concernant des règles de droit civil sur la robotique. Puis c’est en juin 2017 que la CERNA (8) communique une étude sur l’éthique de la recherche en apprentissage machine. Elle vise à sensibiliser et rendre vigilants les chercheurs sur les risques de l’intelligence artificielle : « En effet les chercheurs doivent avoir à l’esprit que leurs travaux contribuent de facto à transformer la société et peut-être l’Homme, comme l’ont fait beaucoup d’outils et de techniques depuis des millénaires, même si ce processus n’est pas toujours prévisible. » (9)

On constate que la France mesure avec importance les problèmes éthiques liés à la numérisation de notre société. On observe aussi que l’ensemble des pays riches font cap, toutes voiles dehors, vers une bataille que cette quatrième révolution industrielle va générer. Nombre d’études sur les risques d’une utilisation massive du numérique dans la vie de tous les jours ont été réalisées dans le but de sensibiliser et d’informer les institutions et les citoyens.

Cependant, en analysant la situation, nous pouvons relever que ces manifestes identifient comme citoyens, ceux dont l’intérêt ou la connaissance des technologies numériques est essentiellement tournée vers l’industrie et la consommation. Les pays impliqués dans le développement du numérique, qui imposent par leurs textes les sujets éthiques, représentent une toute petite partie de la population mondiale (environ 10%) (10) et bon gré mal gré nous en faisons partie.

Nous déciderons ainsi de comment sera fait notre monde, sans prendre en considération les modes de vie de nos concitoyens : l’éthique a subitement un goût un peu plus amer pour les 90% restants. Toutefois, les pays riches commencent à prendre réellement conscience des risques de l’ultra-numérisation. Cette démarche aurait dû être entreprise il y a plus de dix ans afin qu’un cadre soit adopté aujourd’hui. Cela fait une décennie que le numérique explose sans cadre institutionnel et les décideurs ont un sérieux train de retard sur la vision de l’impact qu’auront ces technologies sur nos vies – demain est déjà là !

Le manque de profondeur sur l’appréhension des impacts et des risques est significatif (climat, énergie, emploi, condition de vie, etc.). La précipitation des états à régir des textes ne leur permet pas d’aboutir à des recommandations sérieuses et exhaustives et cela ira à l’encontre de notre libre arbitre – dans la crainte de ne pas contrôler leur environnement, les mesures restrictives risquent de pleuvoir. De notre moteur de recherche préféré à l’acceptation d’un prêt immobilier en passant par le véhicule autonome, nous voilà désormais conditionnés par les algorithmes. Ils font parties de nos vies sans même que nous nous en rendions compte mais lorsque la robotique commencera à peser sur notre quotidien (marché de l’emploi, propriété intellectuelle, droit, etc.) et lorsque nos négligences sur le climat et sur le reste de la population mondiale referont surface, 2027 nous paraîtra moins fantastique.

Alors, pourquoi consacrer autant d’énergies au développement de l’intelligence artificielle et à l’ultra-numérisation de notre environnement sous couvert d’une révolution industrielle ? Ne pourrions-nous pas utiliser cette technologie à d’autres fins : psychologie humaine, environnement, pauvreté, etc. ?

Nicolas Bernard
Diplômé de l’École des applications militaires de l’énergie atomique (EAMEA). Après une longue carrière dans les forces sous-marines de la Marine Nationale en tant qu’atomicien, Nicolas travaille comme chargé d’affaires en industrialisation militaire pour le groupe DCNS. Il nous propose des articles d’opinions sur des questions importantes en matière de transhumanisme, post humanisme et d’intelligence artificielle.

Notes :

(0) La thèse de Church-Turing, Olivier Bournez (LIX, CNRS, École Polytechnique)
(1) Turing, A.M. (1950). Computing machinery and intelligence. Mind, 59, 433-460
(2) Dartmouth Artificial Intelligence (AI) Conference
(3) De l’avoir à l’être, le chemin de sagesse, Patrice Brasseur
(4) #FranceIA – Rapport de synthèse France Intelligence Artificielle
(5) Quelques chiffres : La robotique industrielle et la robotique de services – Innorobo Community
(6) Le cloud, les data centers et l’énergie
(7) Rapport Mady Delvaux
(8) CERNA
(9) Éthique de la recherche en apprentissage machine, édition provisoire, juin 2017 – CERNA
(10) La répartition du patrimoine dans le monde – L’Observatoire des inégalités
(11) Industrie 4.0, wikipedia

Biotechnologies : l’édition du gène humain pour la reproduction

En France, l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST), a très récemment lancé une réflexion via une saisine sur « les enjeux économiques, environnementaux, sanitaires et éthiques des biotechnologies à la lumière des nouvelles pistes de recherche ». Mardi 28 mars 2017, l’Office a adopté le rapport présenté par M. Jean-Yves le Déaut, député, et Mme Catherine Proccacia, sénateur.

Le rapport a étudié la recherche en biotechnologies, les applications des nouvelles biotechnologies à la médecine humaine, les applications à l’environnement, les applications agricoles dénommées « nouvelles techniques de sélection », les enjeux juridiques et sécuritaires et l’évaluation des risques et les conditions du débat public.

Extrait :

→ Les rapporteurs se prononcent contre un moratoire des recherches sur les techniques de modification ciblée du génome. Ils demandent que la stratégie nationale de recherche (SNR) consacre une plus grande priorité aux biotechnologies.

→ Les rapporteurs estiment qu’il faut continuer les recherches, qu’un moratoire n’est ni souhaitable, ni possible. Il n’est cependant pas acceptable de modifier la lignée germinale humaine pour l’améliorer ou l’« augmenter », selon les thèses transhumanistes. Beaucoup de chercheurs pensent que, lorsque ces technologies seront sûres, il sera difficile d’interdire des modifications héréditaires du génome humain, au cas par cas, afin de soigner une maladie grave ou incurable. Cette décision devra être prise après une nécessaire concertation élargie avec la société civile. OMS et UNESCO devraient s’entourer d’un comité permanent d’experts sur le modèle du groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), qui aurait pour mission d’évaluer le degré de maturité des nouvelles thérapies géniques, d’en apprécier les enjeux sanitaires et éthiques et de proposer des lignes directrices. En France, les règles de sécurité et d’éthique sont suffisantes, il n’est pas nécessaire de créer des règles spécifiques pour évaluer ces techniques de modification ciblée du génome humain. Le réexamen de la loi de bioéthique prévu en 2018 doit être l’occasion de poser la question du transfert mitochondrial.

→ Nous nous prononçons donc pour la continuation des travaux et expériences de modifications génétiques de moustiques, en prenant en compte la balance entre les risques éventuels pour l’environnement et les bénéfices en termes de lutte contre des maladies humaines occasionnant des centaines de milliers de morts chaque année. Par contre, nous demandons l’instauration d’un mécanisme de réversibilité en cas d’effet non désiré et nous nous opposons à tout projet d’extinction d’une espèce vivante. Enfin un dialogue entre les pays du nord, détenteurs des technologies, et du sud, qui subissent les maladies, doit être organisé dans le cadre de l’OMS.

→ Les conclusions des académiciens français rejoignent celles des académies américaines des sciences et de médecine dans le rapport « La modification ciblée du génome humain : science, éthique et gouvernance » de février 2017 : les plantes génétiquement modifiées ne portent pas atteinte à la biodiversité, bien au contraire car elles limitent l’usage des pesticides qui eux détruisent tous les insectes sans distinction ni sélectivité.

→ Les rapporteurs demandent le soutien des recherches françaises sur les biotechnologies blanches (aussi appelées biotechnologies de l’industrie ou biotechnologies industrielles) par le programme d’investissements d’avenir PIA3 et la stratégie nationale de recherche (SNR).

→ Les rapporteurs soutiennent le développement des nouvelles techniques de sélection végétale, qui se fera de toute façon en dehors de l’Europe. Ils estiment qu’elles ne sont pas des OGM au sens de la directive européenne n° 2001/18. Ils proposent dans un tableau ci-joint une règlementation de ces nouvelles biotechnologies. Il serait aberrant que des techniques plus précises que les mutations spontanées ou que celles utilisant des technologies aléatoires de la mutagénèse (exemptées de procédure lourde d’évaluation par l’EFSA) soient soumises à des procédures d’évaluation identiques à celles de la transgénèse. Il faut adapter les évaluations aux risques encourus.

→ Les rapporteurs se prononcent pour un classement rapide des nouveaux cépages dans le catalogue officiel, afin de procéder à leur exploitation commerciale. Ils estiment que l’utilisation des techniques de modification ciblée du génome permettrait d’étendre les traits de résistance aux autres cépages, comme ceux utilisés dans le champagne ou le cognac, sans attendre vingt années de sélection classique.

→ Les rapporteurs se prononcent pour la poursuite des recherches et le renforcement de la biovigilance des huîtres. Ils estiment que la coexistence des différentes façons de cultiver des huîtres, écloserie-nurserie et ostréiculture traditionnelle, n’est pas menacée par les huîtres triploïdes. Ils souhaitent le développement des biotechnologies dans le secteur de l’ostréiculture, afin de mieux connaître la biologie des huîtres et pouvoir faire face aux risques que constituent les virus, les changements climatiques ou les pollutions marines.

→ Nous souhaitons donc que l’Union européenne et les États membres soutiennent d’avantage en matière de sélection végétale un système d’innovation ouvert, adossé au certificat d’obtention végétale (COV). C’est le seul système qui favorise la recherche et valorise les ressources génétiques. Il faut trouver un juste milieu entre un système très contraignant de domination de grosses firmes agro-chimiques et un système alliant producteurs, État et industrie semencière, qui contrôle la propriété intellectuelle et soutient la recherche.

→ S’agissant du premier point, nous estimons qu’en France, comme dans les autres pays européens et occidentaux, les règles relatives aux laboratoires de recherche sont suffisamment sûres et que l’arrivée de CRISPR-Cas9 ne justifie pas un renforcement les règles de sécurité.

→ La biosécurité des nouvelles biotechnologies peut effectivement constituer une menace qui doit être appréhendée aux niveaux européen et international, Nous préconisons un renforcement de la coordination des travaux de recherche civile et militaire, avec des moyens accrus sous le contrôle des parlementaires de l’OPECST et des commissions de la défense des deux assemblées.

→ Les rapporteurs pensent qu’une meilleure coordination des rôles assignés en France au HCB et à l’ANSES pourrait optimiser l’efficacité du dispositif. Il n’est pas souhaitable de laisser perdurer ces querelles qui nuisent à la crédibilité de cette filière. Ils recommandent le transfert de toutes les missions confiées aujourd’hui au CS du HCB à l’ANSES, agence qui dispose d’une expertise reconnue en termes d’évaluation des risques et qui, de surcroît, bénéficie de l’appui technique d’une administration. Le HCB sera constitué d’un collège unique reprenant les compétences de l’actuel CEES, notamment en organisant le débat entre tous les acteurs, en faisant un état de l’évaluation sanitaire et environnementale, y compris en gérant les retours d’expérience en France et dans l’Union européenne, en évaluant les données sur la biovigilance et en proposant des évolutions éventuelles de l’encadrement réglementaire.

→ Les rapporteurs estiment qu’il faut engager dès maintenant le débat public sur les nouvelles biotechnologies, même si elles sont encore à un stade expérimental, faute de quoi il risquerait d’être confisqué par leurs opposants systématiques aux modifications du génome. Nos concitoyens ont droit à une information complète, ils doivent pouvoir être entendus et contribuer au débat, avant que les décisions ne soient prises. Les rapporteurs soulignent la nécessité d’un débat public renouvelé avec une approche pluridisciplinaire et dans toutes les instances possibles : académies, Comité consultatif nationale d’éthique (CCNE), centres de recherche, presse…

Rapport [édition provisoire]

Résumé du rapport

 

Où se cachent les nanos ? Démystifier les nanotechnologies

Nadia Capolla est docteure en physique. Elle compte plus de 20 ans d’expérience industrielle en optique, photonique et nanotechnologie. Elle est présentement au service d’une société de valorisation de la recherche universitaire.

Bien qu’on entende le mot nanotechnologie de plus en plus fréquemment, sa signification demeure encore nébuleuse pour la plupart des gens. Que sont les nanos ? D’où viennent-elles ? Où se cachent-elles ?

Voici un ouvrage qui répond à ces questions de façon accessible, rigoureuse et objective. On y explore avec simplicité l’univers des nanotechnologies afin de dévoiler quelques-unes de ses nombreuses facettes. Ce livre explique les bases nécessaires pour comprendre le monde des nanosciences.

On y apprend que des nanostructures existent déjà dans la nature et que l’être humain crée des nanoparticules depuis longtemps.

On y présente quelques instruments conçus pour littéralement « voir » les atomes et développer des nanostructures avec une précision inégalée.

On y explore plusieurs domaines d’application des nanotechnologies, le tout accompagné d’exemples de réalisations québécoises prometteuses en la matière.

Ce livre plaira autant au grand public curieux qu’aux étudiants et aux industriels désireux de se familiariser avec le sujet. Une belle invitation à découvrir les nanotechnologies !

Roger Lenglet : Nanotoxiques et Menace sur nos neurones

Infléchir le futur ? Le transhumanisme comme auto-transcendance

Vincent Guérin, International Psychology, Practice and Research, 6, 2015


Résumé : Comment le transhumanisme oriente-t-il notre futur ? Entre l’eschatologie de la singularité technologique et la société de l’abondance promise par les nouvelles technologies (NBIC), il s’agit de saisir l’émergence et la diffusion d’une transcendance opératoire, son « inquiétante étrangeté ».


« The best way to predict the future is to create it yourself. » (17e loi de Peter H. Diamandis)

Introduction

Dans cet article, nous allons nous intéresser à la « communauté » des « singularitariens » de la Silicon Valley (Grossman, 2011). Deux de ses figures, Ray Kurzweil et Peter H. Diamandis ont créé, en 2008, l’université de la singularité. Son ambition : préparer l’humanité au changement induit par une accélération technologique à venir annoncée comme foudroyante. Cette entreprise qui prépare l’avenir tout en favorisant leurs ambitions. Au final, il s’agit d’explorer le tissage des forces en présence, mais aussi la réthorique utilisée par les « ingénieurs » singularitariens pour stimuler, orienter des recherches « stratégiques » devant favoriser leurs desseins. Sont-ils en mesure d’infléchir le futur, le faire advenir ?

Pour lire la suite, télécharger le PDF

Sommaire :

La singularité technologique : enfer ou âge messianique ?

L’Université de la singularité

La possibilité de l’abondance

Conclusion

Bibliographie

Le prix Nobel de Physique hongrois Dennis Garbor affirme que « tout ce qui est techniquement faisable doit être réalisé, que cette réalisation soit jugée moralement bonne ou condamnable » (Gabor, 1973) ⇒ Le transhumanisme : Ce qui est possible est-il toujours souhaitable ?

 

Nanosciences : les enjeux d’une remise en cause

par Marie-Gabrielle Suraud et Camille Dumat · Publication 01/06/2015 · Mis à jour 05/04/2016

Depuis les années 1970, dans la plupart des pays industrialisés, on observe une montée de la contestation des risques « environnement-santé », portée notamment par des associations. Cependant, les revendications du mouvement associatif ont connu des évolutions sensibles. Ainsi, les associations traditionnellement engagées sur ce thème souhaitent désormais participer à l’élaboration des politiques de recherche et non plus intervenir après coup pour tenter de contrôler les développements technologiques et leurs applications.

Ces politiques de recherche deviennent ainsi progressivement un enjeu de démocratisation pour l’opinion publique, suggérant de nouvelles formes d’articulation entre la société civile et la sphère de la recherche. La contestation récente des nanotechnologies – qui prend de l’ampleur en France depuis 2005 – contribue d’ailleurs à renforcer l’idée d’une participation citoyenne aux programmes scientifiques. Au sein du mouvement « anti-nanos », cette revendication fait progressivement son chemin, emportant l’adhésion d’un nombre toujours plus élevé d’associations, notamment environnementalistes.

La mise en question des politiques de recherche par des mouvements de lutte contre les risques « environnement-santé » est en fait bien antérieure à la contestation des nanotechnologies. Déjà, au tournant des années 2000, les mobilisations contre les biotechnologies et les OGM avaient ouvert la voie à l’idée « de faire entrer les sciences en démocratie ». Plusieurs associations plaçant la question des politiques de recherche au cœur de leurs démarches s’étaient alors créées, telles que la Fondation Sciences Citoyennes (2003), Science et Démocratie (2005), Vivagora (2003 ), ou encore Avicenn (2011).

En 2010, la force des revendications vis-à-vis de la science était telle que le Ministère de l’Ecologie avait ouvert le programme de réflexion REPERE (Recherche et Expertise pour Piloter Ensemble la Recherche et l’Expertise) sur les possibilités d’associer des citoyens aux recherches menées dans les laboratoires et/ou d’intégrer des citoyens dans les instances de la recherche. Le Ministère parlait alors de « co-pilotage de la recherche ».

Comment comprendre et interpréter cette volonté des associations d’avoir un droit de regard sur les programmes de recherche ? En quoi le mouvement « anti-nanos » a-t-il contribué à étendre et renforcer cette revendication ? Malgré l’adhésion d’un grand nombre d’associations à l’idée d’un co-pilotage, malgré l’engagement de l’Etat pour mener la réflexion, ce projet de démocratisation ne se réalise cependant pas sans conflit ni opposition. D’où viennent ces désaccords ?

Comment s’est élaborée « l’acceptabilité sociale » des nanotechnologies  → Roger Lenglet : Nanotoxiques et Menace sur nos neurones

Les nanosciences et nanotechnologies (d’après le grec νάνος nain), ou NST, peuvent être définies a minima comme l’ensemble des études et des procédés de fabrication et de manipulation de structures (électroniques, chimiques, etc.), de dispositifs et de systèmes matériels à l’échelle du nanomètre (nm), ce qui est l’ordre de grandeur de la distance entre deux atomes.

Les NST présentent plusieurs acceptions liées à la nature transversale de cette jeune discipline. En effet, elles utilisent, tout en permettant de nouvelles possibilités, des disciplines telles que l’optique, la biologie, la mécanique, microtechnologie. Ainsi, comme le reconnaît le portail français officiel des NST, « les scientifiques ne sont pas unanimes quant à la définition de nanoscience et de nanotechnologie ».

Les nanomatériaux ont été reconnus comme toxiques pour les tissus humains et les cellules en culture. La nanotoxicologie étudie les risques environnementaux et sanitaires liés aux nanotechnologies. La dissémination à large échelle de nanoparticules dans l’environnement est sujette à des questions éthiques.

Les nanotechnologies bénéficient de plusieurs milliards de dollars en recherche et développement. L’Europe a accordé 1,3 milliard d’euros pendant la période 2002-2006. Certains organismes prétendent que le marché mondial annuel sera de l’ordre de 1 000 milliards de dollars américains dès 2015.

Réguler les technologies ou contrôler la recherche ?

Bien que la contestation des nanotechnologies s’inscrive dans l’expérience sociale des risques techno-industriels (nucléaire, amiante, OGM…), les spécificités liées aux « nanos » expliquent en partie que les mouvements « anti » se soient focalisés sur une remise en cause de la science et en particulier des nanosciences.

Une de leurs particularités est d’embrasser un spectre très large de domaines : la production de matériaux, la surveillance des comportements, les biotechnologies et la transformation du vivant… Ainsi, la société civile est confrontée non pas à une activité identifiée – comme c’est le cas pour les OGM ou le nucléaire – , mais à un large éventail de projets en termes d’application technologiques et de commercialisation de produits : médicaments, textiles, cosmétiques, alimentation, électronique, informatique…

Certes, à ce jour, les innovations n’en sont encore souvent qu’au stade de la pré-industrialisation, car leur commercialisation doit passer l’épreuve du principe de précaution issu du règlement européen REACH (Registration, Evaluation, Authorization of CHemical Substances). Cependant, l’idée qu’un point de non-retour pour la santé et l’environnement pourrait être rapidement atteint si la commercialisation des nano-produits devait s’étendre, incite les associations à traiter le problème le plus en amont possible, en demandant le contrôle des recherches. Elles craignent en effet que toute démarche d’interruption des nano-produits, une fois ceux-ci commercialisés, soit inopérante et vouée à l’échec. Plusieurs travaux – dont ceux de l’Américain Kitcher dans le domaine de la génomique – montrent en effet que la mise en œuvre a posteriori de mesures de contrôle des produits et des technologies commercialisés est peu efficace. C’est d’autant plus le cas avec les « nanos » qui sont, faute d’étiquetage généralisé, difficilement décelables dans les différents produits de consommation dans lesquels ils sont intégrés. L’exigence d’un droit de regard des citoyens sur la recherche en nanosciences s’explique donc notamment par la crainte d’une trop faible capacité de contrôle de la commercialisation des nano-produits.

  • Laurent B., 2010, Les politiques des nanotechnologies : pour un traitement démocratique d’une science émergente, Paris : ECLM.
  • Kitcher P., 2010, Science, vérité et démocratie, Paris : PUF, 344 p.

S’entendre ou se diviser ?

Cependant, bien que les associations s’accordent pour demander une démocratisation des politiques de recherche, la mise en pratique de ce principe fait débat et divise. Une double difficulté apparaît : d’une part, les associations ne s’entendent pas sur les formes que pourrait prendre la démocratisation des politiques de recherche, d’autre part, les chercheurs eux-mêmes s’opposent à cette démarche :

– « Démocratiser » les politiques scientifiques : des associations divisées : deux types de tensions traversent les associations. D’une part, les désaccords sont relatifs au statut et au rôle à accorder à la recherche scientifique dont on ne sait quelle dimension sociétale privilégier : source d’émancipation ou facteur de risques ? Le fait que ces dimensions apparaissent souvent inextricablement mêlées (comme c’est le cas pour les recherches en santé) freine l’émergence de positions consensuelles dans la société civile. Certaines associations ont même demandé un moratoire sur la recherche en nanosciences, allant jusqu’à exiger l’arrêt total des recherches : on pense notamment à la demande portée en 2010 par Les Amis de la Terre lors du débat de la Commission Nationale du Débat Public.

D’autre part, trois solutions sont envisagées par les associations pour mettre en pratique la démocratisation de la recherche :

  1. créer des dispositifs de concertation publique accordant une large place aux citoyens et dédiés aux réflexions sur les politiques scientifiques ;
  2. mettre en place des partenariats citoyens-chercheurs pour mener des recherches en laboratoire, notamment sur des sujets jugés sensibles, tels que les recherches en toxicologie, éco-toxicologie, épidémiologie, etc ;
  3. intégrer directement des citoyens dans les instances nationales et locales de pilotage de la recherche, et notamment les instances ayant la charge de répartir les financements des laboratoires et des projets de recherche. Ces trois réponses sont loin d’être équivalentes en termes d’association des citoyens à la sphère scientifique. Elles déclinent en fait des modes d’articulation entre la société civile et la sphère scientifique plus ou moins contraignants pour la recherche.

– « Co-piloter la recherche » : des chercheurs en opposition : au-delà des désaccords entre les associations, l’opposition d’une partie des scientifiques à l’idée d’ouvrir les instances de la recherche et les laboratoires aux citoyens freine ce mouvement de démocratisation de la science. Cette position des chercheurs constitue une rupture. En effet, dans les années 1970, les mouvements qui interrogent le rapport sciences/société ne manifestent guère de clivages ou de tensions entre les chercheurs et le tissu associatif. D’une part, les contestations prennent le plus souvent leur source dans le milieu scientifique lui-même : physiciens nucléaires, généticiens, biologistes (…) se mobilisent contre certains développements scientifiques et technologiques. D’autre part, les associations se limitent à la demande d’un simple décloisonnement de la recherche passant par des actions de vulgarisation, de valorisation ou de diffusion de l’information scientifique.

Avec la montée de l’exigence d’un co-pilotage de la recherche, un pas est franchi. Le principe « d’indépendance de la recherche » exprimé par les chercheurs eux-mêmes, devient un motif de clivage entre les chercheurs et le tissu associatif. Le fossé se creuse alors entre eux, malgré une critique commune des rapports de plus en plus étroits entre la science et le pouvoir ou la science et le marché.

  • Miège B., Vinck D., coord., 2012, Les masques de la convergence. Enquêtes sur sciences, industries et aménagements, Paris : Editions des Archives contemporaines, 296 p.
  • Gaudilliere J.-P., Bonneuil C., 2001, « A propos de démocratie technique », Mouvements, n°18, 73-80.

Avec le mouvement contre les nanos, la critique des politiques de recherche a échappé aux chercheurs et a fragilisé la « coopération » antérieure entre associatifs et chercheurs. Les contestations des nanos ont ainsi fait émerger un clivage entre chercheurs et associatifs non-chercheurs qui prend sa source dans les contours d’une exigence de co-pilotage de la recherche. De façon plus générale, se pose la question de la concordance entre activités de recherche produisant des connaissances scientifiques et valeurs civiques qui tendent à se placer au-dessus des autres activités sociales dites « matérielles ».

Un carnet de recherche proposé par Hypothèses

Face à l’anthropologie de l’imposture

Discours académique de la séance solennelle de l’Institut de Théologie Orthodoxe Saint-Serge de Paris

Dimanche 8 février 2015, Par le R.P. Jean Boboc, professeur de Bioéthique

télécharger le PDF

Extrait :

L’antihumanisme des humanistes des Lumières, comme l’a si bien démontré le professeur Xavier Martin (Voltaire méconnu. Aspects cachés de l’humanisme des Lumières (1750-1800) ; L’homme des droits de l’homme et sa compagne (1750-1850). Sur le quotient intellectuel et affectif du ‘bon sauvage’ ; et dans « Le tribut des Lumières à la bioéthique », allié au culte de la raison, a généré le biotope propice à la floraison d’une anthropologie de l’émancipation et de l’autonomie humaine, renonçant au modèle chrétien de l’anthropologie révélée. Peut être, est-ce là, la première grande imposture éthique à laquelle se sont ralliés les bons esprits du XVIIIe siècle et les médecins philosophes qui voulaient recréer l’homme dans une apostasie civilisationnelle et précurseur du transhumanisme aujourd’hui déjà à l’œuvre et annonçant le post-humain. De l’homme-machine de Julien Offray de La Mettrie, dont le titre plaisait tant à Voltaire, on en vient la machine-homme.

[…]

Le professeur Testart, l’un des pères du premier bébé-éprouvette français, reconnaissait que « chaque pas plus permissif que le précédent, est logiquement argumenté ». Il en est de même dans le transhumanisme où « Pas à pas, année après année, petite transgression indolore par petite transgression indolore, notre transhumanité toujours plus technophile pourrait se faire à l’idée de la posthumanité », comme le souligne le neurobiologiste Laurent Alexandre.

Conférence organisé par le Cercle de l’Aréopage sur le Transhumanisme

Le Transhumanisme : toute la vérité sur le posthumain

Par Père Jean Boboc, Docteur en Médecine de la Faculté de médecine de Paris. Titulaire de différentes spécialités médicales et en particulier de Pharmacologie et Toxicologie cliniques, le 15 février 2016

Anthropologie : Cours de propédeutique, questions anthropologiques et bioéthiques

Association culturelle catholique Cercle de l’Aréopage


Père Jean Boboc Professeur de Bioéthique : Ordonné prêtre le 10 mai 2009, par son Éminence le Métropolite Joseph dans l’Église des saints Archanges Mihaï, Gavriil et Rafaïl, devenue le jour même Cathédrale métropolitaine de la métropole orthodoxe roumaine d’Europe occidentale et méridionale par la décision à l’unanimité de la communauté roumaine de se rattacher désormais à la Métropole et de mettre fin à 60 ans de séparation entre la communauté de l’exil et l’Église mère, le père Jean Boboc a été ordonné pour cette cathédrale. Prêtre économe stavrophore, le  père Jean est le troisième prêtre de la cathédrale.

Français d’origine roumaine, le père Jean Boboc est Docteur en médecine de la Faculté de médecine de Paris. Titulaire de différentes spécialités médicales et en particulier de Pharmacologie et Toxicologie cliniques, il a partagé sa vie professionnelle entre la pratique praticienne et la recherche appliquée. Titulaire d’un MBA dans l’administration des affaires, il a dirigé différentes firmes pharmaceutiques comme président et en particulier aux Etats Unis et au Canada, ce qui l’a familiarisé aux problèmes éthiques de la recherche médicale.

Parallèlement, le père Jean a mené une vie active dans l’Exil roumain en France et en Amérique du Nord. Président fondateur de l’AFDOR (Association des Français d’Origine Roumaine) et de la BRP (Bibliothèque Roumaine de Paris), associations particulièrement utiles durant la guerre froide, le père Jean a donné de nombreuses conférences des deux côtés de l’Atlantique, sur la situation historique roumaine et en particulier sur la question des territoires de Bessarabie et de Bucovine, annexés par l’Union soviétique et toujours occupés ou annexés. Il a de même écrit sur ce sujet de nombreux articles et participé à des ouvrages collectifs traitant de ces questions. Un recueil de certains écrits politiques de Mihaï Eminescu, traduits en français, est d’ailleurs attendu.

Sous l’influence de Mircea Eliade, le père Jean a parallèlement à ses études médicales, suivi les cours de l’ISTR (Institut de Science et de Théologie des Religions) de l’Institut catholique de Paris. De retour des Etats Unis, il rejoint l’Institut de Théologie Orthodoxe Saint-Serge, où il obtient une licence et un master de théologie orthodoxe, et où il doit soutenir bientôt une thèse de doctorat sur les aspects eschatologiques de l’anthropologie orthodoxe. Un Essai d’anthropologie orthodoxe est aussi en cours de rédaction.

Co-traducteur des œuvres théologiques du père Dumitru Staniloae, le père Jean Boboc s’intéresse essentiellement aux aspects pneumatiques et eschatologiques de l’anthropologie orthodoxe et à leur impact sur les sciences de la vie, et donc aux questions brûlantes de la bioéthique actuelle.

Il est doyen du Centre Orthodoxe d’Etude et de Recherche “Dumitru Staniloae” et responsable de la direction Anthropologie, Éthique et Sciences de la vie dans le cadre du Centre.

cours et conférences

Roger Lenglet : Nanotoxiques et Menace sur nos neurones

Menace sur nos neurones. Alzheimer, Parkinson… et ceux qui en profitent

Pourquoi les cas de maladies neurodégénératives sont-ils en recrudescence, et pourquoi les malades sont-ils de plus en plus jeunes ? Les substances toxiques qui agressent nos organismes quotidiennement sont identifiées, mais pas interdites… À qui profite le crime ? Études et enquêtes rigoureuses à l’appui, les auteurs démontent le mécanisme d’un “effet d’aubaine” ignoble et proposent des solutions à cette crise sanitaire.

J’ai entrepris cette enquête pour savoir si oui ou non les nanos représentent un danger pour le vivant. » Roger Lenglet

Nanotoxiques, une enquête

Les produits contenant des nanoparticules envahissent notre quotidien. Invisibles à l’œil nu, ces nouvelles molécules hightech laissent parfois deviner leur présence par les accroches publicitaires : aliments aux “saveurs inédites”, “cosmétiques agissant plus en profondeur”, “sous-vêtements antibactériens”, fours et réfrigérateurs “autonettoyants”, articles de sports “plus performants”, et armes plus destructrices…
Sans cesse, les ingénieurs en recherche et développement inventent de nouvelles applications des nanos qui sont commercialisées sans le moindre contrôle, au mépris de la réglementation les obligeant à tester la toxicité des substances avant de les vendre. Or, il s’avère que ces nanoparticules sont souvent redoutables – elles sont si petites que certaines peuvent traverser tous les organes, jouer avec notre ADN et provoquer de nombreux dégâts.
Grâce à son enquête aussi rigoureuse qu’explosive, Roger Lenglet a retrouvé les principaux acteurs des nanotechnologies. Il livre ici leurs secrets et les dessous de cette opération menée à l’échelle planétaire qui, avec le pire cynisme, continue de se déployer pour capter des profits mirobolants au détriment de notre santé.
Avec ce premier livre en français sur la toxicité des nanoparticules, Roger Lenglet tente de prévenir un nouveau scandale sanitaire d’une ampleur inimaginable.

Introduction

Les nanotechnologies fascinent. Dans un premier temps, j’ai moi-même été stupéfié par leurs prouesses : elles sont à l’origine de matériaux aux propriétés extraordinaires, des produits cent fois plus résistants que l’acier et six fois plus légers, plus conducteurs ou plus isolants que tous ceux connus à ce jour, plus résistants à la traction, au feu, au froid ou à l’abrasion… Bref, elles paraissent miraculeuses. Les nanotechnologies ont la particularité d’estomper les frontières de la physique, de la chimie et de la biologie. À travers elles, les sciences vont se fondre en une seule, prédisent les ingénieurs. Ils nous promettent un “big-bang” technico-scientifique. Mais devant les choses fascinantes, il faut garder son sang-froid.
J’ai entrepris cette enquête pour savoir si oui ou non les nanos représentent un danger pour le vivant. Il m’a semblé nécessaire d’examiner d’abord l’histoire de cette course folle des industriels pour laquelle les gouvernements ne voulaient pas être en reste et de pénétrer dans les coulisses des décisions. L’enjeu est financier, bien sûr, et nous verrons combien il pèse, mais pas seulement. Chacun cherche à devenir le leader de cette technologie de pointe, et nous allons voir que le volet militaire y joue un rôle considérable, à l’instar de ce qui a fait la fortune du nucléaire.

Les nanotechnologies sont entrées dans nos vies en catimini. Nous voilà devant le fait accompli. Les nanomatériaux sont ajoutés dans de nombreux aliments pour leur donner des saveurs et des textures inédites, dans des cosmétiques pénétrant plus en profondeur sous la peau, dans des textiles “intelligents”, des produits de construction se moquant des intempéries, des fours anéantissant les graisses, des articles sportifs plus souples et plus résistants… Les firmes pharmaceutiques les intègrent aussi de plus en plus dans les pansements et promettent des médicaments censés traverser toutes les barrières organiques comme des vaisseaux intergalactiques pour apporter leur précieux chargement dans les “cellules cibles”.
Peu d’entre nous savent qu’environ 2 000 applications différentes sont déjà commercialisées. Séduits par le marketing vantant les performances des produits, nous ignorons qu’elles sont dues à la présence de nanomatériaux. Encore rares en effet sont ceux qui ont pris conscience de l’invasion de notre quotidien par les nanotechnologies. L’étiquetage ne les signalait pas encore en 2013, les lobbies industriels arguant qu’ils n’étaient pas encore prêts et les instances européennes accumulant les retards.

Dans cette situation, il est devenu urgent de connaître les risques pour notre santé. Pour y parvenir de façon sérieuse, il a fallu enquêter, creuser, trouver des documents, remonter aux sources vers des études peu divulguées, des rapports d’assureurs, des avertissements restés discrets. Il est vrai, les enjeux économiques sont non seulement gigantesques mais cachent souvent aussi de vastes opérations de détournements et de mensonges.
Nous allons voir que, très tôt, les États ont dépensé des sommes exorbitantes. Dès les années 1980, des pays européens ont lancé des programmes de subvention pour la recherche et le développement des nanos. Outre-Atlantique, à la fin des années 1990, Bill Clinton et Al Gore mettaient sur pied la National Nanotechnology Initiative (NNI), un énorme programme de subventions annuelles aux industries pour “ne pas rater le tournant historique le plus impressionnant de tous les temps”. Ils débloquaient près d’un demi-milliard de dollars pour l’année 2000, et ce n’était qu’un début. Les grands groupes économiques (Procter & Gamble, IBM, Coca-Cola, Danone, Total, Areva et cent autres) se sont lancés à corps perdu…
Cette enquête nous mènera au cœur des laboratoires de toxicologie et des instances de santé publique. Chose incroyable : en France, des organismes publics ont mis en garde les responsables politiques dès 2004, sans résultat. Et des scientifiques tiraient l’alarme même avant. Les nanoparticules les plus utilisées (nanotubes de carbone, nano-argent, nanotitane…) se révèlent être de redoutables toxiques qui provoquent des mutations génétiques, des cancers… Les nanotubes de carbone peuvent même provoquer des perturbations neuronales et des mésothéliomes, ces cancers de la plèvre qui jusqu’ici étaient essentiellement causés par l’amiante.

Comment en sommes-nous arrivés là ? Je me suis penché sur les procédés dont les lobbies ont usé pour engluer les autorités et convaincre les organismes publics de participer à la course aux nanos sans s’inquiéter. Ce sont leurs actions, leurs pressions conjuguées sur fond de complaisance qui ont rendu possible cette précipitation, ce déchaînement qui menace chaque jour d’exploser en causant d’incalculables dégâts.
Nous aborderons aussi les leçons qu’il faut tirer au plus vite de cette affaire qui apparaît comme un nouvel avatar de la vulnérabilité des institutions face au lobbying de plus en plus sophistiqué des groupes industriels. Comment devons-nous agir pour que la santé publique ne soit plus la variable d’ajustement de la logique des marchés ? Les solutions existent, comme nous le verrons au dernier chapitre. Que les États les appliquent ne dépend que de notre mobilisation.

Enregistrer