L’US Air Force se protège contre les attaques EMP

Une base de l’armée de l’air américaine au Texas a pris les premières mesures pour se protéger contre une attaque par impulsion électromagnétique (EMP). Mais qu’est-ce qu’une EMP, et quelle est l’ampleur de la menace ?

Les responsables de la base interarmées de San Antonio à Lackland, au Texas, ont lancé un appel d’offres pour effectuer une étude d’une installation appelée Petroleum, Oil and Lubrication Complex. L’étude permettra d’identifier tout équipement qui pourrait être vulnérable à une EMP avant de procéder à des tests de vulnérabilité plus détaillés, selon la demande. Après cela, les responsables trouveront des moyens de protéger ces équipements en cas d’attaque EMP.

Qu’est-ce qu’une EMP ?

Une EMP est une explosion massive d’énergie électromagnétique qui peut se produire naturellement ou être générée délibérément à l’aide d’armes nucléaires. Bien que de nombreux experts ne pensent pas que les EMP constituent une grande menace, certaines personnes affirment que ces types d’armes pourraient être utilisés pour perturber considérablement les sociétés dépendant de l’électricité.

“Vous pouvez utiliser une seule arme pour effondrer l’ensemble du réseau électrique nord-américain”, a déclaré l’analyste de la défense Peter Pry, qui a fait partie de la commission EMP du Congrès, créée pour évaluer la menace d’attaques EMP mais qui a fermé en 2017.

“Une fois que le réseau électrique tombe en panne, tout s’effondrerait”, a déclaré Pry à Live Science. “Tout dépend de l’électricité : les télécommunications, les transports, même l’eau”.

Selon la demande, les tests à Lackland viennent en réponse à un décret de 2019 émis par l’ancien président Donald Trump, pour que le gouvernement fédéral renforce ses infrastructures contre les EMP. Pry, qui a été consulté sur le projet, a déclaré que l’enquête et les mises à niveau qui en découlent font partie d’une initiative plus large de l’armée de l’air américaine visant à renforcer ses défenses contre ce type de menace.

Pourquoi les EMPs sont si dangereuses ?

Une EMP libère d’énormes ondes d’énergie électromagnétique, qui peuvent agir comme un aimant géant en mouvement. Un tel champ magnétique changeant peut faire bouger les électrons d’un fil à proximité, induisant ainsi un courant. Avec une telle explosion d’énergie, une EMP peut provoquer des surtensions dommageables pour tout appareil électronique se trouvant à proximité.

Selon Pry, si une arme nucléaire explosait dans l’atmosphère, le rayonnement gamma qu’elle libérerait pourrait arracher des électrons aux molécules d’air et les accélérer à une vitesse proche de celle de la lumière. Ces électrons porteurs de charges seraient encerclés par le champ magnétique de la Terre et, en se déplaçant, ils généreraient un courant électrique puissant et fluctuant qui, à son tour, produirait une EMP massif. L’explosion pourrait également déformer le champ magnétique de la Terre, provoquant une impulsion plus lente similaire à une EMP naturel.

Le déclenchement d’une arme nucléaire à environ 300 kilomètres au-dessus des États-Unis pourrait créer une EMP qui couvrirait la majeure partie de l’Amérique du Nord, a déclaré Pry. L’explosion et les radiations de la bombe se dissiperaient avant d’atteindre le sol, mais l’EMP qui en résulterait serait suffisamment puissante pour détruire les appareils électroniques dans toute la région, selon Pry. “Si vous vous trouviez sur le sol directement sous la détonation, vous ne l’entendriez même pas”, a déclaré Pry. “L’EMP passerait inoffensivement à travers votre corps.”

“Nous sommes arrivés à un point où un seul individu peut renverser les piliers technologiques de la civilisation d’une grande zone métropolitaine, tout seul, armé d’un dispositif comme celui-ci”, a-t-il déclaré.

La technologie requise pour se protéger des EMP est similaire à celle qui est déjà utilisée pour prévenir les dommages causés par les surtensions provoquées par la foudre, a déclaré Pry. Ces technologies devraient être adaptées pour faire face à des tensions plus élevées, mais des dispositifs tels que les protecteurs de surtension, qui détournent l’excès de tension vers la terre, ou les cages de Faraday, qui protègent les appareils des rayonnements électromagnétiques, pourraient faire l’affaire.

Pry a déclaré que la Commission EMP a estimé qu’il en coûterait entre 2 et 4 milliards de dollars pour protéger les pièces d’équipement les plus importantes du réseau national, mais qu’il souhaiterait idéalement que les normes soient modifiées de manière à ce que la protection EMP soit intégrée aux appareils.

Spencer Rogers, Live Science, Forbes

L’US Navy aurait expérimenté une arme de modification de l’espace-temps

Selon des documents obtenus par The War Zone, la Navy (la division Naval Air Warfare Center Aircraft Division – NAWCAD) aurait réalisé des expériences sur des technologies ambitieuses, dont une “arme de modification de l’espace-temps” qui, selon les chercheurs, pourrait révolutionner les systèmes d’alimentation et de propulsion.

Ces technologies mystérieuses sont censées tirer parti de “l’effet Pais”, breveté par l’ingénieur aérospatial américain Salvatore Cezar Pais et qui pourrait finir par repousser les limites de la science conventionnelle – si, toutefois, il est prouvé que ces technologies fonctionnent réellement.

Il va sans dire que ces dispositifs n’ont pas encore fait l’objet d’une démonstration significative – mais, en même temps, le fait que l’armée américaine finance leur développement leur confère un vernis de crédibilité. Selon les documents nouvellement obtenus, la Navy a pris les idées de Pais suffisamment au sérieux pour verser des centaines de milliers de dollars dans leur développement.

L’arme de modification de l’espace-temps, basée sur un brevet de Pais pour un “plasma compression fusion device (PCFD)”, est censée libérer “des niveaux d’énergie extrêmement élevés” et “faire en sorte que la bombe à hydrogène ressemble davantage à un pétard, en comparaison”, selon les documents.

« Tout cela est fascinant car aucun physicien avec lequel nous avons discuté des brevets de Pais ne voit comment ces expériences sont réalisables, et pourtant la Navy semble avoir pensé le contraire et dépensé des fonds considérables pour explorer les idées sous forme d’expériences physiques » … « Nous ne pouvons toujours pas dire de façon probante ce qui se passe ici », déclare The War Zone. A suivre…

The War Zone | The Drive

Une arme laser fera exploser des missiles nucléaires

La société de technologie militaire Raytheon envisage de construire une arme laser puissante capable d’abattre des missiles nucléaires hypersoniques.

Un missile hypersonique est capable de frapper à plusieurs fois la vitesse du son. C’est trop rapide pour la technologie antimissile conventionnelle, mais Raytheon a tweeté une vidéo animée montrant un laser futuriste détruisant des missiles hypersoniques dans le ciel.

Ni les missiles hypersoniques ni ces lasers avancés n’existent aujourd’hui. Mais plusieurs pays, dont les États-Unis, travaillent à la construction d’armes hypersoniques. La mise en place de mesures défensives avant que la menace n’existe, pourrait empêcher des tirs de missiles dévastateurs, selon Defence Blog.

L’armée américaine va mettre au point une arme hypersonique

Il y a encore beaucoup d’obstacles technologiques que Raytheon doit surmonter. Les armes laser d’aujourd’hui ne sont peut-être pas assez puissantes pour arrêter un missile hypersonique, ce qui signifie qu’un laser pour missile anti-hypersonique aurait besoin de beaucoup plus de puissance, selon Defence Blog. Dans le même temps, il lui faudrait aussi viser un projectile avec précision, se déplaçant bien plus rapidement que tout ce qu’un laser a dû frapper jusqu’à présent.

Mais si le laser fonctionne, il pourrait dissuader les pays qui développent des armes nucléaires.

« Imaginez que vous êtes un pays qui doit investir dans une arme nucléaire », a déclaré Evan Hunt, représentant de Raytheon, « puis, tout à coup, les États-Unis ont la possibilité de tirer votre arme nucléaire à peu de frais par frappe. Je pense que vous pourriez vraiment nuire à l’incitation des gens à s’engager dans cette voie. »

Raytheon, Defence Blog, The National Interest

Étude prospective à l’horizon 2030 : impacts des transformations et ruptures technologiques sur notre environnement stratégique et de sécurité.

Pour la première fois, un document gouvernemental en matière de prospective technologique est réalisé par le secrétariat général de la défense et de la sécurité nationale (SGDSN) pour penser les défis technologiques à venir auxquels nous serons confrontés et les ruptures stratégiques qui en découleront. Il vise à proposer des pistes de réflexion à l’ensemble des acteurs de la communauté stratégique française, voire alimenter le débat public dans une période où les questions de sécurité et de défense s’imposent au cœur des préoccupations.

A vocation pédagogique, cet exercice de prospective n’exprime pas de position officielle et ne correspond pas à une quelconque doctrine, livre blanc ou politique publique. Il reflète le point de vue de chercheurs et l’état des réflexions sur un ensemble de sujets. Le choix des thématiques résulte du travail de veille technologique réalisé par le SGDSN, en relation étroite avec le monde de la recherche. Il pourra être actualisé et augmenté par l’étude ultérieure d’autres sujets.

Télécharger le PDF

Sommaire

Avant-propos
Introduction
Partie 1 : Des tendances qui se consolident
La défense antimissile balistique en 2030 : un système militaire mature au cœur des équilibres stratégiques
La démocratisation de l’accès à l’espace
Paix et guerre dans le cyberespace
La dissuasion, atout de puissance et facteur de paix
Terrorisme et menaces NRBC (nucléaire, radiologique, biologique et chimique) : vers un terrorisme technologique ?
Frontières passoires ou frontières intelligentes
Partie 2 : ruptures technologiques – ruptures stratégiques
Les missiles et vecteurs hypervéloces, nouveaux déterminants des puissances ?
Militarisation et insécurisation de l’espace
La révolution de l’impression 3D
La biologie de synthèse : un saut dans l’inconnu
Comment les neurosciences vont-elles transformer la guerre ?
La cryptographie est-elle à l’aube de la révolution quantique ?
Le champ de bataille « 3.0 » : intelligence artificielle, robots, nanotechnologies et armes à énergie dirigée sous l’uniforme


Extrait : Comment les neurosciences vont-elles transformer la guerre ?

L’impact potentiel des neurosciences sur la manière de faire la guerre est identifié et de nombreuses recherches sont en cours. Essentielles en termes de santé, ces avancées vers « l’homme augmenté » sont parfois déroutantes au plan militaire et éthique. La France et l’Europe doivent les prendre en compte pour maintenir leurs capacités de défense pour la guerre du futur, identifier les priorités afin de ne pas disperser moyens et financements et se préparer à créer les conditions d’une modération des acteurs et d’un encadrement international.

De formidables avancées susceptibles d’intéresser la défense

Les stratégies et méthodes permettant d’étudier le fonctionnement cérébral ou de modifier les capacités cognitives sont de natures très diverses, impliquant à la fois des technologies non-invasives ou invasives. Des avancées récentes en matière d’imagerie cérébrale, de techniques de neuromodulation ou d’interfaces cerveau-machine ouvrent de nouvelles perspectives à plus ou moins long terme.

Pour les forces armées, les recherches actuelles dans le domaine des neurosciences, si elles aboutissent, pourraient participer à la réalisation de plusieurs objectifs, comme :

– la préservation de la santé et de la sécurité des opérateurs militaires ;
– le maintien, voire l’amélioration de leurs performances, notamment en matière d’endurance, de capacités sensorielles, de réactivité, de productivité, de créativité ou encore de résistance au stress.

Ces applications auraient une incidence directe sur les performances individuelles et la capacité opérationnelle.

Parmi les axes de recherche qui suscitent également un intérêt – et soulèvent autant d’enjeux éthiques et sociétaux – figurent l’exploitation des connaissances et technologies relevant des neurosciences, en particulier des techniques d’imagerie cérébrale fonctionnelle, en vue d’évaluer la véracité des informations obtenues lors d’un interrogatoire ou même de déterminer le degré de responsabilité d’un individu, notamment dans le cadre d’expertises judiciaires ou dans le domaine du renseignement.

L’Homme augmenté, réflexions sociologiques pour le militaire
Éthique sur le champ de bataille dans un futur proche
Augmentation des performances humaines avec les nouvelles technologies : Quelles implications pour la défense et la sécurité ?

Les applications potentielles des neurosciences pour les forces armées, dont certaines restent à l’heure actuelle très hypothétiques, comprennent :

– le suivi médical individuel des combattants, par exemple la surveillance de l’évolution de la vigilance ou du niveau de stress ;
– la prise en charge médico-psychologique, avec notamment la possibilité de restaurer une fonction après une atteinte à l’intégrité physique, voire psychique (commande de dispositif prothétique, perception de sensations recréées, restauration des souvenirs, etc.) ;
– l’amélioration de la formation et de l’entraînement, y compris en cas de stress ;
– l’amélioration des performances physiques et sensorielles des combattants ;
– le guidage à distance de systèmes d’armes, tels que des robots, des drones ou un exosquelette, par une interface cerveau-machine ;
– l’amélioration des performances cognitives des opérateurs et des combattants, en particulier dans un environnement complexe et avec des sollicitations multiples ;
– l’obtention et l’évaluation d’informations à des fins de renseignement ;
– la mise en réseau de capacités cérébrales afin de pouvoir combiner des compétences individuelles.

Le nouvel exosquelette des Forces Spéciales « Iron Man » arrête les balles avec une armure liquide
Robotisation des armées : « Il y a un début de fuite en avant dans certains pays »
Réalité augmentée pour les forces armées
Le nouveau programme de la DARPA envisage de stimuler vos nerfs pour l’auto-guérison

S’ils se concrétisent, certains développements pourraient être à l’origine de profonds bouleversements dans les prochaines décennies, sans qu’il ne soit encore possible de déterminer toutes les conséquences au niveau individuel, sociétal ou international. En effet, outre la restauration des capacités, il devient désormais envisageable de pouvoir altérer de façon ciblée des fonctions cognitives telles que la mémorisation ou le processus de prise de décision, en les améliorant ou en les dégradant, voire peut-être un jour de modifier ou créer des souvenirs ou encore d’accéder aux pensées d’un individu. Ces évolutions imposent d’engager une réflexion approfondie sur les questions éthiques, sociétales, juridiques et médicales afférentes, en fonction des applications, qu’elles soient civiles ou militaires, et du contexte d’emploi. Elles soulèvent des questions quant aux conséquences en termes de dignité humaine et de respect de la vie privée, mais aussi de risques d’atteinte à l’identité personnelle et à l’autonomie. En interférant avec les fonctions cognitives, ces avancées s’accompagnent ainsi d’une possible remise en cause des notions de libre arbitre ou de responsabilité individuelle, telles qu’elles sont traditionnellement appréhendées. Enfin, il convient de considérer les risques de détournement à des fins malveillantes.

Les scientifiques ont repéré le circuit cérébral qui pourrait aider à effacer la peur
Interfaces cerveau-ordinateur : des fonds militaires pour contrôler les sentiments
Une manipulation de neurones spécifiques aide à effacer les mauvais souvenirs et améliorer les bons
José Delgado et ses dispositifs de contrôle de l’esprit par la stimulation électrique du cerveau

Au-delà de l’état actuel des connaissances sur le cerveau et son fonctionnement, la complexité de la problématique est aussi liée à l’interdépendance fonctionnelle avec l’environnement physique et social. Que la modification soit recherchée ou secondaire, il peut y avoir atteinte à l’intégrité physique ou psychique des individus. Sans même chercher à dégrader certaines capacités, il existe un risque que l’amélioration de fonctions cognitives spécifiques se fasse au détriment d’autres. La question de la réversibilité des effets doit également être posée. Il faut de plus considérer la problématique de l’acceptabilité individuelle mais aussi sociétale.

La sécurité des équipements médicaux implantables fait déjà partie des préoccupations majeures pour les acteurs du secteur de la santé. En plus des risques de dysfonctionnement, la vulnérabilité aux cyber-attaques de certains systèmes représente donc une crainte légitime, en particulier s’agissant de ceux qui sont connectés et reçoivent et/ou transmettent des flux de données à distance, et ce d’autant plus s’ils sont invasifs. En prenant pour exemple les travaux de recherche en cours portant sur le développement d’un implant neuronal qui pourrait remplacer les dispositifs externes de réalité virtuelle, des informations altérées pourraient par exemple être transmises directement au niveau du cortex visuel.

A l’horizon 2030, un soutien financier substantiel à des programmes de recherche innovants aura permis d’obtenir des résultats concrets, avec une transition réussie de la recherche fondamentale à des applications concrètes de façon générale mais aussi a posteriori dans les forces armées. Dans le même temps, les recherches relevant des neurosciences bénéficieront des approches collaboratives et interdisciplinaires, permettant la levée de verrous technologiques. « L’homme augmenté » sera en passe de devenir une réalité.

Les États-Unis, comme la Chine, auront investi massivement dans ce domaine. Malgré de fortes réticences au sein de la société civile et d’organisations non gouvernementales, voire du Comité international de la Croix-rouge, certains systèmes innovants seront déployés et opérationnels au sein des forces armées américaines et vraisemblablement, de façon plus limitée, de celles d’autres pays comme la Chine, de la Russie ou Israël. A ce stade, il s’agira principalement :

– d’implants destinés à augmenter l’acuité visuelle ou auditive ;
– de dispositifs d’électrostimulation cérébrale pour les opérateurs exerçant en environnement complexe ;
– d’interfaces cerveau-machine permettant soit d’utiliser des exosquelettes afin d’augmenter les capacités locomotrices, soit de piloter des drones ou des robots pour le déminage des engins explosifs improvisés (IED) ;
– d’outils d’aide aux interrogatoires à des fins de renseignement.

Où se cachent les nanos ? Démystifier les nanotechnologies

Nadia Capolla est docteure en physique. Elle compte plus de 20 ans d’expérience industrielle en optique, photonique et nanotechnologie. Elle est présentement au service d’une société de valorisation de la recherche universitaire.

Bien qu’on entende le mot nanotechnologie de plus en plus fréquemment, sa signification demeure encore nébuleuse pour la plupart des gens. Que sont les nanos ? D’où viennent-elles ? Où se cachent-elles ?

Voici un ouvrage qui répond à ces questions de façon accessible, rigoureuse et objective. On y explore avec simplicité l’univers des nanotechnologies afin de dévoiler quelques-unes de ses nombreuses facettes. Ce livre explique les bases nécessaires pour comprendre le monde des nanosciences.

On y apprend que des nanostructures existent déjà dans la nature et que l’être humain crée des nanoparticules depuis longtemps.

On y présente quelques instruments conçus pour littéralement « voir » les atomes et développer des nanostructures avec une précision inégalée.

On y explore plusieurs domaines d’application des nanotechnologies, le tout accompagné d’exemples de réalisations québécoises prometteuses en la matière.

Ce livre plaira autant au grand public curieux qu’aux étudiants et aux industriels désireux de se familiariser avec le sujet. Une belle invitation à découvrir les nanotechnologies !

Roger Lenglet : Nanotoxiques et Menace sur nos neurones

Nanosciences : les enjeux d’une remise en cause

par Marie-Gabrielle Suraud et Camille Dumat · Publication 01/06/2015 · Mis à jour 05/04/2016

Depuis les années 1970, dans la plupart des pays industrialisés, on observe une montée de la contestation des risques « environnement-santé », portée notamment par des associations. Cependant, les revendications du mouvement associatif ont connu des évolutions sensibles. Ainsi, les associations traditionnellement engagées sur ce thème souhaitent désormais participer à l’élaboration des politiques de recherche et non plus intervenir après coup pour tenter de contrôler les développements technologiques et leurs applications.

Ces politiques de recherche deviennent ainsi progressivement un enjeu de démocratisation pour l’opinion publique, suggérant de nouvelles formes d’articulation entre la société civile et la sphère de la recherche. La contestation récente des nanotechnologies – qui prend de l’ampleur en France depuis 2005 – contribue d’ailleurs à renforcer l’idée d’une participation citoyenne aux programmes scientifiques. Au sein du mouvement « anti-nanos », cette revendication fait progressivement son chemin, emportant l’adhésion d’un nombre toujours plus élevé d’associations, notamment environnementalistes.

La mise en question des politiques de recherche par des mouvements de lutte contre les risques « environnement-santé » est en fait bien antérieure à la contestation des nanotechnologies. Déjà, au tournant des années 2000, les mobilisations contre les biotechnologies et les OGM avaient ouvert la voie à l’idée « de faire entrer les sciences en démocratie ». Plusieurs associations plaçant la question des politiques de recherche au cœur de leurs démarches s’étaient alors créées, telles que la Fondation Sciences Citoyennes (2003), Science et Démocratie (2005), Vivagora (2003 ), ou encore Avicenn (2011).

En 2010, la force des revendications vis-à-vis de la science était telle que le Ministère de l’Ecologie avait ouvert le programme de réflexion REPERE (Recherche et Expertise pour Piloter Ensemble la Recherche et l’Expertise) sur les possibilités d’associer des citoyens aux recherches menées dans les laboratoires et/ou d’intégrer des citoyens dans les instances de la recherche. Le Ministère parlait alors de « co-pilotage de la recherche ».

Comment comprendre et interpréter cette volonté des associations d’avoir un droit de regard sur les programmes de recherche ? En quoi le mouvement « anti-nanos » a-t-il contribué à étendre et renforcer cette revendication ? Malgré l’adhésion d’un grand nombre d’associations à l’idée d’un co-pilotage, malgré l’engagement de l’Etat pour mener la réflexion, ce projet de démocratisation ne se réalise cependant pas sans conflit ni opposition. D’où viennent ces désaccords ?

Comment s’est élaborée « l’acceptabilité sociale » des nanotechnologies  → Roger Lenglet : Nanotoxiques et Menace sur nos neurones

Les nanosciences et nanotechnologies (d’après le grec νάνος nain), ou NST, peuvent être définies a minima comme l’ensemble des études et des procédés de fabrication et de manipulation de structures (électroniques, chimiques, etc.), de dispositifs et de systèmes matériels à l’échelle du nanomètre (nm), ce qui est l’ordre de grandeur de la distance entre deux atomes.

Les NST présentent plusieurs acceptions liées à la nature transversale de cette jeune discipline. En effet, elles utilisent, tout en permettant de nouvelles possibilités, des disciplines telles que l’optique, la biologie, la mécanique, microtechnologie. Ainsi, comme le reconnaît le portail français officiel des NST, « les scientifiques ne sont pas unanimes quant à la définition de nanoscience et de nanotechnologie ».

Les nanomatériaux ont été reconnus comme toxiques pour les tissus humains et les cellules en culture. La nanotoxicologie étudie les risques environnementaux et sanitaires liés aux nanotechnologies. La dissémination à large échelle de nanoparticules dans l’environnement est sujette à des questions éthiques.

Les nanotechnologies bénéficient de plusieurs milliards de dollars en recherche et développement. L’Europe a accordé 1,3 milliard d’euros pendant la période 2002-2006. Certains organismes prétendent que le marché mondial annuel sera de l’ordre de 1 000 milliards de dollars américains dès 2015.

Réguler les technologies ou contrôler la recherche ?

Bien que la contestation des nanotechnologies s’inscrive dans l’expérience sociale des risques techno-industriels (nucléaire, amiante, OGM…), les spécificités liées aux « nanos » expliquent en partie que les mouvements « anti » se soient focalisés sur une remise en cause de la science et en particulier des nanosciences.

Une de leurs particularités est d’embrasser un spectre très large de domaines : la production de matériaux, la surveillance des comportements, les biotechnologies et la transformation du vivant… Ainsi, la société civile est confrontée non pas à une activité identifiée – comme c’est le cas pour les OGM ou le nucléaire – , mais à un large éventail de projets en termes d’application technologiques et de commercialisation de produits : médicaments, textiles, cosmétiques, alimentation, électronique, informatique…

Certes, à ce jour, les innovations n’en sont encore souvent qu’au stade de la pré-industrialisation, car leur commercialisation doit passer l’épreuve du principe de précaution issu du règlement européen REACH (Registration, Evaluation, Authorization of CHemical Substances). Cependant, l’idée qu’un point de non-retour pour la santé et l’environnement pourrait être rapidement atteint si la commercialisation des nano-produits devait s’étendre, incite les associations à traiter le problème le plus en amont possible, en demandant le contrôle des recherches. Elles craignent en effet que toute démarche d’interruption des nano-produits, une fois ceux-ci commercialisés, soit inopérante et vouée à l’échec. Plusieurs travaux – dont ceux de l’Américain Kitcher dans le domaine de la génomique – montrent en effet que la mise en œuvre a posteriori de mesures de contrôle des produits et des technologies commercialisés est peu efficace. C’est d’autant plus le cas avec les « nanos » qui sont, faute d’étiquetage généralisé, difficilement décelables dans les différents produits de consommation dans lesquels ils sont intégrés. L’exigence d’un droit de regard des citoyens sur la recherche en nanosciences s’explique donc notamment par la crainte d’une trop faible capacité de contrôle de la commercialisation des nano-produits.

  • Laurent B., 2010, Les politiques des nanotechnologies : pour un traitement démocratique d’une science émergente, Paris : ECLM.
  • Kitcher P., 2010, Science, vérité et démocratie, Paris : PUF, 344 p.

S’entendre ou se diviser ?

Cependant, bien que les associations s’accordent pour demander une démocratisation des politiques de recherche, la mise en pratique de ce principe fait débat et divise. Une double difficulté apparaît : d’une part, les associations ne s’entendent pas sur les formes que pourrait prendre la démocratisation des politiques de recherche, d’autre part, les chercheurs eux-mêmes s’opposent à cette démarche :

– « Démocratiser » les politiques scientifiques : des associations divisées : deux types de tensions traversent les associations. D’une part, les désaccords sont relatifs au statut et au rôle à accorder à la recherche scientifique dont on ne sait quelle dimension sociétale privilégier : source d’émancipation ou facteur de risques ? Le fait que ces dimensions apparaissent souvent inextricablement mêlées (comme c’est le cas pour les recherches en santé) freine l’émergence de positions consensuelles dans la société civile. Certaines associations ont même demandé un moratoire sur la recherche en nanosciences, allant jusqu’à exiger l’arrêt total des recherches : on pense notamment à la demande portée en 2010 par Les Amis de la Terre lors du débat de la Commission Nationale du Débat Public.

D’autre part, trois solutions sont envisagées par les associations pour mettre en pratique la démocratisation de la recherche :

  1. créer des dispositifs de concertation publique accordant une large place aux citoyens et dédiés aux réflexions sur les politiques scientifiques ;
  2. mettre en place des partenariats citoyens-chercheurs pour mener des recherches en laboratoire, notamment sur des sujets jugés sensibles, tels que les recherches en toxicologie, éco-toxicologie, épidémiologie, etc ;
  3. intégrer directement des citoyens dans les instances nationales et locales de pilotage de la recherche, et notamment les instances ayant la charge de répartir les financements des laboratoires et des projets de recherche. Ces trois réponses sont loin d’être équivalentes en termes d’association des citoyens à la sphère scientifique. Elles déclinent en fait des modes d’articulation entre la société civile et la sphère scientifique plus ou moins contraignants pour la recherche.

– « Co-piloter la recherche » : des chercheurs en opposition : au-delà des désaccords entre les associations, l’opposition d’une partie des scientifiques à l’idée d’ouvrir les instances de la recherche et les laboratoires aux citoyens freine ce mouvement de démocratisation de la science. Cette position des chercheurs constitue une rupture. En effet, dans les années 1970, les mouvements qui interrogent le rapport sciences/société ne manifestent guère de clivages ou de tensions entre les chercheurs et le tissu associatif. D’une part, les contestations prennent le plus souvent leur source dans le milieu scientifique lui-même : physiciens nucléaires, généticiens, biologistes (…) se mobilisent contre certains développements scientifiques et technologiques. D’autre part, les associations se limitent à la demande d’un simple décloisonnement de la recherche passant par des actions de vulgarisation, de valorisation ou de diffusion de l’information scientifique.

Avec la montée de l’exigence d’un co-pilotage de la recherche, un pas est franchi. Le principe « d’indépendance de la recherche » exprimé par les chercheurs eux-mêmes, devient un motif de clivage entre les chercheurs et le tissu associatif. Le fossé se creuse alors entre eux, malgré une critique commune des rapports de plus en plus étroits entre la science et le pouvoir ou la science et le marché.

  • Miège B., Vinck D., coord., 2012, Les masques de la convergence. Enquêtes sur sciences, industries et aménagements, Paris : Editions des Archives contemporaines, 296 p.
  • Gaudilliere J.-P., Bonneuil C., 2001, « A propos de démocratie technique », Mouvements, n°18, 73-80.

Avec le mouvement contre les nanos, la critique des politiques de recherche a échappé aux chercheurs et a fragilisé la « coopération » antérieure entre associatifs et chercheurs. Les contestations des nanos ont ainsi fait émerger un clivage entre chercheurs et associatifs non-chercheurs qui prend sa source dans les contours d’une exigence de co-pilotage de la recherche. De façon plus générale, se pose la question de la concordance entre activités de recherche produisant des connaissances scientifiques et valeurs civiques qui tendent à se placer au-dessus des autres activités sociales dites « matérielles ».

Un carnet de recherche proposé par Hypothèses

Roger Lenglet : Nanotoxiques et Menace sur nos neurones

Menace sur nos neurones. Alzheimer, Parkinson… et ceux qui en profitent

Pourquoi les cas de maladies neurodégénératives sont-ils en recrudescence, et pourquoi les malades sont-ils de plus en plus jeunes ? Les substances toxiques qui agressent nos organismes quotidiennement sont identifiées, mais pas interdites… À qui profite le crime ? Études et enquêtes rigoureuses à l’appui, les auteurs démontent le mécanisme d’un “effet d’aubaine” ignoble et proposent des solutions à cette crise sanitaire.

J’ai entrepris cette enquête pour savoir si oui ou non les nanos représentent un danger pour le vivant. » Roger Lenglet

Nanotoxiques, une enquête

Les produits contenant des nanoparticules envahissent notre quotidien. Invisibles à l’œil nu, ces nouvelles molécules hightech laissent parfois deviner leur présence par les accroches publicitaires : aliments aux “saveurs inédites”, “cosmétiques agissant plus en profondeur”, “sous-vêtements antibactériens”, fours et réfrigérateurs “autonettoyants”, articles de sports “plus performants”, et armes plus destructrices…
Sans cesse, les ingénieurs en recherche et développement inventent de nouvelles applications des nanos qui sont commercialisées sans le moindre contrôle, au mépris de la réglementation les obligeant à tester la toxicité des substances avant de les vendre. Or, il s’avère que ces nanoparticules sont souvent redoutables – elles sont si petites que certaines peuvent traverser tous les organes, jouer avec notre ADN et provoquer de nombreux dégâts.
Grâce à son enquête aussi rigoureuse qu’explosive, Roger Lenglet a retrouvé les principaux acteurs des nanotechnologies. Il livre ici leurs secrets et les dessous de cette opération menée à l’échelle planétaire qui, avec le pire cynisme, continue de se déployer pour capter des profits mirobolants au détriment de notre santé.
Avec ce premier livre en français sur la toxicité des nanoparticules, Roger Lenglet tente de prévenir un nouveau scandale sanitaire d’une ampleur inimaginable.

Introduction

Les nanotechnologies fascinent. Dans un premier temps, j’ai moi-même été stupéfié par leurs prouesses : elles sont à l’origine de matériaux aux propriétés extraordinaires, des produits cent fois plus résistants que l’acier et six fois plus légers, plus conducteurs ou plus isolants que tous ceux connus à ce jour, plus résistants à la traction, au feu, au froid ou à l’abrasion… Bref, elles paraissent miraculeuses. Les nanotechnologies ont la particularité d’estomper les frontières de la physique, de la chimie et de la biologie. À travers elles, les sciences vont se fondre en une seule, prédisent les ingénieurs. Ils nous promettent un “big-bang” technico-scientifique. Mais devant les choses fascinantes, il faut garder son sang-froid.
J’ai entrepris cette enquête pour savoir si oui ou non les nanos représentent un danger pour le vivant. Il m’a semblé nécessaire d’examiner d’abord l’histoire de cette course folle des industriels pour laquelle les gouvernements ne voulaient pas être en reste et de pénétrer dans les coulisses des décisions. L’enjeu est financier, bien sûr, et nous verrons combien il pèse, mais pas seulement. Chacun cherche à devenir le leader de cette technologie de pointe, et nous allons voir que le volet militaire y joue un rôle considérable, à l’instar de ce qui a fait la fortune du nucléaire.

Les nanotechnologies sont entrées dans nos vies en catimini. Nous voilà devant le fait accompli. Les nanomatériaux sont ajoutés dans de nombreux aliments pour leur donner des saveurs et des textures inédites, dans des cosmétiques pénétrant plus en profondeur sous la peau, dans des textiles “intelligents”, des produits de construction se moquant des intempéries, des fours anéantissant les graisses, des articles sportifs plus souples et plus résistants… Les firmes pharmaceutiques les intègrent aussi de plus en plus dans les pansements et promettent des médicaments censés traverser toutes les barrières organiques comme des vaisseaux intergalactiques pour apporter leur précieux chargement dans les “cellules cibles”.
Peu d’entre nous savent qu’environ 2 000 applications différentes sont déjà commercialisées. Séduits par le marketing vantant les performances des produits, nous ignorons qu’elles sont dues à la présence de nanomatériaux. Encore rares en effet sont ceux qui ont pris conscience de l’invasion de notre quotidien par les nanotechnologies. L’étiquetage ne les signalait pas encore en 2013, les lobbies industriels arguant qu’ils n’étaient pas encore prêts et les instances européennes accumulant les retards.

Dans cette situation, il est devenu urgent de connaître les risques pour notre santé. Pour y parvenir de façon sérieuse, il a fallu enquêter, creuser, trouver des documents, remonter aux sources vers des études peu divulguées, des rapports d’assureurs, des avertissements restés discrets. Il est vrai, les enjeux économiques sont non seulement gigantesques mais cachent souvent aussi de vastes opérations de détournements et de mensonges.
Nous allons voir que, très tôt, les États ont dépensé des sommes exorbitantes. Dès les années 1980, des pays européens ont lancé des programmes de subvention pour la recherche et le développement des nanos. Outre-Atlantique, à la fin des années 1990, Bill Clinton et Al Gore mettaient sur pied la National Nanotechnology Initiative (NNI), un énorme programme de subventions annuelles aux industries pour “ne pas rater le tournant historique le plus impressionnant de tous les temps”. Ils débloquaient près d’un demi-milliard de dollars pour l’année 2000, et ce n’était qu’un début. Les grands groupes économiques (Procter & Gamble, IBM, Coca-Cola, Danone, Total, Areva et cent autres) se sont lancés à corps perdu…
Cette enquête nous mènera au cœur des laboratoires de toxicologie et des instances de santé publique. Chose incroyable : en France, des organismes publics ont mis en garde les responsables politiques dès 2004, sans résultat. Et des scientifiques tiraient l’alarme même avant. Les nanoparticules les plus utilisées (nanotubes de carbone, nano-argent, nanotitane…) se révèlent être de redoutables toxiques qui provoquent des mutations génétiques, des cancers… Les nanotubes de carbone peuvent même provoquer des perturbations neuronales et des mésothéliomes, ces cancers de la plèvre qui jusqu’ici étaient essentiellement causés par l’amiante.

Comment en sommes-nous arrivés là ? Je me suis penché sur les procédés dont les lobbies ont usé pour engluer les autorités et convaincre les organismes publics de participer à la course aux nanos sans s’inquiéter. Ce sont leurs actions, leurs pressions conjuguées sur fond de complaisance qui ont rendu possible cette précipitation, ce déchaînement qui menace chaque jour d’exploser en causant d’incalculables dégâts.
Nous aborderons aussi les leçons qu’il faut tirer au plus vite de cette affaire qui apparaît comme un nouvel avatar de la vulnérabilité des institutions face au lobbying de plus en plus sophistiqué des groupes industriels. Comment devons-nous agir pour que la santé publique ne soit plus la variable d’ajustement de la logique des marchés ? Les solutions existent, comme nous le verrons au dernier chapitre. Que les États les appliquent ne dépend que de notre mobilisation.

Enregistrer

Technoscepticisme ou comment la pensée de Jacques Ellul continue-t-elle d’être pertinente aujourd’hui ?

Jacques Ellul (1912-1994) est un professeur d’histoire du droit, sociologue français et théologien protestant. Il est né et mort dans l’agglomération bordelaise où il a vécu la quasi-totalité de son existence. Surtout connu comme penseur de la technique et de l’aliénation au XXe siècle, il est l’auteur d’une soixantaine de livres et de plusieurs centaines d’articles. La trilogie qui nous intéressera est composée de : La Technique ou l’enjeu du siècle (1954), Le Système technicien (1977) et notamment Le Bluff technologique (1988) ; les deux derniers étant publiés à la naissance du système informatique. Jacques Ellul a en effet consacré l’essentiel de sa réflexion à l’impact des techniques sur les sociétés contemporaines, des années 50 à 1998.

Selon lui, la technique est la recherche et l’utilisation du moyen absolument le plus efficace. Elle constitue la clé de notre modernité. En voulant domestiquer la nature, les hommes ont créé un environnement artificiel beaucoup plus contraignant. L’homme moderne croit se servir de la technique et c’est lui qui la sert. Il est devenu l’instrument de ses instruments. Le moyen s’est transformé en fin, la nécessité s’est érigée en vertu, la culture technicienne ne tolère aucune extériorité.

Ellul n’a jamais dit que la technique ne faisait rien de bien. Il faut placer son discours dans un contexte où tout le monde est fasciné par la technique et ne voit en elle que des aspects positifs. C’est donc en réaction à cela qu’il s’applique à montrer ce qu’il y a de moins bien et quels sont les aspects négatifs à ne pas négliger.

« D’être opposé à la technique est aussi absurde que de dire qu’on est opposé à une avalanche de neige ou à un cancer. C’est enfantin de dire que l’on est « opposé à la technique! » page 9 Le Bluff technologique.

« Le développement de la technique n’est ni bon, ni mauvais, ni neutre (…) il est impossible de dissocier les facteurs [qui composent la technique] de façon à obtenir une technique purement bonne » page 55 Le Bluff technologique.

Technique et Technologie

Voici d’abord un petit rappel philo pour mieux comprendre toutes les mises en cause de la technique chez Ellul :

La technique se trouve dans un très grand nombre de comportements et d’activités qui ne nécessitent pas toujours l’existence d’instruments. Sa caractéristique principale est d’être une activité finalisée, tendant vers un but. Cette finalité doit être visée à l’aide de moyens extérieurs à l’acte lui-même. C’est l’homme qui manifeste le plus la capacité de technique puisqu’il peut penser les moyens à employer. On a alors proposé cette définition : « la technique est la mise en œuvre de moyens orientés intentionnellement et méthodiquement en fonction d’expériences, de réflexions et parfois même de considérations scientifiques ». Cette définition met en relief le rapport entre les moyens et les fins. La technique ne procède pas par le hasard, elle obéit à des règles et des méthodes qui la rendent facilement transmissible.

« La technique s’est développée avec l’humanité et fait partie d’elle. Elle constitue d’abord pour l’homme un instrument de maîtrise car elle le libère d’un certain nombre de contraintes naturelles : l’outil a pour vocation première d’être utile. Mais avec le temps, la technique est également vécue comme un instrument de puissance. D’autant qu’elle procure au corps différents instruments qui en sont comme les prolongements. Destinées à augmenter ses capacités »

 Cf : http://fr.wikipedia.org/wiki/Technique

Le mot technologie, entré dans la langue française en 1657 signifie étude des techniques et des outils ou discours sur la technique. La confusion entre technique et technologie est courante. Dans un sens dérivé, et par extension, on nomme technologies les techniques dont l’ensemble crée un domaine industriel nouveau.

Pour savoir si la pensée d’Ellul est toujours actuelle il faudrait réussir à transposer sa pensée et son résonnement dans le monde d’aujourd’hui, avec les nouvelles technologies qui l’accompagnent. Pour cela je vais d’abord énoncer et développer les quelques mots clefs qui caractérisent le technoscepticisme d’Ellul :

  • L’ambivalence de la technique
  • Le risque
  • L’absence de finalité

L’ambivalence :

Certes la technique amène du progrès, mais elle amène aussi des inconvénients. Il y a des effets positifs et négatifs au cœur de la technique. Et pas uniquement suivant si l’on fait un bon ou mauvais usage de la technique (« la technique est neutre, tout dépend de l’usage que l’on en fait »).

Selon Ellul, tout progrès technique a un prix à payer : la société technicienne a voulu une planification pour être efficace au détriment des libertés individuelles. De plus il y a un lien entre la croissance des problèmes et la croissance des techniques. L’innovation technique a amené le Prolétariat et les problèmes écologiques sont dus aux ravages de la technique.

Le risque :

L’utilisation de la technique a différents impacts : il y a les effets voulus, les effets non voulus mais prévisibles et les effets imprévisibles.

Selon Ellul, la pensée technicienne est incapable de penser la technique, car elle pense dans le sens du progrès. Lorsqu’apparaissent des dysfonctionnements ou des effets négatifs, elle est incapable d’apporter des réponses réelles. La technique est pharmakon : c’est à la fois le remède et le poison. Si une technique engendre un problème (majeur ou non) une nouvelle technique sera chargée de rectifier le tir. « Les solutions techniques entretiennent le mal qu’elles prétendent soigner. » La pensée technique ne prévoit pas du nouveau mais seulement un prolongement ou un perfectionnement de ce qui existe déjà.

L’absence de finalité :

« On la fait parce qu’on le pouvait ». La relation équilibrée qui existe entre le moyen et la fin – l’utilisation de moyens pour parvenir à une fin – est oubliée. La technique devient sa propre fin. La technique est devenue l’objectif plutôt que le levier. La société technicienne fait passer les moyens avant les fins.

Jean Luc Porquet, journaliste français travaillant notamment pour le canard enchainé, a d’ailleurs consacré un livre à Ellul : Jacques Ellul, l’homme qui avait presque tout prévu : nucléaire, nanotechnologies, OGM, propagande, terrorisme… aux éditions le Cherche Midi (2012). Il résume ici les 20 idées fortes d’Ellul sur la technique :

  • La technique a récemment changé de nature et forme désormais le système.
  • La technique rend l’avenir impensable.
  • La technique n’est ni bonne ni mauvaise.
  • L’homme ne maîtrise pas la technique : elle s’auto-accroît en suivant sa propre logique.
  •  La technique crée des problèmes, qu’elle promet de résoudre grâce à de nouvelles techniques.
  • La technique n’en fait qu’à sa tête, et tant pis pour la démocratie !
  • La technique est devenue une nouvelle religion.
  • La technique renforce l’État, qui renforce la technique.
  • Les transnationales sont les enfants de la technique.
  • Nous vivons sous l’emprise d’une incessante propagande.
  • La publicité et le bluff technologique sont les moteurs du système technicien.
  • Devenue universelle, la technique est en train d’uniformiser toutes les civilisations : la vraie mondialisation, c’est elle.
  • Il ne peut y avoir de développement technique infini dans un monde fini : les techniques épuisent les ressources naturelles.
  • Plus le progrès technique croît, plus augmente la somme de ses effets imprévisibles.
  • La technique s’est alliée à l’image pour piétiner la parole.
  • La technique a avalé la culture. La technique a créé un nouvel apartheid ; elle éjecte les «hommes inexploitables» et les ravale au rang de déchets humains.
  • La technique prétend fabriquer un homme supérieur, mais supérieur en quoi ?
  • Une seule solution, la révolution ! (mais elle est impossible).

Dans ce livre Ellul est érigé comme un prophète des catastrophes actuelles. Ellul nous dit : attention on est en train de se tromper, lorsque la France est bouleversée par le progrès technique. Il nous prévient que la technique est devenue autonome, que c’est un processus sans sujet, que c’est un système et que l’homme est dépassé par ce qu’il a créé. Ellul ne parle pas directement du nucléaire, des OGM ou des nanotechnologies mais il avait prévu qu’il allait se créer des problèmes de plus en plus inextricables. Il assurait : la technique ne cesse de prétendre à résoudre des problèmes. Mais tout en les résolvants, elle crée de nouveaux problèmes qu’elle promet qu’elle résoudra plus tard. On peut prendre l’exemple du nucléaire. Le nucléaire, à ses débuts, était une énergie formidable, propre, bon marché. Mais cette technique a de petits problèmes et désormais des accidents majeurs à son actif (Fukushima 2011, Tchernobyl 1986). On ne sait que faire des déchets nucléaires toujours dangereux des siècles après et on se sait pas démanteler une centrale nucléaire (destruction de tous les composants y compris les réacteurs nucléaires).

Dans plusieurs de ses livres (et notamment la trilogie sur la technique : La Technique ou l’enjeu du siècle (1954), Le Système technicien (1977) et Le Bluff technologique (1988)), Jacques Ellul ne cessera de dénoncer la société technicienne et de mettre en avant les dangereuses dérives du progrès technologiques. Son discours est forcément daté et peut sembler dépassé car il a été soutenu à la naissance du système informatique et avant la création d’internet. Est-il toujours pertinent aujourd’hui, là où le numérique est partout ? Ses doutes et ses craintes sont-ils toujours d’actualités ?

Dans le cadre de la journée du discours de l’internet qui s’est tenu le 22 octobre 2009 à l’ENSSIB (Ecole Nationale Supérieure des Sciences de l’Information et des Bibliothèque), André Vitalis, professeur à l’Université de Bordeaux 3 et Directeur du Groupe de Recherche et d’Etudes des Médias, a présenté les travaux de Jacques Ellul et en particulier « Le système technicien » et « Le bluff technologique ». Il a montré que même si J. Ellul est décédé en 1994, son discours visionnaire s’applique à l’internet actuel.

« Ellul se « bonifie » avec le temps » prétend André Vitalis. Effectivement Jacques Ellul est un auteur qui a été et qui reste méconnu des Français. Il a néanmoins percé aux USA où plusieurs de ces ouvrages ont été traduits et s’y est trouvé des héritiers. En France, il était en contraction avec son temps, car il était réticent à ce que tout le monde adulait. Ellul se « bonifie » avec le temps car nous vivons au fur et à mesure les désillusions et les dédales du progrès. De plus, sa pensée est mobile, dialectique et elle prend en compte les changements.

On retrouve les notions d’ambivalence, de risque et de relation moyen/fin d’Ellul appliquées à internet dans les discours d’A. Vitalis. Certes la technique amène des progrès mais elle amène aussi des inconvénients. D’un côté internet nous offre des choses nouvelles, très intéressantes, de l’autre il nous encombre de désagréments non négligeable. Ce qui pourrait caractériser internet c’est son apport de liberté et son surcroit de contrôle. Comme toutes nouvelles techniques, internet confronte le prévisible et l’inattendu. Dans les années 70, il était prévu qu’internet fasse progresser la société et notamment celle de l’information, que ce réseau informationnel qui ne cesse de se développer permettrait de poursuivre la croissance économique et de sortir de la crise. Le discours sur internet voit donc dans cette technique un moyen autonome de transformation social, et par c’est réseaux eux même, de façon presque magique, vont apporter un surplus de communication, de participation. On va pouvoir mieux soigner, mieux éduquer etc.… Mais internet amène aussi de l’imprévu : dans les années 90, des chercheurs autonomes, autrement dit hackers, se préoccupent de changer le réseau à partir de valeurs nouvelles : une valeur démocratique et un accès universel, pour tous, partout, en tout lieu. Internet devient un outil démocratique, avec une accessibilité considérable et une grande interactivité où le citoyen lambda peut intervenir. Malgré cela, le revers de la société d’information c’est le contrôle. Internet facilite la participation mais permet le piratage des données de l’utilisateur. En effet, l’utilisateur de tout produit électronique ignore qu’il laisse des traces derrière lui. Ces traces sont stockées, traitées et font l’objet d’un commerce. Selon Vitalis, la gratuité d’internet ce paie d’un prix : c’est une cartographie planétaire des identités par une puissance privée indépendamment des lois « informatiques et libertés » et des conditions de contrôle. Google fiche 27 millions de Français mais n’est pas du tout diabolisé. De tels bénéfices sont faits par ce contrôle qu’il est possible de laisser internet gratuit pour tout le monde.

Cependant, la pensée d’Ellul a des limites. Ellul prône l’autolimitation. On ne doit pas faire tout ce qui est techniquement possible de faire, surtout si les moyens dépassent les fins. L’autolimitation, selon lui, n’existe pas dans la société occidentale et c’est des contraintes externes qui nous rappellent à l’ordre telles que le réchauffement climatique, les pollutions de toutes natures etc. L’utilisation d’une technique exige la détermination de ses limites. Cependant on ne peut pas vraiment appliquer ce principe à internet et aux technologies de l’information dit Vitalis. Pourquoi fixerait-on des limites à des techniques qui offrent de nouveaux espaces d’expressions et permettent de nouvelles relations (réseaux sociaux…) ? On peut tout de même souligner que les conséquences de son utilisation sur nos perceptions, sur nos représentations et sur les processus cognitifs sont difficilement évaluables et ne seront visibles que dans une centaine d’années.

Technophobes vs Technosceptiques :

Il faut bien différencier la technophobie et le technoscepticisme ! Quand la première rejette totalement la technique et l’accuse de tous les maux, la seconde s’interroge et s’en méfie grandement, Ellul est un de leur représentant. Une des représentations de la technophobie est le néoluddisme, basé sur l’héritage historique des luddites, mouvement de revendication des ouvriers du textile en Angleterre actif entre 1811 et 1813. Le néoluddisme veut enrayer le progrès par souci écologique, lutter contre l’automatisation tenue pour responsable du chômage, et dénoncer les méfaits de l’informatique. «Les technologies créées et disséminées par les sociétés occidentales sont incontrôlables et défigurent le fragile équilibre de la vie sur Terre», écrit Chellis Glendinning, un psychologue du Nouveau-Mexique dans Notes pour l’écriture d’un manifeste néoluddite. La Société industrielle et son avenir (1995) est une des expressions littéraires du néoluddisme défendue par Theodore Kaczynski. Le manifeste précise :

« La révolution industrielle et ses conséquences ont été un désastre pour la race humaine. Elle a accru la durée de vie dans les pays « avancés », mais a déstabilisé la société, a rendu la vie aliénante, a soumis les êtres humains à des humiliations, a permis l’extension de la souffrance mentale (et de la souffrance physique dans les pays du Tiers-Monde) et a infligé des dommages terribles à la biosphère. Le développement constant de la Technologie ne fera qu’aggraver la situation. Ce qu’auront à subir les hommes et la biosphère sera de pire en pire ; le chaos social et les souffrances mentales s’accroîtront, et il est possible qu’il en aille de même pour les souffrances physiques, y compris dans les pays « avancés ».

Le système techno-industriel peut survivre ou s’effondrer. S’il survit, il PEUT éventuellement parvenir à assurer un faible niveau de souffrances mentales et physiques, mais seulement après être passé par une longue et douloureuse période d’ajustements, et après avoir réduit les êtres humains et toutes les créatures vivantes à de simples rouages, des produits calibrés de la machine sociale. En outre, si le système perdure, les conséquences sont inéluctables : il n’y a aucun moyen de réformer ou modifier le système de façon à l’empêcher de dépouiller les hommes de leur dignité et de leur autonomie. »

Voir aussi : Les briseurs de machines – De Nedd Ludd à José Bové de Nicolas Chevassus-au-Louis, édition « Science ouverte », 2006

Les autres technosceptiques d’aujourd’hui et d’hier

Ellul s’étant éteint en 1994, y-a-t-il dans les jeune générations, des personnes qui défendent la même cause que lui ? Ses propos ont-il toujours un sens aujourd’hui ? La tyrannie technologique écrit par Guillaume Carnino, Cédric Biagini, Cécile Izoard et le collectif Pièces et Mains d’œuvres paru en 2007 est-il la suite logique du Bluff technologique (1988) d’Ellul ? Ce n’est pas aussi simple que cela et je ne suis pas sûr que l’on puisse les « ranger » dans la même catégorie, cependant le fil rouge est le même : attention aux techniques ! La tyrannie technologique est une critique assez virulente de la technique. “Attention, nous ne sommes pas des technophobes, prévient Cédric ­Biagini, coauteur et éditeur. Nous ne souhaitons pas revenir à la bougie. La question n’est pas seulement de savoir si l’on veut utiliser ou pas un portable, mais de savoir qu’elle société on veut.” Les auteurs de l’ouvrage dénoncent l’invasion technologique et ses ravages : télévision, Internet, portable, biométrie, puces RFID (radio frequency identification, permettant de détecter un objet ou une personne), des techniques acceptées sans problème par une société bercée par le mythe du progrès. Leur dénonciation se rapproche de très près de celle d’Ellul faites en son temps à propos de la télévision, la publicité, l’informatique et la télématique.

« Son livre décrit un individu dépossédé de son savoir-être par les nouvelles technologies, comme l’auraient été les luddites de leur savoir-faire. Disparition de métiers, impossibilité de communiquer sans machines, vision utilitariste du monde, identification croissante des individus et traçabilité des biens avec la biométrie et les puces de détection. Le portrait qu’ils font de la société ne prête guère à rire. » Frédérique Rousselle, Liberation.fr

Une partie de leur livre est consacrée à casser les grands lieux commun des techno. tels que :

  • «La technique est neutre. Tout dépend de ce qu’on en fait»
  • «La technique nous libère de la servitude»
  • «Refuser le progrès, c’est revenir à la bougie»

Vous pouvez télécharger un court extrait du livre ici : http://www.multimedialab.be/blog/?p=1078

http://www.multimedialab.be/blog/?p=1216

Hans Jonas (1903-1993) est un philosophe allemand qui a traversé le XXème, tout comme Ellul, et qui a réfléchi sur les tragédies politiques et sur les révolutions technoscientifiques de son temps. Son œuvre la plus connue Le principe responsabilité (1979) interroge concrètement les enjeux éthiques de la médecine et de ses nouvelles pratiques. Plus largement, Jonas prend acte d’une modification radicale de l’essence de la technique et, en conséquence de ses modifications, il faut une éthique qui soit à la hauteur de ses enjeux. L’éthique de la responsabilité prend en compte les conséquences de l’agir technique : c’est-à-dire qu’elle porte un danger sur la vie, sur l’humanité et sur la nature. Les problèmes qui émanent de la technique selon Jonas sont les suivants : le développement technique et scientifique conduit à une « prolifération » de l’humanité en raison de son « succès biologique », les limites des ressources (Jonas conçoit le progrès technique systématiquement comme consommateur d’énergie). Dans Le principe responsabilité, Hans Jonas s’interroge sur l’évidence de l’existence de l’humanité. Il fonde l’impératif que l’homme doit exister car il a, comme tout être vivant, une valeur absolue qui lui est inhérente. Cependant cette évidence pourrait disparaitre de nos jours : l’homme, par son énorme pouvoir qu’il a grâce à la technique moderne, a désormais les capacités de s’autodétruire. Il faudrait donc absolument interdire toute technologie qui comporte le risque de détruire l’humanité. De plus, il apparaît une notion très singulière dans le discours de Jonas : c’est l’idée de responsabilité envers les générations futures. Dans le terme génération il faut entendre la possibilité de l’humanité, celle-ci doit être préservée puisqu’elle peut être mise en péril par la technique. Aujourd’hui, on voit combien il est pertinent de penser aux générations futures qu’on endette déjà ou à qui on laisse une planète saccagée. L’éthique Jonasienne est « biocentrée » : elle porte aussi bien sur l’humanité que sur la vie, l’humanité ayant une priorité axiologique.

Le discours de Jonas peut être vu comme conservateur, mais c’est avant tout parce qu’il tient à faire contrepoids au mouvement aveugle technoscientifique. Il faut voir cette notion conservatrice comme le rétablissement de la possibilité de questionnement que le mouvement technoscientifique a tendance à abolir.

Posted on 2 décembre 2012 by Pauline Vitupier
Humanités numériques
Un site utilisant Réseau de blogs de l’ENSCI-Les Ateliers