L’augmentation humaine militaire sera nécessaire

Le scientifique en chef de la toute nouvelle US Space Force a déclaré que l’augmentation humaine ne tarderait pas à arriver.

Le Dr Joel Mozer, qui s’exprimait lors d’un événement au Airforce Research Laboratory, a déclaré qu’il était “impératif” que les États-Unis surpassent leurs adversaires en étant à la pointe de l'”augmentation humaine” dans la technologie militaire.

“Au siècle dernier, la civilisation occidentale est passée d’une société industrielle à une société de l’information, mais aujourd’hui, nous sommes à l’aube d’une nouvelle ère : celle de l’augmentation humaine”, a déclaré Mozer. “Dans le domaine de la défense nationale, il est impératif que nous nous engagions dans cette nouvelle ère, sous peine de prendre du retard sur nos concurrents stratégiques”.

Mozer, dont la carrière s’est déroulée en grande partie au sein de l’armée de l’air américaine, où il a développé des technologies de vol spatial, a prévenu que des progrès “inimaginables” seront réalisés au cours de la prochaine décennie, citant les avancées en matière d’intelligence artificielle déjà réalisées par des programmes comme AlphaGo de Google.

Le scientifique de la Space Force a ajouté que l’IA pourrait un jour développer des tactiques et des stratégies militaires qu'”aucun humain ne pourrait développer”, et que des programmes ou des machines “autonomes” pourraient conseiller les commandants en temps réel.

“L’IA pourrait un jour créer des programmes qui conçoivent des lignes d’attaque trop complexes pour être comprises par les humains, a souligné Mozer. Cela s’étendra au champ de bataille, où les commandants et les décideurs auront à leur disposition de multiples agents autonomes, chacun pouvant contrôler l’exécution de tâches telles que la reconnaissance, le contrôle du tir ou l’attaque”, ajoute Mozer.

Il a averti que “nous devons réfléchir attentivement à l’éthique de tout cela, et à la façon dont nous ferons confiance à ces agents autonomes, en particulier à l’ère de la guerre autonome mortelle”.

Concernant l’augmentation humaine, il a suggéré que la technologie d’augmentation pourrait éventuellement produire une “main-d’œuvre surhumaine”, qui utilise des technologies telles que “la réalité augmentée, la réalité virtuelle et la stimulation nerveuse”.

Vous pouvez mettre un individu dans un état de flux, où l’apprentissage est optimisé et la mémorisation est maximisée”, a-t-il déclaré. Cet individu pourrait être transformé en une personne au potentiel très élevé.

DailyMailMetro UK

La France va débuter les recherches sur le soldat augmenté
Le soldat augmenté – Regards croisés sur l’augmentation des performances du soldat

Les chercheurs pourraient bientôt être autorisés à étudier les embryons humains au delà de 14 jours

Au cours des 40 dernières années, les scientifiques ont convenu de ne jamais permettre aux embryons humains de se développer au-delà de deux semaines dans leurs laboratoires. Aujourd’hui, un organe scientifique clé est prêt à supprimer cette limite de 14 jours.

L’International Society for Stem Cell Research a élaboré un projet de recommandations visant à faire passer ces recherches de la catégorie des activités scientifiques “interdites” à une catégorie de recherches pouvant être autorisées après examen éthique et en fonction des réglementations nationales.

Les scientifiques sont motivés pour faire croître les embryons plus longtemps afin d’étudier – et potentiellement manipuler – le processus de développement. Ils pensent que des découvertes pourraient découler de l’étude prolongée des embryons, par exemple des améliorations de la FIV ou la découverte d’indices sur les causes des malformations congénitales.

Mais ces techniques soulèvent la possibilité de faire un jour la gestation d’animaux en dehors de l’utérus jusqu’à la naissance, un concept appelé ectogenèse. Et la croissance à long terme des embryons pourrait créer une plateforme pour explorer le génie génétique des humains.

ScienceMag, MIT Technology Review

Le bonheur posthumain ? La promesse manquée du transhumanisme

Un examen approfondi et détaillé des pièges liés au transhumanisme qui nous permet de redécouvrir ce que signifie de vivre bien.

Les livres sur le transhumanisme semblent se diviser en deux catégories : ceux qui brillent d’enthousiasme et ceux qui brillent d’indignation. Posthuman Bliss? The Failed Promise of Transhumanism, Oxford University Press, de Susan B. Levin, experte en philosophie classique au Smith College, appartient à ce dernier camp.

Les partisans du transhumanisme, ou de l’amélioration “radicale”, nous invitent à poursuivre l’amélioration biotechnologique de certaines capacités – avant tout, les capacités cognitives – bien au-delà de toute limite humaine, de telle sorte que les êtres dotés de ces capacités existeraient sur un plan ontologique supérieur. Certains pensent même que l’auto-transcendance de l’humanité par le biais des progrès de la science et de la technologie pourrait même être moralement requise. Par conséquent, selon Levin, les enjeux de notre réponse au transhumanisme sont incommensurablement élevés.

Susan B. Levin conteste les engagements globaux des transhumanistes concernant l’esprit et le cerveau, l’éthique, la démocratie libérale, la connaissance et la réalité, montrant que leur notion de l’auto-transcendance de l’humanité dans la “posthumanité” n’est guère plus que de la fantaisie.

En unissant les arguments philosophiques et scientifiques, Levin remet en question l’affirmation des transhumanistes selon laquelle la science et la technologie soutiennent leur vision de la posthumanité. Dans un style clair et engageant, elle démantèle les affirmations des transhumanistes selon lesquelles les posthumains émergeront si nous n’allouons pas suffisamment de ressources à cette fin.

Loin d’offrir une “preuve de concept” théorique et pratique pour la vision qu’ils nous proposent, explique Levin, les transhumanistes s’engagent de manière inadéquate dans la psychologie cognitive, la biologie et les neurosciences, s’appuyant souvent sur des points de vue douteux ou obsolètes dans ces domaines.

Elle soutient aussi que le transhumanisme va miner la démocratie libérale, promouvoir l’eugénisme et saper l’autonomie personnelle – des revendications qui sont fortement contestées par les transhumanistes.

Le transhumanisme est légitimement critiqué parce que ses partisans insistent sur le fait que rien de moins que l’auto-transcendance de l’humanité est un objectif rationnel … Dans une démocratie libérale, la promotion de la santé et du bien-être publics sans mettre en péril le pilier de la liberté individuelle exige une navigation et une réflexion permanentes.

Ayant montré en profondeur pourquoi le transhumanisme doit être rejeté, Levin plaide avec force pour une perspective holistique du bien-vivre qui est enracinée dans l’éthique de la vertu d’Aristote tout en étant adaptée à la démocratie libérale. Ce holisme est tout à fait humain, dans le meilleur des sens : Il nous incite à envisager des fins valables pour nous en tant qu’êtres humains et à accomplir le travail irremplaçable qui consiste à nous comprendre nous-mêmes plutôt que de compter sur la technologie et la science pour notre salut.

⇒ Un article inintéressant plus détaillé de Susan B. Levin : « Playing to lose: transhumanism, autonomy, and liberal democracy ».

Revues éditoriales

« Les transhumanistes affirment que pour que les êtres humains puissent survivre à l’avenir, et encore moins s’épanouir, nous devons réviser technologiquement nos natures évoluées. Dans sa critique vigoureuse, érudite, claire et pénétrante, Susan Levin montre que l’argument transhumaniste repose sur une compréhension philosophique superficielle de ce que signifie être humain et sur une compréhension scientifique tout aussi superficielle de ce que signifie être un organisme. Au-delà de la critique, elle offre une vision alternative de l’épanouissement qui s’enracine dans la compréhension d’Aristote, est améliorée par les fondateurs américains et s’incarne dans la vie de Martin Luther King. Ce livre sera d’un intérêt énorme pour tous ceux qui se soucient de réfléchir à ce que signifie être humain à une époque où les problèmes de notre existence commune peuvent sembler si terribles que les seules solutions qui restent sont technologiques”. – Erik Parens, The Hastings Center.

« La critique de Susan Levin sur la littérature philosophique qui défend des formes radicales d’amélioration cognitive et morale est très raisonnée, bien documentée et délicieusement pimentée. En remettant en question de manière soutenue les hypothèses scientifiques et philosophiques de ses interlocuteurs, elle établit effectivement le programme du prochain chapitre de la recherche sur nos obligations envers les futurs humains. » – Eric T. Juengst, University of North Carolina, Chapel Hill.

« Ancré dans une vision optimiste des capacités humaines et s’appuyant sur de solides arguments philosophiques et scientifiques, le livre de Susan Levin, à la fois perspicace et bienvenu, révèle les promesses tentantes des transhumanistes, mais qui, en fin de compte, n’ont pas été tenues ». – Inmaculada de Melo-Martín, Weill Cornell Medicine.

« Les pandémies mondiales, le changement climatique, les conflits géopolitiques imminents pour l’eau douce et la nourriture… il semble que plus nous devons apprendre à changer le comportement des humains dans la nature, plus nous reculons et essayons de trouver une issue en changeant plutôt la nature chez les humains. L’un de ces reculs est le transhumanisme. Posthuman Bliss propose une critique approfondie de la fabrication biotechnologique de la pensée et des émotions humaines au niveau moléculaire. Bienvenue à la pensée bioéthique qui est critique et non apologétique. Bienvenue à la perspective interdisciplinaire de la philosophe classique Susan B. Levin sur les limites du biopouvoir ». – Bruce Jennings, Vanderbilt University.

Albert Jacquard : réflexion autour de l’idée de compétition

Scientifique de renommée mondiale et militant humaniste devant l’éternel, Albert Jacquard a combattu toute sa vie pour un monde plus juste et plus solidaire. En 1994, il était invité par la RTBF (la télévision publique de Belgique) à partager sa réflexion autour de l’idée de compétition. Pour lui, pas de doute, la compétition est une habitude désastreuse. Pire, c’est même, selon lui, une forme de suicide !

à méditer : “Tout pouvoir est provisoire ; celui qui l’exerce doit savoir qu’il aura un jour à rendre des comptes.” Albert Jacquard.

Émission complète : Il parlait déjà de médecine prédictive (à 29:00). Faire un enfant avec deux ovules (31:55) [C’est à dire un bébé né de trois parents, connu aujourd’hui par une technique visant à utiliser deux ovules et un spermatozoïde pour féconder via une FIV], il faut une démocratie de l’éthique, clone, trafic d’organes, etc… (33:20). « Demain dépend de nous. Nous n’avons pas le droit de laisser tomber. » (45:00) « On est en train de courir le plus vite possible dans la pire des directions. » « Toute compétition est un suicide. » « Chercher à être le meilleur, c’est faire preuve de conformisme. » « Les grandes écoles ne font que sélectionner les plus conformistes. » « Plus on est conformiste, plus on est dangereux. » « Il nous faut extirper la notion de compétition de toute la société. »

La Chine a soutenue secrètement les bébés génétiquement modifiés

Fin 2018, le monde scientifique a été secoué par la nouvelle qu’un scientifique chinois nommé He Jiankui avait secrètement créé les premiers bébés humains génétiquement modifiés au monde.

Dans un nouveau livre intitulé “The Mutant Project : Inside the Global Race to Genetically Modify Humans“, tel qu’il a été examiné par le Wall Street Journal, l’anthropologue Eben Kirksey a examiné l’impact de ces études choquantes.

Un point alarmant à retenir : Il avait de nombreux partisans et collaborateurs. Il a même obtenu le soutien de plusieurs responsables clés du Parti communiste au cours de ses premiers travaux, a révélé Kirksey, et ses expériences étaient un “secret de polichinelle” dans la communauté universitaire.

Dans une certaine mesure, ce n’est pas surprenant. En février 2019, STAT a signalé que la Chine avait probablement financé une partie de ses recherches. Et nous savions aussi qu’un groupe de scientifiques internationaux avait été au courant de ses travaux.

Mais ce soutien n’a pas duré. Il a disparu peu de temps après que ses expériences aient attiré l’attention internationale, le gouvernement chinois s’étant rapidement distancé de ses travaux, le dépeignant comme un scientifique devenu “voyou”. Il a été condamné à trois ans de prison en décembre 2019.

La communauté scientifique a également rapidement dénoncé ses travaux, qui visaient à conférer aux bébés une immunité contre le VIH, ses collègues affirmant qu’He Jiankui avait fait des économies et aurait même falsifié les examens éthiques de ses expériences.

Dans l’ensemble, le consensus est qu’il est bien trop tôt pour dire quelles sont les ramifications à long terme du bricolage du code génétique dans des embryons humains vivants.

D’autres études ont déjà montré que l’édition génétique peut effectivement induire des changements indésirables dans les embryons humains. Une étude d’octobre, par exemple, a révélé qu’une petite modification visant à réparer un gène dans des embryons humains pour traiter la cécité héréditaire a entraîné l’élimination de grandes parties d’un chromosome entier.

Dans son livre, Kirksey soutient qu’il est peut-être trop tard pour arrêter complètement la recherche sur l’édition génétique – mais il reste à savoir combien de temps il faudra pour que les effets de ces tentatives soient ressentis par la population en général.

Alors pourquoi se donner du mal ? Dans ce livre, Kirksey aborde également les pressions sociétales sous-jacentes qui peuvent conduire au désir d’éliminer les maladies par modification génétique – et, éventuellement, de concevoir des bébés dont les gènes ont été modifiés pour qu’ils soient plus intelligents, plus forts ou en meilleure santé.

The Wall Street Journal

Le grand retour du #Rivotril Art53 du Décret du 16 octobre 2020

Décret n° 2020-1262 du 16 octobre 2020 prescrivant les mesures générales nécessaires pour faire face à l’épidémie de covid-19 dans le cadre de l’état d’urgence sanitaire

Les soins palliatifs sont des soins qui ne visent qu’au confort du malade, souvent en phase de fin de vie. L’objectif des soins palliatifs est de prévenir et de soulager les douleurs physiques, les symptômes inconfortables ou encore la souffrance psychologique. Le Rivotril aggrave la détresse respiratoire, mais sera utilisé comme soins palliatif. Finalement, la commission d’enquête Covid-19 n’a servi à rien. La crise a révélé à quel point nos ainés sont négligés en France. Le tri des patients sera encore la solution.

Avec 20000 ou 30000 lits supplémentaires :
– L’hôpital pouvait accueillir nos aînés qu’on a laissé mourir dans les EHPAD
– Ne pas faire le tri des patients
– Ne pas reporter les opérations des patients atteints d’autres pathologies

Commission d’enquête Covid-19 et le « protocole palliatif covid » = Rivotril et GIR (groupes d’intervention rapide)

Compte rendu Mission d’information de la conférence des Présidents sur l’impact, la gestion et les conséquences dans toutes ses dimensions de l’épidémie de Coronavirus-Covid 19 ⇒ PDF

Commission d’enquête Covid-19 : protocole Rivotril et GIR

⇒A noter que “ce médicament ne doit jamais être utilisé dans les situations suivantes : – insuffisance respiratoire sévère”

Avril 2020 : #Euthanasie #RIVOTRIL le Dr.Nicole Delépine explique le décret du 28 mars 2020

Coronavirus : Eric Ciotti juge qu’on a « laissé mourir les vieux » du Covid-19, 20minutes

Dr Joëlle de Monredon : « Avec le Rivotril associé à de la morphine, c’est le décès assuré par totale dépression respiratoire ». Le Rivotril a été « invité » dans le protocole de « soins » liés au coronavirusBoulevard Voltaire

Dr Serge Rader – “On achève nos personnes âgées dans les ehpad par sédation Rivotril”

Biohacking et transhumanisme : Un rapport sur l’augmentation humaine

Une étude révèle que beaucoup d’entre nous considèrent le biohacking comme passionnant, mais les craintes concernant le piratage et la vie privée demeurent.

L’augmentation humaine peut décrire beaucoup de choses. Les appareils auditifs, les stimulateurs cardiaques et les prothèses sont déjà utilisés, mais à l’avenir, nous pourrions utiliser ce terme pour désigner les implants qui améliorent les capacités cognitives ; les puces qui nous relient à nos appareils intelligents, ou les yeux bioniques qui peuvent restaurer la vue, et bien d’autres choses encore.

En ce qui concerne les applications futures, les pays du monde entier font avancer le développement de nouvelles technologies qui pourraient améliorer le corps humain.

Par exemple, le Japon a récemment mis un milliard de dollars sur la table pour les chercheurs désireux de se consacrer à tous les domaines, de l’augmentation de la population humaine à la longévité, en raison de la nécessité de s’attaquer au vieillissement de la population active et à la diminution de la population.

Kaspersky a publié un nouveau rapport, The Future of Human Augmentation 2020: Opportunity or Dangerous Dream?, ce rapport vise à clarifier les points de vue des citoyens de plusieurs pays sur la perspective du biohacking.

L’étude a révélé que 92 % des personnes interrogées ont déclaré qu’elles changeraient une caractéristique d’elles-mêmes si elles le pouvaient, 63 % ont déclaré qu’elles envisageraient une augmentation humaine à l’aide de la technologie. Le travail sur le terrain pour cette étude a été mené par Opinium Research qui a interrogé 14 500 personnes de 16 pays d’Europe et d’Afrique du Nord.

Les Italiens sont les plus nombreux à envisager le biohacking, soit 81 % au total. En revanche, les Britanniques sont plus prudents, avec seulement 33% qui disent qu’ils étudieraient l’augmentation humaine pour changer leurs propres caractéristiques. L’Espagne, le Portugal, la Grèce et le Maroc sont également ouverts à l’idée du biohacking.

Plus de la moitié des personnes interrogées, soit 53%, estiment que le biohacking améliorerait leur mode de vie. Cependant, 69% ont exprimé leur inquiétude quant au fait que le biohacking sera à l’avenir réservé aux riches.

Lors de la conférence de Kaspersky NEXT, cette opinion a également été exprimée par Julian Savulescu, professeur à l’université d’Oxford et titulaire de la chaire Uehiro d’éthique pratique : “L’augmentation humaine se développera grâce aux forces du marché en maximisant les profits des grandes entreprises multinationales”. En d’autres termes, l’économie et la demande des consommateurs pourraient stimuler les initiatives de biohacking, plutôt que toute quête d’un bien commun.

Zoltan Istvan, le fondateur du Parti Transhumaniste, a approuvé, notant que l’augmentation de la population humaine est susceptible d’être “contrôlée par le capitalisme dans une certaine mesure”, et que “l’économie sera un moteur, pour le meilleur ou pour le pire”. Istvan pense aussi que le biohacking est intrinsèquement la prochaine étape pour les humains “qui aspirent à être quelque chose de plus grand que ce que nous sommes”. “[Je suis] en fin de compte du côté du choix personnel, tant que cela ne nuit pas directement à quelqu’un d’autre”, a déclaré Istvan. “[…] Laissez les gens prendre ces décisions eux-mêmes et le marché suivra.”

Parmi les autres statistiques intéressantes publiées dans le rapport, on peut citer :

– 88% des personnes ont déclaré craindre que leur corps puisse être piraté par des cybercriminels
– 36% des femmes et 25% des hommes considèrent l’augmentation attrayante pour améliorer l’attractivité
– Les hommes sont plus intéressés par l’amélioration de leur force via le biohacking (23%) que les femmes (18%)
– 47% estiment que les gouvernements devraient réglementer l’augmentation humaine

“L’augmentation humaine est l’une des tendances technologiques les plus importantes aujourd’hui”, a commenté Marco Preuss, Directeur Europe de l’équipe de Recherche et analyse globales pour Kaspersky Europe. “Mais les gens ont raison de se méfier. Les adeptes de l’augmentation testent déjà les limites du possible, mais nous avons besoin de normes communes pour garantir que l’augmentation atteigne son plein potentiel tout en minimisant les risques”.

“Il est important d’en parler maintenant, d’avoir un aperçu de ces technologies maintenant, afin de conduire activement son développement”, a déclaré Preuss. “Nous avons tellement de romans et de films sur ce sujet. Il nous appartient maintenant de décider si nous voulons aller dans cette direction”.

CTech , Kaspersky, ZDNet

People Analytics : La longue histoire de l’analyse des personnes

La Silicon Valley croit depuis longtemps qu’elle peut optimiser la société, comme le soutient Jill Lepore dans son nouveau livre If Then.

Si vous travaillez pour Bank of America ou l’armée américaine, vous avez peut-être utilisé une technologie développée par Humanyze. Cette société est issue des recherches menées au Media Lab du MIT et décrit ses produits comme “des analyses fondées sur la science pour favoriser l’adaptabilité”.

Si cela semble vague, c’est peut-être délibéré. Humanyze vend notamment aux entreprises des dispositifs permettant d’espionner les employés, tels que des badges d’identification avec des étiquettes RFID intégrées, des capteurs de communication en champ proche (NFC, Near Field Communication) et des microphones intégrés qui permettent de suivre dans les moindres détails le ton et le volume (mais pas les mots) des conversations des personnes tout au long de la journée. Humanyze a déposé son score de santé organisationnelle, qu’elle calcule sur la base des données des employés collectées par les badges et qu’elle promet être “une formule éprouvée pour accélérer le changement et favoriser l’amélioration”.

Ou alors vous travaillez pour l’une des entreprises du secteur de la santé, du commerce de détail ou des services financiers qui utilisent le logiciel développé par Receptiviti. La mission de cette entreprise basée à Toronto est d’aider les machines à comprendre les gens en scannant les courriels et les messages Slack à la recherche d’indices linguistiques de mécontentement. “Nous nous inquiétons de la perception de Big Brother”, a récemment déclaré Kreindler, le PDG de Receptiviti au Wall Street Journal. Il préfère qualifier la surveillance des employés de corporate mindfulness. (Orwell aurait également eu quelque chose à dire sur cet euphémisme).

De tels efforts dans ce que ses créateurs appellent “people analytics” sont généralement justifiés par l’amélioration de l’efficacité ou de l’expérience du client. Ces derniers mois, certains gouvernements et experts de la santé publique ont préconisé le suivi et la traçabilité des applications comme moyen d’arrêter la propagation de la covid-19.

Mais en adoptant ces technologies, les entreprises et les gouvernements évitent souvent de répondre à des questions cruciales : Qui devrait savoir quoi à votre sujet ? Ce qu’ils savent est-il exact ? Que devraient-ils être en mesure de faire avec ces informations ? Et, est-il jamais possible de concevoir une “formule éprouvée” pour évaluer le comportement humain ?

De telles questions ont une histoire, mais les technologues d’aujourd’hui ne semblent pas la connaître. Ils préfèrent se concentrer sur les nouvelles et ingénieuses façons dont leurs inventions peuvent améliorer l’expérience humaine (ou les résultats de l’entreprise) plutôt que sur les façons dont les gens ont essayé et échoué à faire de même dans les époques précédentes. Chaque nouvel algorithme ou application est, selon eux, une réprimande implicite du passé.

Mais ce passé peut offrir une orientation et une humilité bien nécessaires. Malgré des ordinateurs plus rapides et des algorithmes plus sophistiqués, l’analyse des personnes d’aujourd’hui est alimentée par une vieille conception réductrice : l’idée que la nature humaine dans toute sa complexité peut être réduite à une formule. Nous en savons assez sur le comportement humain pour exploiter les faiblesses des uns et des autres, mais pas assez pour le modifier de manière significative.

If Then, un nouveau livre de Jill Lepore, historienne à l’université de Harvard et rédactrice au New Yorker, raconte l’histoire d’une entreprise technologique oubliée du milieu du XXe siècle, la Simulmatics Corporation. Fondée par un groupe hétéroclite de scientifiques et de publicitaires en 1959, elle était, selon Jill Lepore, “la Cambridge Analytica de l’Amérique de la guerre froide”.

Une description plus précise pourrait être que c’était un effort des démocrates pour concurrencer l’adoption des techniques de publicité par le parti républicain. Au milieu du siècle, les républicains vendaient les hommes politiques au public comme s’il s’agissait de papier toilette ou de café. Simulmatics, qui s’était installé à New York (et qui a dû recourir aux ordinateurs d’IBM pour effectuer ses calculs), promettait de prédire le résultat des élections presque en temps réel – une pratique désormais si courante qu’elle est banale, mais considérée alors comme révolutionnaire, voire impossible.

Le nom de la société, qui signifie “simulation” et “automatique”, était à la mesure de l’ambition de ses créateurs : “automatiser la simulation du comportement humain”. Son principal outil était la People Machine, que Lepore décrit comme “un programme informatique conçu pour prédire et manipuler le comportement humain, toutes sortes de comportements humains, de l’achat d’un lave-vaisselle à la lutte contre une insurrection en passant par le vote”. Il fonctionnait en développant des catégories de personnes (comme une mère blanche de la classe ouvrière catholique ou républicaine de banlieue) et en simulant leur prise de décision probable. (La publicité ciblée et les campagnes politiques utilisent aujourd’hui des techniques largement similaires).

Les principaux acteurs de l’entreprise sont issus de différents milieux. Le publicitaire Ed Greenfield a été l’un des premiers à entrevoir comment la nouvelle technologie de la télévision allait révolutionner la politique et a acquis la conviction que les premiers ordinateurs exerceraient une force tout aussi perturbatrice sur la démocratie. Ithiel de Sola Pool, un ambitieux chercheur en sciences sociales désireux de travailler avec le gouvernement pour découvrir les secrets du comportement humain, est finalement devenu l’un des premiers théoriciens visionnaires des réseaux sociaux.

Plus que tout autre homme de Simulmatics, Pool incarnait à la fois la ferveur idéaliste et l’insouciance à l’égard de la violation des normes qui caractérisent les innovateurs technologiques d’aujourd’hui. Fils de parents radicaux qui ont eux-mêmes touché au socialisme dans leur jeunesse, il a passé le reste de sa vie à prouver qu’il était un patriote engagé dans la guerre froide, et il a un jour décrit son travail à Simulmatics comme “une sorte de pari du Manhattan Project en politique”.

Pour aider à l’élection de J.F.K., Simulmatics a conçu des modèles informatiques du comportement des électeurs. Photographie de Stan Wayman / Getty

L’un des premiers gros clients de la société a été la campagne présidentielle de John F. Kennedy en 1960. Lorsque Kennedy a gagné, la société a revendiqué le mérite. Mais elle a également dû faire face à la crainte que la machine qu’elle avait construite puisse être utilisée à des fins malveillantes. Comme l’a dit un scientifique dans un exposé de la société, publié par le magazine Harper’s peu après l’élection, “On ne peut pas simuler les conséquences de la simulation“. Le public craignait que des entreprises comme Simulmatics puissent avoir une influence corrompue sur le processus démocratique. Cela, rappelons-le, s’est passé près d’un demi-siècle avant même la création de Facebook.

Une branche du gouvernement, cependant, s’est montrée enthousiaste quant aux capacités prédictives de la société : le Département de la Défense. Comme le rappelle Lepore, les partenariats étroits entre les technologues et le Pentagone étaient considérés comme des efforts nécessaires et patriotiques pour endiguer la vague communiste pendant la guerre froide.

En 1966, Pool avait accepté un contrat pour superviser un projet de sciences du comportement à grande échelle pour le Département de la Défense à Saïgon. “Le Vietnam est le plus grand laboratoire de sciences sociales que nous ayons jamais eu ! S’enthousiasme-t-il. Comme le secrétaire à la Défense Robert McNamara, Pool pensait que la guerre serait gagnée dans “le cœur et l’esprit” des Vietnamiens, et qu’elle nécessitait la modélisation et la simulation des sciences du comportement pour être gagnée. Comme l’écrit Lepore, Pool soutenait que si les hommes d’État avaient par le passé consulté la philosophie, la littérature et l’histoire, les hommes d’État de la guerre froide étaient obligés de consulter les sciences du comportement.

Leurs efforts de contre-insurrection assistée par ordinateur ont été un échec désastreux, en grande partie parce que les données de Simulmatics sur les Vietnamiens étaient partielles et que ses simulations reposaient davantage sur des vœux pieux que sur les réalités du terrain. Mais cela n’a pas empêché le gouvernement fédéral de revenir vers Pool et Simulmatics pour l’aider à comprendre – et à prévoir – les troubles civils au Vietnam.

La Commission Kerner, instituée par le président Lyndon Johnson en 1967 pour étudier les émeutes raciales qui avaient éclaté dans tout le pays, a payé la division des études urbaines de Simulmatics pour qu’elle conçoive une formule prédictive des émeutes afin d’alerter les autorités avant que celles-ci ne dégénèrent en désordre. Comme les prédictions pour le Vietnam, celles-ci se sont avérées douteuses. Dans les années 1970, Simulmatics avait fait faillite et “la simulation informatique automatisée du comportement humain était tombée en discrédit”, selon Lepore.

“La collecte et l’utilisation à des fins lucratives de données sur le comportement humain, non réglementées par un quelconque organisme gouvernemental, a fait des ravages dans les sociétés humaines”.

La simulation “se cache derrière l’écran de chaque appareil” que nous utilisons, affirme Lepore, et elle prétend que ses créateurs, les “grands-pères à la moustache blanche et à la mort longue de Mark Zuckerberg et Sergey Brin et Jeff Bezos et Peter Thiel et Marc Andreessen et Elon Musk”, sont un “chaînon manquant” dans l’histoire de la technologie. Mais il s’agit là d’un dépassement. Le rêve de trier, de catégoriser et d’analyser les gens a été une constante tout au long de l’histoire. L’effort de Simulmatics n’était qu’un effort parmi d’autres, et n’était guère révolutionnaire.

Les projets du XIXe siècle visant à classer les criminels par catégories, ou les campagnes du début du XXe siècle visant à prédire le comportement en fonction de catégories pseudo-scientifiques de race et d’ethnicité au plus fort du mouvement eugéniste, ont été beaucoup plus importants (et nuisibles) sur le plan historique. Tous ces projets ont également été couronnés de succès grâce à la collecte et à la systématisation de données et à des partenariats avec les autorités locales et nationales, mais ils ont également suscité l’enthousiasme d’une grande partie du public, ce que Simulmatics n’a jamais réalisé.

Ce qui est vrai, c’est que la combinaison d’idéalisme et d’orgueil de Simulmatics ressemble à celle de nombreuses entreprises contemporaines de la Silicon Valley. Comme elles, elle se considère comme le fer de lance d’un nouveau siècle des Lumières, dirigé par les personnes les plus aptes à résoudre les problèmes de la société, même si elles ne saisissent pas la complexité et la diversité de cette société. “Il serait plus facile, plus réconfortant, moins dérangeant, si les scientifiques de Simulmatics étaient les méchants”, écrit Lepore. “Mais ils ne l’étaient pas. C’étaient des libéraux blancs du milieu du siècle dernier, à une époque où l’on n’attendait pas des libéraux blancs qu’ils comprennent les gens qui n’étaient pas blancs ou libéraux”. Alors que Simulmatics Corporation croyait que la même formule pouvait comprendre des populations aussi distinctes que les électeurs américains et les villageois vietnamiens, les technologies prédictives actuelles font souvent des promesses tout aussi grandioses. Alimentées par une collecte et une analyse de données bien plus sophistiquées, elles ne parviennent toujours pas à rendre compte de toute la gamme et de la richesse de la complexité et des variations humaines.

Ainsi, bien que Simulmatics est inventé le futur, ses tentatives de catégorisation et de prévision du comportement humain ont soulevé des questions sur l’éthique des données qui sont toujours d’actualité. Lepore décrit les audiences du Congrès sur la confidentialité des données en 1966, lorsqu’un scientifique du RAND a exposé au Congrès les questions qu’il devrait poser : Que sont les données ? À qui appartiennent les données ? Quelle est l’obligation du collecteur, du détenteur ou de l’analyste des données à l’égard du sujet des données ? Les données peuvent-elles être partagées ? Peuvent-elles être vendues ?

Lepore déplore qu’une époque antérieure n’ait pas su aborder de front ces questions. “Si, alors, dans les années 1960, les choses s’étaient passées différemment, cet avenir aurait pu être sauvé”, écrit-elle, ajoutant que “beaucoup de gens croyaient à l’époque qu’une people machine était entièrement et totalement amorale”. Mais il est aussi étrangement rassurant d’apprendre que même lorsque nos technologies étaient à leur stade rudimentaire, les gens réfléchissaient aux conséquences probables de leur utilisation.

Comme l’écrit Lepore, la simulation a été entravée par les limites technologiques des années 1960 : “Les données étaient rares. Les modèles étaient faibles. Les ordinateurs étaient lents. La machine tombait en panne, et les hommes qui la construisaient ne pouvaient pas la réparer.” Mais bien que les machines d’aujourd’hui soient “plus élégantes, plus rapides et apparemment inarrêtables”, elles ne sont pas fondamentalement différentes de celles de Simulmatics. Toutes sont basées sur la croyance que les lois mathématiques de la nature humaine sont réelles, de la même manière que les lois de la physique sont – une fausse croyance, note Lepore.

L’étude du comportement humain n’est pas la même chose que l’étude de la propagation des virus et de la densité des clouds et du mouvement des étoiles. Le comportement humain ne suit pas des lois comme la loi de la gravité, et croire qu’il le fait, c’est prêter serment à une nouvelle religion. La prédestination peut être un évangile dangereux. La collecte et l’utilisation à des fins lucratives de données sur le comportement humain, non réglementées par un quelconque organisme gouvernemental, a fait des ravages dans les sociétés humaines, en particulier dans les domaines dans lesquels Simulmatics s’est engagé : politique, publicité, journalisme, contre-insurrection et relations raciales.

La société Simulmatics a échoué parce qu’elle était en avance sur son temps, ses homologues modernes sont plus puissants et plus rentables. Mais se souvenir de son histoire peut aider à clarifier les déficiences d’une société construite sur des croyances réductrices concernant le pouvoir des données.

Réglementation de la biométrie : Approches globales et questions urgentes

L’AI Now Institute a publié un recueil d’études de cas sur les approches réglementaires de la technologie de reconnaissance biométrique, les leçons tirées et les futures actions de sensibilisation

Dans un contexte de surveillance publique accrue, l’intérêt pour la réglementation des technologies biométriques telles que la reconnaissance faciale et vocale s’est considérablement accru dans le monde entier, sous l’impulsion de la recherche et de la défense des intérêts des communautés. Il se dégage de ce moment un sentiment croissant que des technologies comme la reconnaissance faciale ne sont pas inévitables, et peut-être même pas nécessaires ou utiles.

“Regulating Biometrics: Global approaches and urgent questions”, par Amba Kak, présente huit études de cas détaillées d’universitaires, avocats et experts politiques qui examinent les tentatives actuelles de réglementation des technologies biométriques et donnent un aperçu des promesses et des limites de ces approches. Dans quels domaines la réglementation est-elle capable de déterminer si et comment les technologies biométriques sont utilisées, et dans quels domaines est-elle insuffisante ? En examinant ces questions, ces auteurs experts éclairent les domaines d’engagement, de défense et de réglementation futurs.

Ces essais brossent un tableau du paysage mondial complexe de la réglementation de la biométrie, en mettant en évidence les nombreuses approches adoptées par les partisans de la biométrie, qui réclament un contrôle accru de ces technologies, ainsi que la manière dont les gouvernements ont utilisé la loi comme outil pour étendre ou consolider l’utilisation de la biométrie.

Projet de loi australien sur les services de rapprochement des identités (p.44)

Jake Goldenfein (Faculté de droit de Melbourne) et Monique Mann (Université Deakin) suivent les manœuvres institutionnelles et politiques qui ont conduit l’Australie à créer une grande base de données centralisée de reconnaissance faciale (“The Capability”) à l’usage de divers acteurs gouvernementaux. Ils examinent les échecs de la réglementation pour remettre en cause de manière significative la construction de ce système, voire pour façonner son architecture technique ou institutionnelle.

L’économie (et la pratique réglementaire) que la biométrie inspire : Une étude du projet Aadhaar (p.52)

Nayantara Ranganathan (avocate et chercheuse indépendante, Inde) explique comment le droit et la politique autour du projet indien d’identification biométrique (“Aadhaar”) ont finalement servi à construire des données biométriques comme ressource pour l’extraction de données de valeur par des entreprises privées. Elle explore comment la réglementation a été influencée par les logiques et les cultures du projet qu’elle cherchait à réglementer.

Une première tentative de réglementation des données biométriques dans l’Union européenne (p.62)

Els Kindt (KU Leuven) fournit un compte-rendu détaillé de l’approche du Règlement général sur la protection des données (RGPD) de l’Union européenne en matière de réglementation des données biométriques. Comme de nombreux pays sont sur le point de mettre en œuvre des lois nationales rédigées de manière similaire, elle identifie les lacunes potentielles et souligne les domaines clés pour la réforme.

Réflexion sur la politique biométrique du Comité international de la Croix-Rouge : Réduire au minimum les bases de données centralisées (p.70)

Ben Hayes (Agence AWO, conseiller juridique consultant auprès du Comité international de la Croix-Rouge [CICR]) et Massimo Marelli (chef du Bureau de la protection des données du CICR) expliquent le processus décisionnel du CICR pour formuler sa première politique en matière de biométrie, qui visait à éviter la création de bases de données et à minimiser les risques pour les populations vulnérables dans les contextes humanitaires.

Utilisation par la police de la reconnaissance faciale en live au Royaume-Uni (p.78)

Peter Fussey (Université d’Essex) et Daragh Murray (Université d’Essex), principaux auteurs de l’étude empirique indépendante du procès de la police métropolitaine de Londres sur la reconnaissance faciale en live (LFR-Live Facial Recognition), expliquent comment les normes juridiques et les outils de régulation existants n’ont pas réussi à empêcher la prolifération d’un système dont les effets néfastes ont été démontrés. Ils tirent ainsi des enseignements plus larges pour la réglementation de la LFR au Royaume-Uni et des technologies similaires ailleurs.

Une taxonomie des approches législatives pour la reconnaissance faciale aux États-Unis (p.86)

Jameson Spivack et Clare Garvie (Georgetown Center on Privacy and Technology) écrivent sur les dizaines de lois d’interdiction et de moratoires sur l’utilisation de la reconnaissance faciale par la police aux États-Unis, la plupart d’entre elles menées par des avocats et des organisations communautaires. Les auteurs fournissent une taxonomie détaillée qui va au-delà des grandes catégories d’interdiction et de moratoire, et réfléchissent aux leçons tirées de leur mise en œuvre.

BIPA : La plus importante loi biométrique sur la protection de la vie privée aux États-Unis ? (p.96)

Woodrow Hartzog (Northeastern University) explore les promesses et les pièges de la loi sur la confidentialité des informations biométriques (BIPA) de l’État de l’Illinois et, plus largement, du droit des particuliers à engager leurs propres actions contre des entreprises privées. Il s’interroge sur les limites inévitables d’une loi centrée sur le “consentement éclairé”, un système qui donne l’illusion d’un contrôle tout en justifiant des pratiques douteuses que les gens n’ont pas assez de temps ou de ressources pour comprendre et agir.

Réglementation biométrique ascendante : La réponse de la Communauté à l’utilisation de la surveillance faciale dans les écoles (p.104)

Stefanie Coyle (NYCLU) et Rashida Richardson (Rutgers Law School ; AI Now Institute, NYU) examinent la décision controversée d’un district scolaire de Lockport, New York, de mettre en place un système de reconnaissance faciale et d’objets pour surveiller les élèves. Elles mettent en lumière la réponse de la communauté qui a suscité un débat national et a conduit à une législation à l’échelle de l’État réglementant l’utilisation des technologies biométriques dans les écoles.

Lire le rapport complet (PDF)