Liberté, Égalité, Singularité

À l’heure de la globalisation, les frontières ne disparaissent pas qu’entre les pays. Longtemps confinée aux domaines de la science, de l’industrie et du divertissement, la technologie envahit désormais des territoires considérés jusque-là comme essentiellement humains : les relations intimes, la psychologie, l’art, l’éducation et même… la politique. La conquête se fait sur plusieurs fronts simultanément : la sécurité, l’économie, le droit, l’environnement, la santé, mais aussi sur le plan électoral lui-même, et tout cela à grand renfort de big data. Cette évolution, qui soulève pourtant de nombreuses questions éthiques, ne semble pas inquiéter les citoyens et les citoyennes de nos chères démocraties, probablement usées par des décennies de scandales et de crises à répétition. En effet, dans un sondage réalisé le 21 mars 2019 par l’Université IE de Madrid, on apprend que « 25% des Européens seraient prêts à laisser des algorithmes gouverner plutôt que des hommes politiques pour prendre les bonnes décisions (…) Un chiffre qui monte à 30% en Allemagne, en Italie, en Irlande, au Royaume-Uni et même à 43% aux Pays-Bas »… Saint George (Orwell), priez pour nous.

Big data, big brother, big control

Les temps changent et, avec eux, les pratiques politiques. Enfin, les outils évoluent, mais les objectifs des puissants restent, eux, désespérément identiques au fil des siècles. Parmi ces objectifs, la clé de voûte du pouvoir : le contrôle. Et c’est ce que le big data permet aujourd’hui, dans des proportions inédites. Nous sommes scrutés sous toutes les coutures, nos actions sont observées, mesurées et enregistrées sans que nous en ayons conscience : caméras de surveillance dans les rues, reconnaissance faciale, géolocalisation, analyse de nos habitudes de consommation via nos cartes de paiement, de nos préférences culturelles et de nos orientations politiques sur les réseaux sociaux… Nous savons même désormais avec certitude que nous sommes écoutés par nos téléphones portables, nos tablettes et nos ordinateurs. Bien sûr, pour le moment cette collecte de données se fait officiellement à titre anonyme et pour des motivations commerciales. Mais il est clair que leur exploitation ne se limite pas à un usage mercantile et que ces pratiques ont d’ores et déjà des visées politiques, comme l’a démontré récemment le scandale Cambridge Analytica. Ajoutons à ce tableau le développement de nouvelles techniques comme le facial coding, qui consiste à décrypter les émotions sur le visage d’une personne, ou encore le déploiement du nudge, discipline qui vise à influer sur le comportement du consommateur (ou de l’électeur) par des moyens subtils et donc à guider sournoisement ses choix, et nous voyons se dessiner les contours d’une société où les notions de vie privée et de liberté ne seront bientôt plus qu’un lointain souvenir. Or, cette liberté est l’un des fondements de la démocratie et si les avancées technologiques la mettent en péril, alors il ne s’agit plus de progrès, mais d’une terrible régression. Le journaliste et essayiste Philippe Vion-Dury, auteur de La nouvelle servitude volontaire, le confirme : « Les entreprises de la Silicon Valley sont porteuses d’un véritable projet politique. Leurs algorithmes mettent sous leur coupe ceux qui s’y soumettent, volontairement. Aveuglant les consommateurs et les États par l’éclat de leur spectaculaire réussite économique, ces entreprises sont en train d’accumuler des sommes incalculables de données, grâce auxquelles elles ambitionnent de tout mesurer, tout contrôler, tout prévoir. Ou quand les mathématiques deviennent totalitaires. »

Power of equality

Les algorithmes sont-ils égalitaires, par nature ? Dans un rapport de la Human Technology Fondation intitulé « Intelligence artificielle, solidarité et assurances en Europe et au Canada » et daté du 20 janvier 2020, des acteurs majeurs du monde de l’assurance dressent un constat clair : « La montée en puissance des technologies et de l’IA nous force à réfléchir à ces pratiques et à leur futur. Ainsi, le recours, par les assureurs, aux objets connectés qui fournissent des informations précieuses sur le comportement de l’assuré, peut entrer en conflit avec le droit fondamental des personnes de mener leur existence selon leur propre conception de la vie bonne. En outre, l’hypersegmentation, qui aboutirait, à son point limite à la personnalisation complète des tarifs, pourrait remettre en question le principe de mutualisation entre les assurés. » En d’autres termes, l’IA et le big data pourraient accroître les inégalités en faisant payer davantage les citoyens dont on jugera le mode de vie « non conforme ». Les algorithmes pourraient devenir, si l’on n’y prend garde, des outils au service d’une discrimination sans précédent. Et ce qui est valable dans le monde de l’assurance, l’est tout autant dans les domaines de la culture, de l’éducation, de l’orientation religieuse, politique ou même sexuelle… Qui établira ce qui est conforme et ce qui ne l’est pas ? Quels seront les intérêts défendus par les instances en charge de telles décisions ? C’est là que l’État, en tant que représentant de l’intérêt général, a plus que jamais son rôle à jouer. Oui, mais voilà… Pour certains militants radicaux de la big tech, l’État, c’est justement la bête à abattre. Curtis Yarvin, ingénieur quadragénaire de la Silicon Valley et membre du mouvement néo-réactionnaire NRx, déclare : « Les États doivent devenir des entreprises lourdement armées et ultra rentables, qui aboliront le pouvoir de la presse, écraseront les universités, vendront les écoles publiques et transféreront les « populations décivilisées » dans des enclaves sécurisées pour les rééduquer ». Pour David Golumbia, professeur à la Virginia Commonwealth University, ce mépris pour la démocratie ferait partie de l’ADN même des fondateurs de la Valley : « Des gens comme Peter Thiel ou Elon Musk, pour ne citer qu’eux, dont le mépris est encore plus flagrant, sont célébrés comme des héros par les néo-réactionnaires ». Derrière les outils technologiques, il est donc bien question d’idéologie politique.

Make America tech again

Comme tout courant de pensée, l’idéologie techno-futuriste a ses penseurs. D’aucuns diraient ses gourous. Malgré une posture anti-politique de façade, certains ne cachent pas leurs ambitions dans ce domaine, à l’instar de Peter Thiel. Le cofondateur de Paypal et de Palantir Technologies, une société spécialisée dans le big data, a soutenu la candidature de Donald Trump à la présidentielle américaine de 2016 et est resté, depuis, l’un de ses proches conseillers. Pour le très libertarien Thiel, « le sort de notre monde dépend d’un seul individu, d’une personne, qui sera capable de bâtir et diffuser des outils technologiques favorisant la liberté et permettant un monde plus sûr pour l’épanouissement du capitalisme »… Cette personne serait-elle Elon Musk ? Avec son entreprise Neuralink, le patron de Tesla entend augmenter l’être humain grâce à des interfaces homme-machine implantées directement dans le cerveau et ce, afin d’augmenter la mémoire, de piloter des logiciels par la pensée ou encore de bénéficier d’un moteur de recherche cérébral… De quoi donner des sueurs froides à la CNIL, dans une France encore très attachée à la protection des données et aux libertés individuelles. Catherine Vidal, neurobiologiste et membre du comité d’éthique de l’Inserm, estime qu’« une vigilance éthique accrue s’impose face au développement spectaculaire des technologies de manipulations cérébrales qui dépassent désormais le cadre de la médecine, avec des applications commerciales destinées à la population en bonne santé (…) Les stimulations (électriques ou magnétiques) peuvent altérer le fonctionnement normal du cerveau, ses capacités de plasticité, et porter atteinte à l’autonomie du patient en interférant avec ses pensées, ses émotions, son libre arbitre ». Mais si la plupart des chercheurs français se montrent prudents quant à l’impact des neurotechnologies sur la société, les américains sont plus décomplexés, voire carrément débridés. Parmi eux, le pape transhumaniste Ray Kurzweil qui considère que « l’existence humaine ne dépend pas d’un corps biologique » et que « la biologie elle-même n’est qu’un ensemble de nanomachines ». Pour le directeur de l’ingénierie de Google, « les machines dépasseront nos capacités » très bientôt et nous n’aurions d’autres choix, pauvres humains limités que nous sommes, que de fusionner avec une super intelligence artificielle pour survivre. Une vision que partage le leader du parti transhumaniste Zoltan Istvan, candidat aux élections présidentielles de 2020, qui fait campagne « pour mettre fin à l’idée de la mort ». Dans son programme, quelques grands classiques ultralibéraux et technophiles : fin de l’impôt sur le revenu et de l’IRS (l’administration fiscale américaine), réduction du nombre de fonctionnaires grâce aux robots et aux nouvelles technologies, lutte contre le réchauffement climatique avec la géo-ingénierie, développement des utérus artificiels… Mais aussi, en toute logique, des mesures orientées plus radicalement vers le transhumanisme. « Le gouvernement ne devrait pas être en mesure de limiter ce que nous pouvons faire à notre corps, quelles que soient les normes culturelles, les préjugés religieux ou l’orientation politique », déclare le candidat sur son site de campagne. Si Istvan souhaite accéder à la fonction suprême, c’est pour « interdire les lois qui entravent la recherche de la santé et de la longévité pour les citoyens, notamment les interdictions sur l’édition génétique, le clonage et d’autres sciences radicales (…), déréglementer autant que possible l’innovation scientifique et technologique (…), explorer des options telles que donner aux criminels le choix du reconditionnement cérébral plutôt que de l’exécution (…), jeter les bases de droits civils pour de futurs êtres avancés comme les robots conscients, les cyborgs et les êtres vivants génétiquement créés »… Le Docteur Frankenstein est sorti de son laboratoire pour convertir le monde à la religion scientiste. Le président américain ne prêtera-t-il bientôt plus serment sur la Bible lors de son investiture, mais sur l’ouvrage du médecin philosophe Julien Offray de La Mettrie, L’Homme Machine ? Amérique, pays de tous les extrêmes.

Opération Crossroads 2020

« Il est évident que la guerre, peut-être même les civilisations, sont arrivées à un point critique grâce à cette arme révolutionnaire ». Telles sont les paroles du vice-amiral William Blandy, chef de l’opération Crossroads (« À la croisée des chemins »), une série d’essais nucléaires qui eurent lieu dans l’atoll de Bikini, au cours de l’été 1946, et dont le but était de valider la puissance destructrice des bombes A sur des navires et des sous-marins situés aux alentours. À la croisée des chemins, c’est probablement là que nous nous situons actuellement, avec le développement spectaculaire des neurotechnologies, de l’intelligence artificielle et du transhumanisme. Les enjeux de ces progrès sont, tout comme ceux liés à l’invention de la bombe atomique, planétaires et historiques. Nous parlons bel et bien ici, sans exagération, de l’avenir de l’humanité. À nos pieds, s’étendent deux voies, deux visions politiques, deux futurs possibles. L’une de ces routes nous mènerait vers un monde imprégné de scientisme, dans lequel la technologie serait mise au service d’une minorité recherchant toujours plus de richesses et de pouvoir, au détriment d’une population de plus en plus déclassée et soumise. Laurie Pycroft, chercheur en neurochirurgie à l’Université d’Oxford, analyse parfaitement ce risque : « Des neurotechnologies de pointe dont l’usage serait large pourraient offrir des modes de manipulation politique inimaginables jusqu’ici (…) Ce qui nous inquiète, c’est que si les mesures de sécurité appropriées ne sont pas mises en place, les patients pourraient être victimes de sévères effets secondaires, et leurs pensées pourraient être ciblées par des cyberattaques (…)L’attraction que pourrait générer la manipulation des souvenirs chez certains dirigeants politiques me semble évidente ! Modifier la mémoire ou changer notre point de vue sur un sujet est l’un des principaux objectifs de n’importe quel propagandiste. » Si le corps a déjà commencé à être envahi par la société de consommation, à travers la chirurgie esthétique et le transhumanisme, la conscience était restée jusque-là un territoire imprenable. Mais aujourd’hui, ce dernier bastion de la liberté humaine est menacé et pourrait bien être colonisé avec une efficacité redoutable, si nous n’y prenons pas garde. Les capitaines de la big tech eux-mêmes multiplient les déclarations chocs, comme pour se préserver de leur propre hubris. Brad Smith, le président de Microsoft, déclarait en 2018 au Web Summit de Lisbonne : « Pour la première fois, le monde est au seuil de technologies qui donneraient à un gouvernement la possibilité de suivre n’importe qui, n’importe où (…) Il pourrait savoir exactement où vous allez, où vous êtes allé et où vous étiez hier. Et cela a de profondes ramifications potentielles, même pour les libertés civiles fondamentales sur lesquelles reposent les sociétés démocratiques. Avant de nous réveiller et de constater que l’année 2024 ressemble à l’ouvrage « 1984 », déterminons le genre de monde que nous voulons créer, quels sont les garde-fous et les limites des entreprises et des gouvernements dans l’utilisation de ces technologies. » Nous devons, en effet, déterminer le monde dans lequel nous voulons vivre. La crise du Covid-19 nous le rappelle de manière brutale : le marché et ses lois ne nous guident pas vers un monde meilleur, et aujourd’hui sa main invisible doit être désinfectée chaque jour avec du gel hydroalcoolique, sous peine de mort. Pourtant, certaines autorités tentent actuellement de renforcer leur pouvoir – et celui de l’économie néolibérale – en proposant des mesures radicales de surveillance numérique, au prétexte de vouloir protéger les populations… Mais gardons espoir, car il existe une deuxième voie. Nous pouvons bâtir un autre avenir, un monde dans lequel la technologie ne tiendra pas un rôle oppressif, mais libérateur. Une société low tech où le numérique régulera la surconsommation, au lieu de l’aggraver ; où la technologie apportera un soutien à chaque citoyen, quel que soit son niveau social ; où la priorité ne sera pas la rentabilité d’un médicament, mais son efficacité ; où l’épanouissement des salariés prévaudra sur le niveau des dividendes ; où les tâches pénibles et dangereuses seront assurées par des robots, au bénéfice de l’homme ; où les solutions énergétiques durables ne seront pas enterrées parce qu’elles menacent les intérêts de certaines industries polluantes ; où chaque être humain mangera à sa faim, où qu’il soit sur Terre ; où le besoin de sécurité ne sera pas assuré par des politiques de surveillance liberticides, mais par la disparition des inégalités… Un nouvel Éden, où le progrès technique sera au service de l’humanité tout entière. Cette société est possible, ce n’est pas une utopie. Mais pour la faire advenir, nous avons des choix à faire. Des choix politiques, au sens le plus philosophique du terme.

In Google We Trust

Depuis son adoption par le Congrès en 1956, « In God We Trust » (« Nous avons confiance en Dieu ») est devenue la devise officielle des États-Unis. Quelle ironie de voir une nation qui a fondé ses valeurs sur la foi religieuse, devenir le fer de lance de la foi transhumaniste et promettre à qui veut l’entendre, par la bouche de ses techno-prophètes, que l’immortalité numérique est pour bientôt ! C’est justement là qu’une réflexion philosophique s’impose. Paradoxalement, l’intelligence artificielle, aboutissement ultime du matérialisme, va nous obliger à nous poser des questions d’ordre spirituel. Rappelons que la singularité annoncée par Ray Kurzweil, ce moment où l’intelligence artificielle dépassera l’intelligence humaine et où son développement échappera à tout contrôle, a son équivalent en mathématiques et en astrophysique : il s’agit de la frontière d’un trou noir, appelé « horizon des évènements », au-delà de laquelle les lois de la physique ne s’appliquent plus, une réalité littéralement métaphysique. Et c’est l’ultime raison pour laquelle le politique doit s’emparer des questions soulevées par la big tech : pour ne pas laisser ce qui relève de la pérennité de l’humanité aux seuls industriels, dont les choix sont encore trop dictés, aujourd’hui, par des objectifs uniquement financiers. L’humanité est, nous le pressentons tous, à un tournant de son histoire. Il se pourrait que, demain, de nouvelles découvertes scientifiques sur la conscience changent complètement la donne et redéfinissent les priorités de la recherche, autant que la vision que nous avons de la vie elle-même… Que deviendraient les promesses des transhumanistes et leur obsession de « guérir la mort », si nous découvrions que nous avons une âme et qu’elle existe dans une autre dimension ? Zoltan Istvan a-t-il envisagé cette possibilité ? Ray Kurzweil en a-t-il tenu compte dans son business plan ? Qu’elle soit spirituelle ou technologique, la singularité à venir ne peut, par définition, pas être anticipée. Mais une chose est sûre, elle sera le résultat des intentions que nous aurons déposées, aujourd’hui, collectivement, pour la construction de notre futur. Citoyennes, citoyens, nous sommes à la croisée des chemins.

Grégory Aimar
Auteur du roman d’anticipation I.AM

Quelle forme de complicité a rendu Facebook possible ?

L’exemple de Facebook1 permet de remonter à la racine d’une « responsabilité du clic » associant le réflexe corporel – celui de cliquer, commun à toute l’économie du net – et le succès fulgurant d’une révolution globale non pas tant numérique (comme on se plaît à le dire) que politique. Facebook peut être considéré comme un exemple princeps de ce que Foucault nommait les « techniques du corps », exemple dont la valeur repose ici sur sa portée contre-intuitive, puisque l’Internet est réputé réaliser le triomphe de « l’immatériel ». Ainsi, la mystification est totale. La focalisation imaginaire sur la production des biens physiques – telles une voiture ou une paire de chaussures – fait volontiers oublier aux militants écologistes combien les réseaux ont accaparé un potentiel de croissance économique exponentielle qu’eux-mêmes hésitent à intégrer dans leur critique, en raison d’un désir de propager leur propre audience par ces moyens-là, désormais déclarés incontournables. Cette croissance est destinée à devenir ubiquitaire avec l’implantation du réseau 5G (de cinquième génération) et la généralisation de l’Internet des objets, ce qui montre à rebours que le capitalisme n’a pas dit son dernier mot sur les objets matériels : il s’agit par là de créer de toutes pièces une nouvelle phase d’accumulation qui ne laissera aucun geste quotidien en dehors de son emprise jusqu’à s’implanter dans le corps humain. Il s’agit de coloniser sans reste toute chose et tout être, et même les flux de pensée, avec notre consentement imperceptible, au nom de l’argument selon lequel il n’y a rien de mal à promouvoir des technologies si pratiques et si rapides. La croissance économique se présente ainsi sous les espèces d’une communication inoffensive, qu’il convient seulement de « faciliter » dans l’intérêt de tous, au service de bonnes causes, alors qu’elle vise à absorber l’ensemble des sphères non économiques dans sa progression dévorante. Ce faisant, elle parachève l’intégration de toute critique dans l’escarcelle de sa propre valorisation. Elle réussit à éliminer son propre dehors en contribuant à l’inanité de toute opposition politique – ceci dans la mesure même où elle prétend faciliter la diffusion de causes politiques. L’argument selon lequel on doit à Facebook (et d’autres réseaux sociaux) le départ et la diffusion de contestations sociales doit être analysé à l’aune de la croissance de Facebook lui-même, qui, pendant qu’on poussait les représentants de l’État à la démission, engrangeait les bénéfices cachés de ces révoltes : nous avons insensiblement changé de maîtres. La critique de la croissance peut ainsi en rester à la critique fétichiste des objets physiques en éludant les progrès d’une infrastructure de la communication prétendument acceptée pour la bonne cause. Ce faisant, elle nourrit un capitalisme à qui elle demande en même temps de décroître ou de disparaître. Cela démontre par les faits l’inconséquence d’une critique qui ne va pas jusqu’à considérer sérieusement l’affirmation de MacLuhan sur l’identité du message et du média. Que ne faut-il de naïveté ou d’idéologie pour penser qu’une bonne idée se suffit tellement à elle-même qu’elle n’a pas à s’interroger sur ses voies de médiatisation !

Facebook offre un cas d’espèce qui permet de définir un certain type d’enrôlement subjectif et d’éclairer la nature de certains compromis apparemment sans retour. La rumeur qui parlait d’une candidature de Zuckerberg aux élections américaines est à prendre au sérieux, même si la réputation de l’entreprise est désormais entachée : nous savons que le scénario d’un président milliardaire sans expérience politique est possible, aussi le scénario d’un milliardaire de la Silicon Valley président des États-Unis n’est pas à exclure. Comme chacun sait, Mark Zuckerberg a dû répondre en 2018 devant le Sénat américain et le Parlement européen du scandale de la vente des données personnelles à Cambridge Analytica, c’est-à-dire pour avoir transgressé le respect de la vie privée des utilisateurs et avoir permis que soient influencés les résultats des présidentielles Américaines. Mais la dénonciation aussi irrégulière qu’inefficace du monopole des GAFAM2 semble incapable de mener à une poursuite juridique à l’aide des seules lois antitrust américaines, en raison de l’intérêt pour le bien commun dont se targuent les géants du monde numérique : investissement dans la recherche scientifique (qui est cependant bien davantage qu’une recherche désintéressée puisqu’elle porte un vaste projet de société) et accession des particuliers à une multitude de services « gratuits ». Ces lois américaines qui surent dans le passé conduire au démantèlement d’entreprises aussi influentes que la Standard Oil ne s’appliquent plus à la situation actuelle. C’est pourquoi un auteur libéral comme Luc Ferry n’a rien de mieux à proposer aux Européens que de créer leur propre GAFAM. Leur monopole et leur ascension politique a déjà réussi la paralysie du monde politique, au point que la seule « alternative » aux GAFAM américains serait des équivalents européens, ce que les Chinois ont bien compris avant tout le monde avec leurs BATX3. L’arrogance européenne consistant à considérer par provision l’Europe comme naturellement porteuse de valeurs plus hautes – capable de transcender les horreurs américaines et chinoises – est une fois encore sans limites. Mais la menace que font peser les GAFAM sur l’économie et la politique elles-mêmes est la raison pour laquelle ces entreprises sont désormais dans le viseur de tout le spectre politique de droite comme de gauche, y compris américain : elles sont déclarées contrevenir aux règles minimales du libre-échange et inquiètent donc non pas tant pour leurs vertus capitalistes que pour leur nature anticapitaliste4, comme un tricheur à qui on rappelle les règles du jeu, sauf que c’est désormais le tricheur qui fait les règles. Il n’est donc pas étonnant qu’une libérale comme Margrethe Vestager, commissaire européenne à la concurrence (et, depuis le 1er décembre 2019, vice-présidente de la commission européenne en charge du numérique), ait fait de la lutte contre les GAFAM son plus grand défi. Comment en sommes-nous arrivés à une situation où des entreprises en situation de monopole mondial sont devenues à ce point capables de dicter les règles du jeu politique ? Il est possible d’étudier toute la stratégie commerciale de ces firmes pour en tirer des conclusions sur leurs ambitions politiques, dont le transhumanisme est le fleuron idéologique. Mais cette approche ne suffit pas : elle n’explique pas la protestation persistante des utilisateurs même les plus gauchistes et les plus anticapitalistes en faveur de Facebook « malgré leur répugnance », et ceci en dépit des nombreux signaux d’une modification sournoise et fondamentale de la vie politique que Facebook et d’autres ont déjà enclenchée et bientôt remportée. Il n’est que de voir le nombre de lieux qui se disent anticapitalistes et alternatifs, dont le compte Facebook est mieux mis à jour que leur site Internet : ce qui contribue de fait soit à forcer le sympathisant à ouvrir un compte Facebook pour accéder aux contenus, soit à l’exclure de ces mêmes contenus s’il persiste à refuser de se joindre à la communauté Facebook. On conviendra que c’est là un comble pour toute pensée critique. Qu’on en juge par les propos sans fards de Peter Thiel, fondateur de PayPal, actionnaire de Facebook, transhumaniste, libertarien élitiste et adversaire résolu de la démocratie : « Nous sommes engagés dans une course à mort entre la politique et la technologie. Le sort de notre monde dépend d’un seul individu, d’une personne, qui sera capable de bâtir et diffuser des outils technologiques favorisant la liberté et permettant un monde plus sûr pour l’épanouissement du capitalisme5. » Les États, pour rester dans la course, sont sur une pente glissante : la France des droits de l’homme n’a pas craint de faire passer sans débat parlementaire en 2016 un méga-fichier (Titres électroniques sécurisés) qui centralise les informations personnelles et biométriques de tous les Français. L’Europe met à l’essai « à des fins de recherche » un système de contrôle aux frontières européennes (iBorderCtrl) financé par la Commission européenne, qui utilise les technologies de reconnaissance faciale, un détecteur de mensonges et le recueil des données – tout ceci au nom du confort des usagers et de la sécurité collective qui seront les critères décisifs pour l’éventuelle adoption ultérieure de ce système de contrôle. Nous sommes insensiblement, une étape après l’autre, dépossédés du droit de ne pas être traçabilisés et personne ne sait à quoi peut servir dans un avenir incertain la constitution de tels fichiers (dont l’exemple de la Chine donne un certain avant-goût). Il n’y a aucune raison de penser qu’ils ne vont pas continuer de s’étendre en volume et en applications, toujours pour la bonne cause. « On vous protège », affirme désormais péremptoirement le métro parisien pour justifier les caméras de surveillance. Le progrès technologique est vu ici comme un développement autonome, naturel, cosmique en somme, contre lequel seules des interdictions puissantes auraient peut-être une chance de nous sauver du désastre. Il n’y a pas de choix ; il n’y a que des permissions ou des interdictions, des évitements ou des facilitations d’un phénomène qui, pour ainsi dire, se passe sans nous (dans la droite continuation du fétichisme du progrès). Pendant ce temps, nous continuons de nous enfoncer mollement dans la consommation numérique comme dans un sommeil de nos facultés critiques. Je prie le lecteur d’imaginer sur quelle pente nous mène ce faisceau de tendances qui concourent, mises ensemble, à transformer la planète en lieu invivable et sans échappatoire et l’humanité à un troupeau d’enfants qu’on dresse, qu’on surveille, qu’on protège et qu’on évalue.

Or tout se passe ainsi comme si nous avions (presque) tous voté pour Facebook et que nous considérions cette dictature d’un genre nouveau (sans doute difficile à décrypter aux habitudes héritées de l’histoire des dictatures) comme la seule option possible, rapportée à une inoffensive évolution des pratiques – du moins aussi longtemps que quelqu’un d’en haut ne nous en aura pas libérés, comme des enfants pris au piège. C’est dans ce contexte qu’il convient de replacer la demande répétée aux institutions européennes de nous libérer des GAFAM. Se peut-il que tout le monde s’en serve, mais que personne n’en veuille ? Voulons-nous ce que nous désirons, pour reprendre une formule de Lacan ? Personne ne se risque à dire sur quel modèle économique l’Europe pourrait sortir des GAFAM, étant donné qu’une version européenne des GAFAM fondée sur le même modèle économique n’aurait évidemment rien d’émancipateur, sauf à supposer qu’un label européen serait naturellement plus moral qu’un label étranger, comme tend à le croire le vieux chauvinisme européen. Quoi qu’il en soit, les politiques nationales et européennes sont dans l’impasse et leurs représentants sont détestés à la mesure de l’attente exorbitante à leur endroit. Que dire ici des utilisateurs de Facebook ? Ils ne semblent à tout le moins pas faire grand cas ni de leurs données personnelles, ni des projets qu’elles permettent de financer, ni des influences qu’on exerce sur eux. Pourquoi en effet poursuivre les entreprises si le public en redemande ? La même personne qui ne se déclare pas prête à quitter Facebook peut à la fois critiquer la viduité de la plus grande partie des communications échangées sur Facebook, jouer tout de même les « infiltrés » et en appeler à la lutte active contre les GAFAM6. De manière caractéristique, cette argumentation manie soumission et fausse critique sans rien trancher sur le fond. À côté de l’argument pratique, il se développe en particulier une série de « justification par l’infiltration » : être présent sur Facebook permettrait justement d’observer Facebook, voire permettrait de répandre à grande échelle des informations critiques, de lancer des mouvements ou d’accéder soi-même à des informations inaccessibles ailleurs (alors même que tant d’informations sont notoirement des fake news et que tant d’autres sont censurées). Voyons plutôt ce que déclarait l’une des collaboratrices de Facebook au souvenir de l’introduction des News Feed en 2006 :

« Nous nous sommes réveillés avec des centaines de milliers de gens indignés. Pendant la nuit, des groupes Facebook comme “je déteste newsfeed”, “Ruchi [la collaboratrice en question] est le diable” s’étaient constitués. Des reporters journalistiques et des étudiants étaient campés devant les bureaux. Nous avons dû nous faufiler discrètement par la sortie arrière pour quitter le bureau. Des tas de gens nous demandaient de fermer définitivement News Feed. Et la plupart des autres entreprises auraient exactement fait cela, en particulier si 10 % de leurs usagers menaçaient de boycotter le produit. Mais nous ne l’avons pas fait… En fait, News Feed a marché. Au milieu de tout ce bazar, de toute cette indignation, nous avons remarqué quelque chose d’inhabituel. Bien que chacun prétendait le détester, l’activité avait doublé7. »

La mesure de l’action plutôt que celle de l’opinion aura ici été déterminante : non pas ce que vous dîtes, mais ce que vous faites. C’est bien le coup de clic qui aura été décisif, cette sorte de réflexe inscrit dans la peau des utilisateurs de l’ère numérique. Cela porte un nom en théorie néoclassique : ce sont les préférences révélées8. L’écart entre l’indignation affichée des utilisateurs et le succès réel de la chose (« News Feed a marché… l’activité avait doublé ») justifie la poursuite de l’entreprise, ressort ultime de son ascension. Le compromis passé à ce moment-là ouvre une voie qui, semble-t-il, est sans retour : une fois que ce cap fut franchi, Facebook devint en quelques années toujours plus puissant et politiquement hors d’atteinte. Les conditions d’installation initiales furent comme frappées de refoulement. Le compromis originel devient illisible dans ce que Freud nomme les phénomènes de déplacement ou de condensation : le destin du compromis est d’avoir effacé ses propres traces. Il n’empêche que le monde numérique est plein de repentis, tel le fondateur de WhatsApp qui, après avoir revendu l’application à Facebook investit désormais dans la protection des données, laquelle ne change rien au modèle économique de Facebook : elle renforce au contraire sa légitimité écornée. L’opinion d’une gauche imbue d’elle-même selon laquelle nous ne voulons pas de ce modèle de société est contredite par l’ascension arrogante de ce même modèle assise sur une complicité généralisée. Se peut-il alors que les gens ne reçoivent pas autre chose en fait que ce qu’ils veulent vraiment ? Leur véritable désir est-il celui, pur, qui précèderait le moment de corruption, ou bien celui révélé par l’offre qu’ils acceptent gracieusement ? Cette spirale rétroactive ne se ferme sur aucune ontologie subjective susceptible d’endosser l’entière responsabilité du circuit de l’offre et de la demande. Leur vrai désir n’est certainement ni l’un ni l’autre : le désir n’a pas de substance. Lacan a dit que le désir de l’homme, c’est le désir de l’Autre : toutes les gesticulations sur mon désir insatisfait ne valent pas un instant de considération si mon adresse constitue un ralliement secret à cet Autre incarné dans le discours du moment – en attendant le prochain discours. À charge donc pour le critique d’incarner un autre discours. Le moment fictif de corruption (celui où un utilisateur se met à agir d’une manière qu’il réprouve ou prétend réprouver) est lui-même ce point évanouissant d’une subjectivité impossible à objectiver à la fin autrement que dans la somme de ses actes. L’autre sujet, celui de l’inconscient, celui qui articule la structure « je sais bien, mais quand même… », n’est justement pas lisible dans l’ordre du monde algorithmique. Que vous ayez un doute, une mauvaise conscience ou un repentir ne compte pas pour les big data, qui ne font que totaliser des actes. Il s’ensuit que ce réseau social est probablement l’entreprise la plus populiste au monde, à savoir qu’il accorde une certaine fonction politique à la multitude dont il révèle ou façonne une préférence en supplantant imperceptiblement dans son creuset algorithmique toutes les formes connues d’organisation politique.

Mark Zuckerberg ne cesse de protester ingénument (lui aussi) du fait qu’il n’avait aucune autre intention que celle de lancer un réseau efficace et enrichissant pour les utilisateurs. Il nous semble décidément n’avoir à faire qu’à une humanité exclusivement soucieuse de générosité et de partage. Mais l’histoire de Facebook montre que la bonne intention dérape à un endroit de sa collusion obscure avec l’Autre au cours de son processus de multiplication. N’est-ce pas à juste raison que Zuckerberg ne manque jamais de remercier les utilisateurs de l’avancement de son grand projet universel ?

« À un moment, il [Mark Zuckerberg] décida que le principe universel qui vaut ici, c’est celui de l’acte d’engagement. Ce à quoi nous devrions vraiment prêter attention, ce dont il s’assurera que nous y prêtions attention, ce sont les choses qui génèrent de l’engagement. […] Le behaviourisme est ancré dans Facebook. Facebook n’en a pas fait mystère. Facebook est constamment en train d’ajuster ses algorithmes pour essayer de commuter nos états émotionnels positifs, qu’on appelle habituellement le bonheur. C’est l’une des raisons pour lesquelles Facebook mesure le bonheur du mieux qu’il peut, ou du moins c’est ce que pensent ses administrateurs. Voilà pourquoi ils ont conduit des études sur le changement de l’humeur (et cela leur causa des problèmes). C’est le genre d’ingénierie sociale qu’ils veulent mettre en place. C’est l’une des raisons pour lesquelles ils essayent d’appliquer le principe de mesure hédoniste à toutes les espèces9. »

Or Zuckerberg n’a pas mieux à promettre que ses investissements dans le domaine de la connexion télépathique universelle et la disparition de toutes les maladies de la terre, projets qui en d’autres temps seraient passés pour ceux d’un dangereux psychopathe. Lorsqu’il dévoile son projet d’interface cerveau-ordinateur, qui serait capable de transformer le flux des pensées en données partageables et en interaction directe avec les objets connectés, il n’a aucune raison de douter qu’une telle technologie trouvera des utilisateurs, conformément aux principes qui ont fait leurs preuves jusqu’à présent : « Je suppose que ce serait quelque chose que quelqu’un choisirait d’utiliser comme produit10. » Le fantasme de symbiose technologique tire son ressort de la promesse de surmonter la division du sujet par la fusion de l’environnement et de l’individu – en quoi notre civilisation s’avance dangereusement au bord de l’abîme de la responsabilité. Ceci dit indépendamment de la faisabilité de ce projet, qui reste bien sûr incertaine.

Et tandis que la seule solution, mais la plus improbable d’après certains critiques, serait de quitter massivement Facebook, on argue en face qu’il est peine perdue de quitter Facebook (les données étant récoltées partout ailleurs, autant dire qu’il est trop tard) et qu’on ne voit pas comment garder contact avec famille et amis, organiser un événement d’envergure ou lancer un mouvement contestataire sans un service équivalent à celui de Facebook11. Si une étude déplorait un quart de fermeture de comptes Facebook par les utilisateurs américains lors du deuxième trimestre 2018 (mais seulement environ 1 % de baisse d’utilisation active en Europe), Facebook n’est pas menacé et détient suffisamment d’autres services par ailleurs. Chacun sait que lorsque les utilisateurs sont lassés d’un service, il suffit – c’est de bonne guerre capitaliste – d’en proposer un nouveau. Ce point de fuite est caractéristique d’une incapacité croissante des peuples et des individus à dire non, le refus ponctuel étant de toute façon immédiatement réorienté vers une nouvelle offre. Il faut donc le dire : Mark Zuckerberg a dû répondre des opérations de son entreprise, mais les utilisateurs sont à la fin lavés de toute responsabilité. Eux n’ont que de bonnes raisons, ludiques ou sérieuses, et toujours déclarées « pratiques », de rester utilisateurs d’un réseau qui, en vérité produit une accumulation capitaliste exponentielle grâce à leurs données personnelles et met en œuvre une révolution politique. Or ce n’est pas le règlement général sur la protection des données (RGPD) qui change quoi que ce soit à cette politique ; ce dernier parachève la perversion en permettant la récolte des données… avec votre consentement obligatoire, même si celui-ci est obtenu en un clic négligeant. Même si la case cochée par défaut n’est plus légale, on peut se demander quel utilisateur lit à chaque fois l’intégralité des conditions d’utilisation et s’embête d’un long détour pour refuser son accord. De plus le RGPD ne s’applique qu’en cas d’identification personnelle des données, mais ne s’applique pas à leur recueil anonyme à des fins statistiques (certains types de cookies), ce qui égare l’utilisateur. Il s’ajoute à cela un certain nombre de détournements des conditions d’utilisation qui ont été dénoncées en France par l’association la Quadrature du Net. La tactique du plus malin caractérise le recueil du consentement qui n’est pas du tout aussi « univoque » que le prétend le RGPD. En pratique, c’est une demande fastidieuse répétée à chaque nouveau site, renouvelable régulièrement, soumise à des conditions d’utilisation et à des paramétrages qui n’intéressent pas le profane. Le consentement s’obtient en harassant l’utilisateur par une demande répétée faîte dans des conditions qui dérangent sa navigation. Or le consentement obtenu de cette manière est d’ores et déjà l’argument imparable de Facebook dans les plus récentes accusations de collecte de données qui se poursuivent en contournant le règlement européen par le biais d’applications mobiles, faisant de l’utilisateur un « complice12 » par sa négligence même à vérifier les conditions d’utilisation au moment de l’installation d’une application. Nous retrouvons au cœur de la question de la responsabilité la notion de consentement qui est tout sauf « univoque », contrairement à ce que prétend le RGDP. C’est plutôt en se fondant sur une équivoque fondamentale du consentement que Facebook peut continuer à déployer son modèle commercial. Comment Facebook cesserait-il, du reste, de collecter des données, puisque tout son modèle politique et commercial est bâti là-dessus ? Pourquoi fait-on mine tous les quatre matins de redécouvrir la même chose et de s’en offusquer ? Seule l’interdiction pure et simple de l’utilisation commerciale des données mettrait en péril le monopole, voire l’existence de Facebook. Au risque d’avoir un tiers de l’humanité en révolte pour défendre leur réseau social ?

Le mythe d’un Facebook générateur de rassemblement horizontal et de révolutions sociales (printemps arabes, gilets jaunes) oublie que ces révolutions sont retombées comme des crêpes, débouchant ici sur de nouvelles dictatures, là sur des réclamations populistes qui ne démontrent aucunement la capacité des citoyens à concevoir et organiser une nouvelle société, car une nouvelle organisation demande, comme disaient les surréalistes, de changer la vie et non pas seulement de répandre des mots d’ordre sur les réseaux. On ne pourra changer la vie qu’en reprenant la main sur les circuits de production et de décision politique. La « communauté globale » que promeut Facebook pour faire face aux défis globaux (tels le terrorisme, la crise des réfugiés ou le changement climatique13) ne démontre que l’ambition de son fondateur, pas seulement de renvoyer à la société son miroir supposé, mais aussi d’être à la source d’un changement mégalomane de société auquel chacun de nous a renoncé à toute petite échelle (à l’échelle de changer la vie). C’est ainsi qu’un enchaînement d’effets de masse conduit un fantasme ordinaire (qui ne voudrait sauver le monde ?) mais réprimé vers un effroyable degré de réalisation parfaitement combiné à l’apathie générale. Il repose sur la réorientation de toute activité de changement politique vers une émotion cliquée.

Chacun s’émut d’apprendre que « la démocratie est menacée » lorsqu’une frange d’électeurs fut subrepticement influencée pendant la campagne politique de Donald Trump : mais qui met en doute la psychologie behavioriste rudimentaire qui fonde cette affaire, selon laquelle il suffit d’envoyer un message ciblé à la bonne frange d’électeurs et au bon moment pour faire tourner le vent politique ? L’idée fondamentale est que les électeurs, comme les consommateurs, sont des sortes d’animaux manipulables à volonté, et non des sujets responsables de leur vote, quelque légère ou versatile que soit leur opinion. C’est une vision qui n’est ici pas un instant mise en doute : l’homme est un animal qui répond à des signaux. Il n’est donc pas responsable de ce qu’il fait et il convient uniquement de s’assurer de lui trouver un maître pas trop mauvais ou de vérifier les signaux qui lui sont envoyés, au cas où ils seraient malveillants, racistes, sexistes ou encore simplement faux. Il faut protéger la petite tête influençable du citoyen. Il y a beaucoup plus de souci à se faire sur cette définition animalière de l’homme réagissant au premier stimulus venu (comme si rien ne venait de lui et qu’il n’avait aucune responsabilité dans sa réponse) que sur les politiques d’un Trump ou d’un Zuckerberg qui du reste ont été portés au sommet par les peuples – l’un par le vote politique, l’autre par le vote économique. Deux formes de choix social qui ont bien en commun certains principes et certains paradoxes, notamment celui de ne jamais pouvoir refléter le désir supposé de l’individu, et donc de pouvoir donner lieu à des résultats collectifs aberrants, qui relancent, à rebours, l’insondable question de leur rapport à l’individu. Ce dernier évitera ainsi de se demander ce qu’il a à voir avec un résultat collectif dont il croyait ne pas vouloir. L’individu, citoyen ou utilisateur, préférera rejeter en bloc les élites et les représentants, accusés d’avoir menti sur la marchandise, plutôt que de remonter à la racine du compromis passé avec les forces qui le dépossèdent de son pouvoir d’agir. L’exemple de Facebook et d’autres plateformes à l’ascension fulgurante met en évidence par quel compromis imperceptible nous mettons le pied dans un engrenage qui ne tarde pas à apparaître ensuite comme une machine écrasante sur laquelle l’individu n’a plus aucune emprise. Facebook représente en ce sens le récapitulatif fulgurant de toute l’histoire du capitalisme.


Notes :

1Cet article correspond au treizième chapitre de l’ouvrage paru le 5 décembre 2019, reproduit ici avec de légères modifications avec l’accord de l’éditeur : Sandrine Aumercier, Tous écoresponsables ? Capitalisme vert et responsabilité inconsciente, Libre & Solidaire, 2019.

2Google, Amazon, Facebook, Apple, Microsoft

3Baidu, Alibaba, Tencent, Xiaomi.

4Larry Elliott, « Is it Time to Break Up the Tech Giants Such as Facebook ? », The Guardian, 25 mars 2018.

5Fabien Benoit, « Peter Thiel, l’homme qui voulait achever la démocratie », Usbek et Rica, 17 juin 2018.

6 Olivier Erztscheid, « Pourquoi je ne quitte pas (encore) Facebook », Libération, 24 avril 2018.

7 Ruchi Sanghvi, post Facebook, 06 septembre 2016, cité par Andrea Huspeni, « Mark Zuckerberg Reveals the 5 Strategies that Helped Facebook Grow at an Insane Rate », Entrepreneur, 25 mai 2017.

8Olivier Mongin, « Les préférences révélées et la formation de la théorie du consommateur », in Revue économique, vol. 51, n° 5, septembre 2000.

9Alexis C. Madrigal, « Were We Destined to Live in Facebook’s World ? », Entretien avec Siva Vaidhyanathan, The Atlantic, 24 juillet 2018.

11Brian X. Cjen, « Want to #DeleteFacebook ? You Can Try », New York Times, 21 mars 2018.

12Hatim Boumhaouad, « Exploitation des données personnelles par Facebook : l’usager est-il complice ? », The Conversation, 7 avril 2019.

13Alexis C. Madrigal, « The Education of Mark Zuckerberg », in The Atlantic, 20 novembre 2017.

Transhumanisme : quel avenir pour l’humanité ?

De ses débuts confidentiels dans la Californie des années 1990 à la profusion d’articles, de livres et de débats, le transhumanisme suscite rejets radicaux ou adhésions extrêmes, de F. Fukuyama le qualifiant d’« idée la plus dangereuse du monde » à ceux qui décrivent ses opposants en « chimpanzés du futur ». Car le transhumanisme, qui entend augmenter les capacités physiques et mentales de l’être humain, allonger considérablement sa durée de vie, n’est pas une simple confiance dans le progrès technologique. Il porte une utopie : le dépassement de la condition humaine.

Étant donnée la place croissante qu’il occupe dans le débat public, une synthèse, accessible à tous et qui fasse le point sans parti pris, s’impose. De l’apparition de l’idée à sa structuration dans le temps, des figures fondatrices aux acteurs d’aujourd’hui, cet ouvrage présente les idées centrales de la pensée transhumaniste, les arguments pro- et anti-, pour permettre au lecteur de se forger son propre avis et prendre part au débat.

Franck Damour est agrégé d’histoire, chercheur associé à ETHICS EA-7446 et membre de la chaire Éthique et Transhumanisme à l’Université Catholique de Lille. Il codirige la revue Nunc.

David Doat est docteur en philosophie, maître de conférences à ETHICS EA-7446 et titulaire de la chaire éthique et Transhumanisme à l’Université Catholique de Lille.

Introduction

Depuis une dizaine d’années, le transhumanisme alimente des espoirs, des craintes et de très nombreux débats des deux côtés de l’Atlantique. Ce courant d’idées entend promouvoir l’usage des sciences et des techniques en vue d’améliorer et augmenter les capacités physiques et mentales des êtres humains, de prolonger considérablement la durée de vie, bref de libérer l’homme des limites de sa condition. Le transhumanisme défend des projets parfois sidérant d’audace, comme prolonger la vie de plusieurs siècles, coloniser l’espace, doter l’homme de capacités sensorielles et cognitives bien au-delà de sa condition actuelle ou encore contrôler son état psychologique par un dopage permanent.

Ces promesses ne constituent pas une simple confiance dans le progrès technologique. Souvent, le transhumanisme est perçu comme une spéculation sur le développement technologique, ce qu’il est, mais en partie seulement. En effet, ces spéculations sur le futur des nanotechnologies, des interfaces homme/machine, du génie génétique, de l’essor des Big data et du numérique sont portées par une utopie : le dépassement de la condition humaine. Le transhumanisme nous appelle à prendre en main notre évolution pour nous libérer de « la loterie génétique », de la mortalité, des limites de nos capacités. Il s’agit ni plus ni moins que de changer l’homme, de révolutionner ses conditions biologiques pour le transformer, bref faire passer l’humanité à une étape nouvelle (et supérieure) de son évolution grâce à un effort technologique concerté et intense. Le transhumanisme se pense comme un mouvement de libération biopolitique, dans la lignée de ceux qui ont marqué l’histoire depuis les années 1960, avec la particularité de ne pas proposer une révolution sociale ou politique mais une révolution technologique qui changerait le corps et, par ricochet, la société et la politique.

Né à la fin des années 1980, le mouvement transhumaniste a réussi à faire du transhumanisme un courant de pensée, discuté, débattu, scruté dans la plupart des pays occidentaux, au sein d’universités, d’hémicycles politiques, de débats médiatiques. Il est entré dans les dictionnaires et les manuels universitaires, a suscité l’écriture de dizaines de thèses, une abondante littérature, des colloques, des séminaires. Si seulement quelques partis politiques embryonnaires se sont revendiqués du transhumanisme, ses thématiques ont attiré l’attention des dirigeants politiques depuis plus de 15 ans, d’abord aux États-Unis puis en Europe. C’est que le transhumanisme a réussi à inscrire à l’agenda mondial certaines de ses problématiques, son vocabulaire, sa vision du monde : l’homme augmenté, l’eugénisme libéral, le prolongévisme, la colonisation spatiale comme réponse à la crise climatique, autant de thématiques qui ne sont peut-être pas propres au transhumanisme mais que celui-ci porte et, surtout, unifie dans un projet global. Des deux côtés de l’Atlantique, le transhumanisme inspire le travail de think tanks qui entendent orienter la réflexion politique et éthique sur les technologies. Ce travail d’influence passe par des réseaux, des publications, des institutions, des porte-paroles médiatiques. Les transhumanistes annoncent une « révolution technologique » en cours, révolution pour laquelle ils proposent une pensée, une éthique, une psychologie. Aussi n’est-il pas surprenant que le transhumanisme inspire l’action de dirigeants de multinationales qui investissent des sommes considérables dans le développement de technologies correspondant aux utopies transhumanistes, de la conquête spatiale aux transformations du génome. Larry Page et Sergey Brin, Elon Musk, Peter Thiel, Mark Zuckerberg sont les plus médiatisés, les plus puissants sans doute. On peut considérer que l’influence du transhumanisme est devenue majeure au sein de la Silicon Valley et ailleurs, dans les bioindustries comme dans les industries du numérique, notamment au nom de la convergence des technologies.

Mais le singulier utilisé jusqu’à présent ne doit pas leurrer : le transhumanisme n’est pas un mouvement unifié de militants porteurs d’une idéologie entièrement structurée. Ce courant de pensée est un mouvement protéiforme, avec des tendances multiples, pratiquant la controverse et cultivant un libéralisme foncier. Cette diversité des sensibilités se retrouve dans la diversité de ses formes : le mouvement transhumaniste est constitué de réseaux de militants mais aussi de pôles académiques et de fondations, mobilise des entrepreneurs, des ingénieurs, des sociologues ou des biologistes.

Les prises de position radicales – elles ne font pas dans la demi-mesure et elles touchent aux fondements – des transhumanistes ne peuvent que susciter de fortes polémiques. En remettant en question l’idée que l’homme ait une nature définie, qu’il doive respecter les limites physiques de sa condition, que la mort soit un horizon indépassable pour toute construction sociale, le transhumanisme interroge des éléments structurants de l’expérience humaine. Par certaines de ses propositions les plus radicales, le transhumanisme pousse les positions éthiques classiques dans leurs retranchements, les amenant à se positionner en face de pratiques déjà effectives que l’on pourrait rapporter au transhumanisme (comme un certain eugénisme libéral, l’usage de médicaments pour des bien-portants à finalité d’augmenter leurs capacités, etc.). Certains parlent même d’un « transhumanisme ordinaire », d’un transhumanisme qui se pratique sans que le nom soit utilisé, dans les laboratoires et les éprouvettes, mais aussi dans le secret des consciences. La controverse provoquée par le transhumanisme est donc aussi une formidable machine pour penser notre rapport aux technologies, formuler l’implicite, interroger les non-dits et les a priori, sonder les angles morts.

De tels débats donnent lieu à des prises de position fortes, de part et d’autres, qui souvent peuvent glisser vers la caricature. La rapidité avec laquelle ces débats se sont développés et leur écho médiatique ont favorisé le développement de nombreux lieux communs. C’est à la discussion de ces idées reçues que ce livre veut répondre : quelles sont les origines de ce courant d’idée ? Quelles sont l’ampleur et la nature du mouvement qui le véhicule ? Que veulent les transhumanistes ? Quelles sont leurs valeurs ? Quels sont les arguments de ses adversaires ? Comment, s’il est possible, dépasser les arguments maintes fois répétés et formuler ce qui est en jeu dans ce débat ?

Quel que soit l’avenir du transhumanisme, qu’un mouvement se perpétue ou non, qu’une pensée se structure ou non, que ses relais industriels s’épuisent ou non dans leur quête de l’immortalité ou de l’espace, que se développent des transhumanist studies ou non, le transhumanisme a permis de formuler toute une série de questions sur l’impact des technologies dans nos sociétés. Chemin faisant, en débattant du transhumanisme, c’est de la place que prennent les technologies dans notre vie que nous discutons. Le détour en vaut donc la peine !

Parution le 27 septembre 2018

Sommaire

Petite histoire du transhumanisme
Le transhumanisme est une idée neuve.
Il faut être américain pour croire au transhumanisme.
Le transhumanisme, une histoire de milliardaires.
Le transhumanisme est une nébuleuse.
Nous sommes déjà tous des cyborgs !
La pensée transhumaniste
Les transhumanistes veulent devenir immortels.
Le transhumanisme est un eugénisme.
C’est encore la vieille histoire de l’homme qui se prend pour Dieu.
L’homme augmenté, c’est du transhumanisme.
Le transhumanisme, c’est du libertarisme.
Le transhumanisme, c’est la fin de la morale.
Le transhumanisme, c’est de la science-fiction.
Le transhumanisme dans tous ses états
Le transhumanisme, une stratégie des GAFA pour nous manipuler.
Le transhumanisme est l’idée la plus dangereuse du monde.
Les personnes appareillées en raison d’un handicap préfigurent l’homme du futur.
L’homme d’aujourd’hui sera le chimpanzé du futur.
Une société où l’on ne meurt plus, c’est une société où on ne vit plus.
Le transhumanisme, c’est une religion qui sacralise la technique.

On en sait plus sur les algorithmes de Palantir

Le département de police de Los Angeles a une nouvelle formule de surveillance, alimentée par Palantir

Le département de police de Los Angeles (LAPD) a récemment été contraint de publier des documents sur ses algorithmes prédictifs de police et de surveillance, grâce à une action en justice de la Stop LAPD Spying Coalition (qui a remis les documents à In Justice Today).

Les analystes du département de police de Los Angeles sont chargés de maintenir “au moins” une douzaine d’objectifs de surveillance en cours, en utilisant le logiciel Palantir et une mise à jour de la formule du contrevenant “probable”, selon les documents d’octobre 2017, obtenus suite à une demande de la Stop LAPD Spying Coalition et donnée exclusivement à In Justice Today.

Ces rapports de surveillance identifient les “délinquants probables” dans certains quartiers, selon une formule de police prédictive fondée sur les points de la police de Los Angeles. Les analystes trouvent des informations pour leurs rapports en utilisant le logiciel Palantir, qui élimine les données des dossiers de la police, y compris les fiches d’entretien sur le terrain et les rapports d’arrestation, selon une formule mise à jour de la liste de contrôle du LAPD, qui utilise des critères plus larges que la formule de risque passée que le département était censé avoir utilisé. Ces rapports, connus sous le nom de Chronic Offender Bulletin – Bulletins Chroniques des Délinquants, sont antérieurs à l’implication de Palantir dans le LAPD, mais depuis que le LAPD a commencé à utiliser le logiciel d’exploration de données (data mining) de la compagnie en septembre 2011, le département affirme que les bulletins qui auraient pris une heure à compiler prennent maintenant environ cinq minutes.

Screenshots of Palantir’s Gotham program, from a promotional video. Source: Youtube via Bloomberg

Big Data : Palantir Technologies

La police de Los Angeles soutient que cibler les “délinquants chroniques” de cette manière contribue à réduire les taux de criminalité tout en étant peu invasive. Mais la Stop LAPD Spying Coalition, une alliance communautaire qui milite contre les efforts accrus de surveillance du LAPD depuis 2012, dresse un portrait différent du programme Chronic Offender Bulletin. Le groupe appelle cela une “boucle de rétroaction raciste” dans laquelle la police surveille un certain nombre de personnes sur la base de données générées par leurs propres services de police à tendance raciale, créant plus de surveillance et donc plus d’arrestations.

Jamie Garcia, l’organisatrice principale de la campagne Predictive Policing avec la Stop LAPD Spying Coalition, explique que les fiches d’interview sur le terrain, par exemple, fournissent des informations pour la liste de contrôle prédictive, souvent issues du profilage racial sur la rue. “Quand nous regardons les arrêts du LAPD, la population noire est complètement surreprésentée”, a déclaré Garcia dans un appel téléphonique. Les directives, dit-elle, ordonnent aux agents “de trouver ces gens et de les harceler…. Si vous êtes constamment surveillé, constamment harcelé, la possibilité de quelque chose qui ne va pas … La prochaine chose que vous savez, vous êtes un contour de craie de cadavre.”

Les juristes ont noté que l’institutionnalisation des formules de risque comme la liste de contrôle du programme des délinquants chroniques du LAPD peut exacerber les modèles existants de discrimination en sur-échantillonnant ceux déjà discriminés, générant des données encore plus biaisées qui justifient une discrimination supplémentaire.

Le LAPD a décliné la demande d’entrevue d’IJT et n’a pas fourni de réponses aux questions écrites concernant le programme. Dans un courriel adressé à IJT, la porte-parole de Palantir, Lisa Gordon, a confirmé que Palantir est utilisé dans la création des bulletins des délinquants chroniques, mais a souligné que le logiciel ne génère pas automatiquement les rapports et que la sélection et le contrôle des personnes sur ces listes fait partie d’un processus humain.

Comment les enquêtes pré-criminelles commencent

Le processus d’identification de la cible commence par un analyste du LAPD qui cherche des «délinquants probables» en examinant les dossiers de la police. Selon les documents du LAPD, les analystes déploient le logiciel d’organisation de fichiers de Palantir pour effectuer des «work-ups» de ces individus, à la recherche d’enregistrements qui ajoutent des points à leurs scores prédictifs de risque, basés sur des facteurs tels que leur nombre de contacts avec la police au cours des deux dernières années. Voici une image d’un de ces “work-ups”, produit quelques mois avant que le département n’adopte Palantir, que IJT a trouvé en ligne, complètement non expurgé, dans une présentation de LAPD en mai 2013.

An example of a research “work up” template created by an LAPD analyst to organize data points for the department’s predictive “chronic offender” formula.

En additionnant les points basés sur les arrêts de la police et d’autres critères décrits dans la formule, un analyste créerait au moins 12 bulletins des délinquants chroniques pour les personnes ayant obtenu des notes élevées, et identifier cinq à dix autres comme sauvegardes potentielles pour la liste cible. Les 12, classés selon les valeurs maximales les plus élevées, sont ensuite référés aux agents pour s’assurer que les cibles ne sont pas déjà en détention ou qu’elles ne sont pas suivies. Comme les documents l’indiquent explicitement, ces cibles sont, à ce stade, légalement «pas des suspects mais des personnes d’intérêt». Une “person of interest” ou “personne d’intérêt” n’a pas de signification juridique défini, mais peut simplement signifier quelqu’un qui pourrait avoir connaissance d’un crime.

Le logiciel attribue des points aux personnes, sur la base d’infractions passées, ou même simplement après avoir été arrêté ou en contact avec la police. Les points sont une indication, selon le LAPD, de la probabilité que quelqu’un commette un crime. S’appuyer sur cet algorithme pour déterminer qui devrait être surveillé, ce qui peut être fait par des vérifications de probation ou de mandat, incite la police à surveiller les gens – non pas pour les arrêter, mais pour voir s’il y a une raison de le faire. Les personnes ciblées par l’algorithme et signalées comme des personnes d’intérêt peuvent faire l’objet d’une surveillance policière supplémentaire, simplement parce qu’elles peuvent être associées à ou connaître des activités criminelles. Cela peut arriver même si elles n’ont rien fait de mal, de toute leur vie.

– En utilisant les interviews sur le terrain et les arrestations mentionnées ci-dessus, utilisez Palantir pour faire un travail sur l’individu. Faites une recherche, résolvez les conflits, déterminez ce que la personne a fait au cours des 2 dernières années. – Sur Palantir, indiquez le nombre d’arrestations pour crimes violents que l’individu a subis au cours des deux dernières années. Appliquer 5 points pour chaque arrestation de crime violent (ceci est un changement de notre protocole original). – Déterminez si l’individu a utilisé une arme dans le cadre de ses activités. Appliquer 5 points pour chaque incident impliquant un pistolet au cours des 2 dernières années (ceci est un changement de notre protocole original). – Déterminez si l’individu est membre d’un gang. Appliquer 5 points pour l’appartenance à un gang. – Déterminez si la personne est en probation ou en libération conditionnelle. Appliquez 5 points pour ce statut. – Déterminez le nombre de contacts policiers de qualité que l’individu a eu au cours des deux dernières années. Appliquer 1 point pour chaque contact (principalement des interviews sur le terrain) – Additionnez le nombre de points pour l’individu. Cela vous donnera un score de délinquant chronique.

Les critiques affirment que cela crée essentiellement un cycle où toute personne qui a des antécédents avec le système de justice pénale peut maintenant être soumise à une surveillance accrue dans un avenir prévisible, même si elles ne sont pas soupçonnées d’avoir un lien avec un crime récent. Sur le travail rédigé ci-dessus, que le LAPD a confirmé comme étant authentique dans un courriel, l’individu avait été arrêté deux fois en une seule journée à quatre occasions distinctes au cours d’une période de six semaines. Tous ces arrêts comptent comme des points dans la formule prédictive, ce qui en fait une priorité plus élevée pour le programme de surveillance.

Bien que le LAPD affirme que ces rapports sont “à titre informatif seulement et pour la sécurité des agents”, les informations du rapport sont ensuite transmises à une base de données LAPD interne “à des fins de poursuite et de surveillance” selon les documents 2017. Armés de ces données, par exemple lorsque des délinquants cibles ont été arrêtés et quels tatouages ils ont, des unités spéciales du LAPD sont envoyées pour «engager» des cibles avec des tactiques spécifiques, telles que des vérifications pour des mandats en attente ou des saisies d’armes illégales pouvant conduire à des arrestations.

Sarah Brayne, professeure adjointe de sociologie à l’Université du Texas à Austin, qui a mené des recherches sur le terrain avec le LAPD en 2015, affirme que les policiers sont conscients que les bulletins ne leur ont pas donné de soupçon raisonnable ou de cause probable. “Le langage utilisé lorsque j’ai parlé avec des officiers était :” Allez leur parler, et vous pourriez les attraper en train de faire quelque chose, mais il n’y a actuellement aucune cause probable”.

Bien que les documents du LAPD n’indiquent pas explicitement que ceux qui figurent sur la liste doivent être arrêtés, ils suggèrent qu’une fois qu’un individu se présente sur un bulletin alimenté par Palantir, la police est censée continuer à surveiller la personne jusqu’à ce qu’elle soit détenue. Selon une présentation PowerPoint publiée, par exemple, on s’attend à ce que les agents se demandent “combien de délinquants chroniques ont été arrêtés” au cours des deux semaines précédentes et quelles sont leurs stratégies pour les “délinquants non traités”.

Chaque semaine, les analystes sont également censés déterminer si les individus figurant sur leurs listes de cibles «sont actifs ou en garde à vue», puis remplacer ceux qui ont été capturés par des “back-ups”, d’autres personnes à haut risque, créer de nouveaux objectifs pour la police.

Selon Mme Brayne, les personnes peuvent être retirées de la liste de surveillance si elles n’ont pas eu de contact avec la police depuis deux ans, mais la logique sous-jacente du programme est de neutraliser ceux qui sont déterminés à être les principaux moteurs de la criminalité.

Compte tenu de l’ampleur de l’examen et des contacts de routine que les agents doivent suivre pour les personnes figurant sur la liste des bulletins, éviter tout contact avec la police n’est pas réaliste, affirme Josmar Trujillo, un activiste anti-gang à New York. “Si vous vivez dans une communauté de couleur en Amérique, vous n’avez pas le choix d’avoir ces contacts”, a déclaré Trujillo dans un appel téléphonique. “Souvent, on peut être arrêté juste pour être autour de certaines personnes, que ce soit des arrêts de voiture ou des arrêts de groupes dans une rue, donc cette idée de police prédictive que vous devez mériter votre droit de ne pas figurer sur la liste est cruelle parce que pour éviter l’application de la loi pendant des années – ce n’est pas possible.”

Hitachi : une IA capable de prédire les crimes avant qu’ils se produisent

Incitations perverses ?

L’attente du LAPD selon laquelle les analystes ont au moins une douzaine de cibles sur le pont est possible grâce, entre autres, à l’utilisation du logiciel Palantir, la firme technologique controversée fondée par le milliardaire libertaire Peter Thiel. Comme Craig Uchida, un consultant LAPD et partenaire de recherche, a déclaré à Wired, avant que Palantir ne soit intégré, les analystes du LAPD ne pouvaient pas faire assez de bulletins de surveillance pour suivre les arrêts des officiers. À l’époque, rappelait-il, les flics arrêtaient chaque jour une centaine de personnes dans le quartier de South Los Angeles, où le programme avait été implanté pour la première fois, amenant trop de données pour que les analystes puissent les traiter efficacement.

Les documents indiquent également que les services de police sont devenus plus engagés que par le passé à atteindre les objectifs du programme des délinquants chroniques en matière de surveillance des agents et d’ “engagement” avec ceux qui sont énumérés. Selon les documents, lors des réunions hebdomadaires de contrôle de la criminalité, des unités spécialisées ciblant les délinquants sont censées fournir des rapports sur «leurs progrès» à ce jour. Brayne dit que c’est un développement relativement nouveau.

“Il y avait certainement un suivi du nombre d’arrestations, mais c’était en grande partie pour collecter des données afin de mesurer l’efficacité et plaider en faveur d’un financement continu”, a-t-elle dit.

Les attentes, ancrées dans ces tactiques policières prédictives, inquiètent Garcia, qui souligne que de telles incitations pourraient motiver ou même obliger les analystes et les officiers à procéder à des arrestations sans fondement uniquement pour vérifier les listes de diffusion. “Donc le LAPD se surveille lui-même”, a déclaré Garcia.

Brayne, d’autre part, a fait remarquer que pendant son travail sur le terrain, les agents avaient trop de délinquants de haut niveau à traiter, pas trop peu.

Des projets Chinois à la Minority Report utiliseront l’IA pour prédire des crimes

Nouvelle technologie, victimes similaires

Les activistes soutiennent également que ce programme de police prédictif pourrait donner une nouvelle couverture scientifique et légale aux pratiques policières traditionnelles dans les communautés pauvres et non-blanches, considérées par certains comme discriminatoires sur le plan racial.

“Les données sont intrinsèquement subjectives, et il a ce parti pris implicite”, a déclaré Garcia, affirmant que les données tirées des interactions policières brutes amènent nécessairement les biais existants dans les modèles prédictifs de risque du LAPD. Et les découvertes ethnographiques de Brayne sur la culture de la LAPD suggèrent que ces préoccupations peuvent être justifiées.

Les documents révèlent également une version plus récente et plus expansive de la formule du délinquant chronique basée sur les points du LAPD que ce qui a été rapporté précédemment. Des rapports plus anciens ont montré que les analystes devaient comptabiliser des points contre des individus pour l’appartenance à un gang, la libération conditionnelle ou la probation, des arrestations antérieures avec une arme de poing, des crimes violents passés et des contacts policiers “de qualité”. Cette version plus récente d’octobre 2017 comprend la plupart de ces cases à cocher, mais étend la pénalité des armes à feu maintenant compter jusqu’à cinq points pour «chaque incident» impliquant n’importe quel type d’arme au cours des deux dernières années.

Les documents ont été obtenus grâce à une action en justice intentée par la Stop LAPD Spying Coalition en mars, qui visait à obtenir des informations sur un programme LAPD plus vaste dans lequel les Bulletins des délinquants chroniques sont utilisés. Depuis 2011, ce programme, connu sous le nom d’Opération LASER, a ciblé les quartiers de Los Angeles avec une forte densité de crimes liés aux armes à feu, associant des analystes et des agents pour cibler les délinquants et les zones “chroniques”. Selon une demande de prolongation de subvention du LAPD de 2017 au programme de subventions Smart Policing Initiative du ministère de la Justice, obtenu par la Stop LAPD Spying Coalition, le département ciblait alors les quartiers du sud et du centre de Los Angeles, principalement noirs et latinos, et a prévu d’étendre l’opération à plus de divisions de police à travers la ville.

Le LAPD a revendiqué le succès du programme – entre 2011 et 2012, un domaine dans lequel LASER opérait a enregistré une diminution de 56% des homicides (selon un rapport de 2014 du LAPD). Mais le rapport n’a pas été en mesure de déterminer si cela était dû à l’utilisation des bulletins des délinquants chroniques ou à d’autres tendances indépendantes. Les homicides à Los Angeles ont diminué régulièrement depuis le début des années 1990 avant de se stabiliser vers le milieu de cette décennie.

Mais les résidents disent que ces tactiques prédictives ont un coût. “J’ai l’impression qu’ils savent déjà qui vous êtes au moment où ils vous arrêtent. Ils connaissent déjà votre nom et avec qui vous traitez », a déclaré un membre d’un groupe de discussion organisé par la Stop LAPD Spying Coalition pour un nouveau rapport publié, aux côtés des archives publiques.

Rien n’indique que le LAPD ait délibérément choisi d’utiliser un algorithme ouvertement discriminatoire. Mais ce programme, qui a commencé comme une base de données dissimulée de personnes associées à des gangs, ne peut pas être considéré comme efficace lorsqu’elle est basée sur une activité policière qui est certainement sujette aux parti pris et aux préjugés.

In Justice Today

Big Data : Palantir Technologies

Palantir Technologies Inc. développe et construit des plates-formes de fusion de données pour l’intégration, la gestion et la sécurisation de tout type de données à grande échelle. Il propose Palantir Gotham, une plate-forme pour intégrer, gérer, sécuriser, et analyser les données de l’entreprise; et la plate-forme Palantir Metropolis pour enquête quantitative à grande échelle qui intègre à travers de multiples sources de données, rassemblant des informations disparates dans un environnement unifié d’analyse quantitative. La société apporte une réponse contre la fraude, marchés de capitaux, gestion de cas, intervention de crises, cyber-sécurité, défense,  préparation aux catastrophes, intervention de la maladie, livraison de soins de santé, menaces internes, analyse d’assurance, intelligence/renseignement, application de la loi, veille juridique, palantir verus, pharma R & D, supervision de trader et des solutions personnalisées.

L’entreprise travaille pour la communauté du renseignement des États-Unis, notamment pour la NSA, la CIA et le FBI, ainsi que pour différents acteurs du système de défense américain, comme les US Marines, l’US Air force et les Opérations spéciales. Elle s’est diversifiée dans les secteurs de la finance, de l’assurance, de la santé et des biens de consommation courante. Elle met par ailleurs sa technologie à disposition d’ONG comme Community solutions.

La société a été constituée en 2003 et est basée à Palo Alto, en Californie. Elle fait partie des valeurs sures de la Silicon Valley. Depuis sa création, l’entreprise a levé en tout et pour tout 2,3 milliards de dollars et sa valorisation pourrait prochainement atteindre 20 milliards de dollars. Parmi les investisseurs figure la CIA, qui y a injecté 2 millions de dollars au moment de son lancement. L’agence centrale de renseignement est alors séduite par le projet de Palantir : utiliser les algorithmes informatiques afin de déjouer d’éventuelles attaques terroristes. (ndlr)

Le cofondateur de Palantir, Peter Thiel, est également le co-fondateur de PayPal.

pour en savoir plus : Techcrunch