Liberté, Égalité, Singularité

À l’heure de la globalisation, les frontières ne disparaissent pas qu’entre les pays. Longtemps confinée aux domaines de la science, de l’industrie et du divertissement, la technologie envahit désormais des territoires considérés jusque-là comme essentiellement humains : les relations intimes, la psychologie, l’art, l’éducation et même… la politique. La conquête se fait sur plusieurs fronts simultanément : la sécurité, l’économie, le droit, l’environnement, la santé, mais aussi sur le plan électoral lui-même, et tout cela à grand renfort de big data. Cette évolution, qui soulève pourtant de nombreuses questions éthiques, ne semble pas inquiéter les citoyens et les citoyennes de nos chères démocraties, probablement usées par des décennies de scandales et de crises à répétition. En effet, dans un sondage réalisé le 21 mars 2019 par l’Université IE de Madrid, on apprend que « 25% des Européens seraient prêts à laisser des algorithmes gouverner plutôt que des hommes politiques pour prendre les bonnes décisions (…) Un chiffre qui monte à 30% en Allemagne, en Italie, en Irlande, au Royaume-Uni et même à 43% aux Pays-Bas »… Saint George (Orwell), priez pour nous.

Big data, big brother, big control

Les temps changent et, avec eux, les pratiques politiques. Enfin, les outils évoluent, mais les objectifs des puissants restent, eux, désespérément identiques au fil des siècles. Parmi ces objectifs, la clé de voûte du pouvoir : le contrôle. Et c’est ce que le big data permet aujourd’hui, dans des proportions inédites. Nous sommes scrutés sous toutes les coutures, nos actions sont observées, mesurées et enregistrées sans que nous en ayons conscience : caméras de surveillance dans les rues, reconnaissance faciale, géolocalisation, analyse de nos habitudes de consommation via nos cartes de paiement, de nos préférences culturelles et de nos orientations politiques sur les réseaux sociaux… Nous savons même désormais avec certitude que nous sommes écoutés par nos téléphones portables, nos tablettes et nos ordinateurs. Bien sûr, pour le moment cette collecte de données se fait officiellement à titre anonyme et pour des motivations commerciales. Mais il est clair que leur exploitation ne se limite pas à un usage mercantile et que ces pratiques ont d’ores et déjà des visées politiques, comme l’a démontré récemment le scandale Cambridge Analytica. Ajoutons à ce tableau le développement de nouvelles techniques comme le facial coding, qui consiste à décrypter les émotions sur le visage d’une personne, ou encore le déploiement du nudge, discipline qui vise à influer sur le comportement du consommateur (ou de l’électeur) par des moyens subtils et donc à guider sournoisement ses choix, et nous voyons se dessiner les contours d’une société où les notions de vie privée et de liberté ne seront bientôt plus qu’un lointain souvenir. Or, cette liberté est l’un des fondements de la démocratie et si les avancées technologiques la mettent en péril, alors il ne s’agit plus de progrès, mais d’une terrible régression. Le journaliste et essayiste Philippe Vion-Dury, auteur de La nouvelle servitude volontaire, le confirme : « Les entreprises de la Silicon Valley sont porteuses d’un véritable projet politique. Leurs algorithmes mettent sous leur coupe ceux qui s’y soumettent, volontairement. Aveuglant les consommateurs et les États par l’éclat de leur spectaculaire réussite économique, ces entreprises sont en train d’accumuler des sommes incalculables de données, grâce auxquelles elles ambitionnent de tout mesurer, tout contrôler, tout prévoir. Ou quand les mathématiques deviennent totalitaires. »

Power of equality

Les algorithmes sont-ils égalitaires, par nature ? Dans un rapport de la Human Technology Fondation intitulé « Intelligence artificielle, solidarité et assurances en Europe et au Canada » et daté du 20 janvier 2020, des acteurs majeurs du monde de l’assurance dressent un constat clair : « La montée en puissance des technologies et de l’IA nous force à réfléchir à ces pratiques et à leur futur. Ainsi, le recours, par les assureurs, aux objets connectés qui fournissent des informations précieuses sur le comportement de l’assuré, peut entrer en conflit avec le droit fondamental des personnes de mener leur existence selon leur propre conception de la vie bonne. En outre, l’hypersegmentation, qui aboutirait, à son point limite à la personnalisation complète des tarifs, pourrait remettre en question le principe de mutualisation entre les assurés. » En d’autres termes, l’IA et le big data pourraient accroître les inégalités en faisant payer davantage les citoyens dont on jugera le mode de vie « non conforme ». Les algorithmes pourraient devenir, si l’on n’y prend garde, des outils au service d’une discrimination sans précédent. Et ce qui est valable dans le monde de l’assurance, l’est tout autant dans les domaines de la culture, de l’éducation, de l’orientation religieuse, politique ou même sexuelle… Qui établira ce qui est conforme et ce qui ne l’est pas ? Quels seront les intérêts défendus par les instances en charge de telles décisions ? C’est là que l’État, en tant que représentant de l’intérêt général, a plus que jamais son rôle à jouer. Oui, mais voilà… Pour certains militants radicaux de la big tech, l’État, c’est justement la bête à abattre. Curtis Yarvin, ingénieur quadragénaire de la Silicon Valley et membre du mouvement néo-réactionnaire NRx, déclare : « Les États doivent devenir des entreprises lourdement armées et ultra rentables, qui aboliront le pouvoir de la presse, écraseront les universités, vendront les écoles publiques et transféreront les « populations décivilisées » dans des enclaves sécurisées pour les rééduquer ». Pour David Golumbia, professeur à la Virginia Commonwealth University, ce mépris pour la démocratie ferait partie de l’ADN même des fondateurs de la Valley : « Des gens comme Peter Thiel ou Elon Musk, pour ne citer qu’eux, dont le mépris est encore plus flagrant, sont célébrés comme des héros par les néo-réactionnaires ». Derrière les outils technologiques, il est donc bien question d’idéologie politique.

Make America tech again

Comme tout courant de pensée, l’idéologie techno-futuriste a ses penseurs. D’aucuns diraient ses gourous. Malgré une posture anti-politique de façade, certains ne cachent pas leurs ambitions dans ce domaine, à l’instar de Peter Thiel. Le cofondateur de Paypal et de Palantir Technologies, une société spécialisée dans le big data, a soutenu la candidature de Donald Trump à la présidentielle américaine de 2016 et est resté, depuis, l’un de ses proches conseillers. Pour le très libertarien Thiel, « le sort de notre monde dépend d’un seul individu, d’une personne, qui sera capable de bâtir et diffuser des outils technologiques favorisant la liberté et permettant un monde plus sûr pour l’épanouissement du capitalisme »… Cette personne serait-elle Elon Musk ? Avec son entreprise Neuralink, le patron de Tesla entend augmenter l’être humain grâce à des interfaces homme-machine implantées directement dans le cerveau et ce, afin d’augmenter la mémoire, de piloter des logiciels par la pensée ou encore de bénéficier d’un moteur de recherche cérébral… De quoi donner des sueurs froides à la CNIL, dans une France encore très attachée à la protection des données et aux libertés individuelles. Catherine Vidal, neurobiologiste et membre du comité d’éthique de l’Inserm, estime qu’« une vigilance éthique accrue s’impose face au développement spectaculaire des technologies de manipulations cérébrales qui dépassent désormais le cadre de la médecine, avec des applications commerciales destinées à la population en bonne santé (…) Les stimulations (électriques ou magnétiques) peuvent altérer le fonctionnement normal du cerveau, ses capacités de plasticité, et porter atteinte à l’autonomie du patient en interférant avec ses pensées, ses émotions, son libre arbitre ». Mais si la plupart des chercheurs français se montrent prudents quant à l’impact des neurotechnologies sur la société, les américains sont plus décomplexés, voire carrément débridés. Parmi eux, le pape transhumaniste Ray Kurzweil qui considère que « l’existence humaine ne dépend pas d’un corps biologique » et que « la biologie elle-même n’est qu’un ensemble de nanomachines ». Pour le directeur de l’ingénierie de Google, « les machines dépasseront nos capacités » très bientôt et nous n’aurions d’autres choix, pauvres humains limités que nous sommes, que de fusionner avec une super intelligence artificielle pour survivre. Une vision que partage le leader du parti transhumaniste Zoltan Istvan, candidat aux élections présidentielles de 2020, qui fait campagne « pour mettre fin à l’idée de la mort ». Dans son programme, quelques grands classiques ultralibéraux et technophiles : fin de l’impôt sur le revenu et de l’IRS (l’administration fiscale américaine), réduction du nombre de fonctionnaires grâce aux robots et aux nouvelles technologies, lutte contre le réchauffement climatique avec la géo-ingénierie, développement des utérus artificiels… Mais aussi, en toute logique, des mesures orientées plus radicalement vers le transhumanisme. « Le gouvernement ne devrait pas être en mesure de limiter ce que nous pouvons faire à notre corps, quelles que soient les normes culturelles, les préjugés religieux ou l’orientation politique », déclare le candidat sur son site de campagne. Si Istvan souhaite accéder à la fonction suprême, c’est pour « interdire les lois qui entravent la recherche de la santé et de la longévité pour les citoyens, notamment les interdictions sur l’édition génétique, le clonage et d’autres sciences radicales (…), déréglementer autant que possible l’innovation scientifique et technologique (…), explorer des options telles que donner aux criminels le choix du reconditionnement cérébral plutôt que de l’exécution (…), jeter les bases de droits civils pour de futurs êtres avancés comme les robots conscients, les cyborgs et les êtres vivants génétiquement créés »… Le Docteur Frankenstein est sorti de son laboratoire pour convertir le monde à la religion scientiste. Le président américain ne prêtera-t-il bientôt plus serment sur la Bible lors de son investiture, mais sur l’ouvrage du médecin philosophe Julien Offray de La Mettrie, L’Homme Machine ? Amérique, pays de tous les extrêmes.

Opération Crossroads 2020

« Il est évident que la guerre, peut-être même les civilisations, sont arrivées à un point critique grâce à cette arme révolutionnaire ». Telles sont les paroles du vice-amiral William Blandy, chef de l’opération Crossroads (« À la croisée des chemins »), une série d’essais nucléaires qui eurent lieu dans l’atoll de Bikini, au cours de l’été 1946, et dont le but était de valider la puissance destructrice des bombes A sur des navires et des sous-marins situés aux alentours. À la croisée des chemins, c’est probablement là que nous nous situons actuellement, avec le développement spectaculaire des neurotechnologies, de l’intelligence artificielle et du transhumanisme. Les enjeux de ces progrès sont, tout comme ceux liés à l’invention de la bombe atomique, planétaires et historiques. Nous parlons bel et bien ici, sans exagération, de l’avenir de l’humanité. À nos pieds, s’étendent deux voies, deux visions politiques, deux futurs possibles. L’une de ces routes nous mènerait vers un monde imprégné de scientisme, dans lequel la technologie serait mise au service d’une minorité recherchant toujours plus de richesses et de pouvoir, au détriment d’une population de plus en plus déclassée et soumise. Laurie Pycroft, chercheur en neurochirurgie à l’Université d’Oxford, analyse parfaitement ce risque : « Des neurotechnologies de pointe dont l’usage serait large pourraient offrir des modes de manipulation politique inimaginables jusqu’ici (…) Ce qui nous inquiète, c’est que si les mesures de sécurité appropriées ne sont pas mises en place, les patients pourraient être victimes de sévères effets secondaires, et leurs pensées pourraient être ciblées par des cyberattaques (…)L’attraction que pourrait générer la manipulation des souvenirs chez certains dirigeants politiques me semble évidente ! Modifier la mémoire ou changer notre point de vue sur un sujet est l’un des principaux objectifs de n’importe quel propagandiste. » Si le corps a déjà commencé à être envahi par la société de consommation, à travers la chirurgie esthétique et le transhumanisme, la conscience était restée jusque-là un territoire imprenable. Mais aujourd’hui, ce dernier bastion de la liberté humaine est menacé et pourrait bien être colonisé avec une efficacité redoutable, si nous n’y prenons pas garde. Les capitaines de la big tech eux-mêmes multiplient les déclarations chocs, comme pour se préserver de leur propre hubris. Brad Smith, le président de Microsoft, déclarait en 2018 au Web Summit de Lisbonne : « Pour la première fois, le monde est au seuil de technologies qui donneraient à un gouvernement la possibilité de suivre n’importe qui, n’importe où (…) Il pourrait savoir exactement où vous allez, où vous êtes allé et où vous étiez hier. Et cela a de profondes ramifications potentielles, même pour les libertés civiles fondamentales sur lesquelles reposent les sociétés démocratiques. Avant de nous réveiller et de constater que l’année 2024 ressemble à l’ouvrage « 1984 », déterminons le genre de monde que nous voulons créer, quels sont les garde-fous et les limites des entreprises et des gouvernements dans l’utilisation de ces technologies. » Nous devons, en effet, déterminer le monde dans lequel nous voulons vivre. La crise du Covid-19 nous le rappelle de manière brutale : le marché et ses lois ne nous guident pas vers un monde meilleur, et aujourd’hui sa main invisible doit être désinfectée chaque jour avec du gel hydroalcoolique, sous peine de mort. Pourtant, certaines autorités tentent actuellement de renforcer leur pouvoir – et celui de l’économie néolibérale – en proposant des mesures radicales de surveillance numérique, au prétexte de vouloir protéger les populations… Mais gardons espoir, car il existe une deuxième voie. Nous pouvons bâtir un autre avenir, un monde dans lequel la technologie ne tiendra pas un rôle oppressif, mais libérateur. Une société low tech où le numérique régulera la surconsommation, au lieu de l’aggraver ; où la technologie apportera un soutien à chaque citoyen, quel que soit son niveau social ; où la priorité ne sera pas la rentabilité d’un médicament, mais son efficacité ; où l’épanouissement des salariés prévaudra sur le niveau des dividendes ; où les tâches pénibles et dangereuses seront assurées par des robots, au bénéfice de l’homme ; où les solutions énergétiques durables ne seront pas enterrées parce qu’elles menacent les intérêts de certaines industries polluantes ; où chaque être humain mangera à sa faim, où qu’il soit sur Terre ; où le besoin de sécurité ne sera pas assuré par des politiques de surveillance liberticides, mais par la disparition des inégalités… Un nouvel Éden, où le progrès technique sera au service de l’humanité tout entière. Cette société est possible, ce n’est pas une utopie. Mais pour la faire advenir, nous avons des choix à faire. Des choix politiques, au sens le plus philosophique du terme.

In Google We Trust

Depuis son adoption par le Congrès en 1956, « In God We Trust » (« Nous avons confiance en Dieu ») est devenue la devise officielle des États-Unis. Quelle ironie de voir une nation qui a fondé ses valeurs sur la foi religieuse, devenir le fer de lance de la foi transhumaniste et promettre à qui veut l’entendre, par la bouche de ses techno-prophètes, que l’immortalité numérique est pour bientôt ! C’est justement là qu’une réflexion philosophique s’impose. Paradoxalement, l’intelligence artificielle, aboutissement ultime du matérialisme, va nous obliger à nous poser des questions d’ordre spirituel. Rappelons que la singularité annoncée par Ray Kurzweil, ce moment où l’intelligence artificielle dépassera l’intelligence humaine et où son développement échappera à tout contrôle, a son équivalent en mathématiques et en astrophysique : il s’agit de la frontière d’un trou noir, appelé « horizon des évènements », au-delà de laquelle les lois de la physique ne s’appliquent plus, une réalité littéralement métaphysique. Et c’est l’ultime raison pour laquelle le politique doit s’emparer des questions soulevées par la big tech : pour ne pas laisser ce qui relève de la pérennité de l’humanité aux seuls industriels, dont les choix sont encore trop dictés, aujourd’hui, par des objectifs uniquement financiers. L’humanité est, nous le pressentons tous, à un tournant de son histoire. Il se pourrait que, demain, de nouvelles découvertes scientifiques sur la conscience changent complètement la donne et redéfinissent les priorités de la recherche, autant que la vision que nous avons de la vie elle-même… Que deviendraient les promesses des transhumanistes et leur obsession de « guérir la mort », si nous découvrions que nous avons une âme et qu’elle existe dans une autre dimension ? Zoltan Istvan a-t-il envisagé cette possibilité ? Ray Kurzweil en a-t-il tenu compte dans son business plan ? Qu’elle soit spirituelle ou technologique, la singularité à venir ne peut, par définition, pas être anticipée. Mais une chose est sûre, elle sera le résultat des intentions que nous aurons déposées, aujourd’hui, collectivement, pour la construction de notre futur. Citoyennes, citoyens, nous sommes à la croisée des chemins.

Grégory Aimar
Auteur du roman d’anticipation I.AM

Big data : les algorithmes sont-ils les maitres de notre futur ?

Des données collectées, puis traitées par des algorithmes, permettent d’émettre certaines prédictions. Les champs d’application des algorithmes sont nombreux, par exemple dans la lutte contre la criminalité.

Prédire les crimes

Prédire les crimes

Des programmes informatiques sont aujourd’hui capables d’anticiper la survenue d’actes criminels.

Une aide précieuse pour la justice ou un risque réel pour nos libertés ?

Un logiciel capable de prédire le lieu et l’instant où un individu s’apprêtera à commettre un délit ne relève plus de la science-fiction. Dans certaines villes comme Chicago, Londres ou Munich, ces programmes sont en effet devenus réalité. Accompagnant l’évolution des sociétés modernes vers le tout-sécuritaire, la police expérimente de plus en plus ces nouveaux outils technologiques. Grâce à un algorithme capable d’analyser l’énorme masse de données personnelles que nous produisons et laissons en permanence sur le numérique, ces logiciels spécialisés peuvent en effet établir des listes d’individus susceptibles d’être mêlés à des actes répréhensibles.

Mais l’utilisation des nouvelles technologies à des fins prédictives pose un grand nombre de questions éthiques et morales. Sommes-nous prêts à abandonner notre liberté au nom de la sécurité ? Peut-on réellement faire confiance à un algorithme pour trier les individus et déterminer aujourd’hui qu’ils deviendront des criminels demain ? Fascinant et glaçant, ce documentaire part à la rencontre de professionnels qui utilisent déjà ces méthodes, mais donne également la parole à des victimes de ces logiciels, citoyens sans histoires que les ordinateurs ont identifiés un jour comme de potentiels criminels.

Hitachi : une IA capable de prédire les crimes avant qu’ils se produisent
On en sait plus sur les algorithmes de Palantir. Le département de police de Los Angeles a une nouvelle formule de surveillance, alimentée par Palantir
Des projets Chinois à la Minority Report utiliseront l’IA pour prédire des crimes
Tout votre historique de navigation sur Internet est maintenant en vente

Palantir Technologies

Palantir Technologies Inc. développe et construit des plates-formes de fusion de données pour l’intégration, la gestion et la sécurisation de tout type de données à grande échelle. Il propose Palantir Gotham, une plate-forme pour intégrer, gérer, sécuriser, et analyser les données de l’entreprise; et la plate-forme Palantir Metropolis pour enquête quantitative à grande échelle qui intègre à travers de multiples sources de données, rassemblant des informations disparates dans un environnement unifié d’analyse quantitative. La société apporte une réponse contre la fraude, marchés de capitaux, gestion de cas, intervention de crises, cyber-sécurité, défense,  préparation aux catastrophes, intervention de la maladie, livraison de soins de santé, menaces internes, analyse d’assurance, intelligence/renseignement, application de la loi, veille juridique, palantir verus, pharma R & D, supervision de trader et des solutions personnalisées.

L’entreprise travaille pour la communauté du renseignement des États-Unis, notamment pour la NSA, la CIA et le FBI, ainsi que pour différents acteurs du système de défense américain, comme les US Marines, l’US Air force et les Opérations spéciales. Elle s’est diversifiée dans les secteurs de la finance, de l’assurance, de la santé et des biens de consommation courante. Elle met par ailleurs sa technologie à disposition d’ONG comme Community solutions.

La société a été constituée en 2003 et est basée à Palo Alto, en Californie. Elle fait partie des valeurs sures de la Silicon Valley. Depuis sa création, l’entreprise a levé en tout et pour tout 2,3 milliards de dollars et sa valorisation pourrait prochainement atteindre 20 milliards de dollars. Parmi les investisseurs figure la CIA, qui y a injecté 2 millions de dollars au moment de son lancement. L’agence centrale de renseignement est alors séduite par le projet de Palantir : utiliser les algorithmes informatiques afin de déjouer d’éventuelles attaques terroristes. (ndlr)

Le cofondateur de Palantir, Peter Thiel, est également le co-fondateur de PayPal.

pour en savoir plus : Techcrunch

L’algorithme PredPol

PredPol est basé sur une décennie de recherches académiques détaillées sur les causes de la formation de schémas criminels. Cette recherche a permis de relier plusieurs aspects clés du comportement des délinquants à une structure mathématique utilisée qui permet de prédire l’évolution des schémas criminels au jour le jour. Qu’est-ce que PredPol et ce que PredPol n’est PAS ?

Pour en savoir plus : The PredPol Algorithm

Qui a besoin de la démocratie quand on a des données ?

On en sait plus sur les algorithmes de Palantir

Le département de police de Los Angeles a une nouvelle formule de surveillance, alimentée par Palantir

Le département de police de Los Angeles (LAPD) a récemment été contraint de publier des documents sur ses algorithmes prédictifs de police et de surveillance, grâce à une action en justice de la Stop LAPD Spying Coalition (qui a remis les documents à In Justice Today).

Les analystes du département de police de Los Angeles sont chargés de maintenir “au moins” une douzaine d’objectifs de surveillance en cours, en utilisant le logiciel Palantir et une mise à jour de la formule du contrevenant “probable”, selon les documents d’octobre 2017, obtenus suite à une demande de la Stop LAPD Spying Coalition et donnée exclusivement à In Justice Today.

Ces rapports de surveillance identifient les “délinquants probables” dans certains quartiers, selon une formule de police prédictive fondée sur les points de la police de Los Angeles. Les analystes trouvent des informations pour leurs rapports en utilisant le logiciel Palantir, qui élimine les données des dossiers de la police, y compris les fiches d’entretien sur le terrain et les rapports d’arrestation, selon une formule mise à jour de la liste de contrôle du LAPD, qui utilise des critères plus larges que la formule de risque passée que le département était censé avoir utilisé. Ces rapports, connus sous le nom de Chronic Offender Bulletin – Bulletins Chroniques des Délinquants, sont antérieurs à l’implication de Palantir dans le LAPD, mais depuis que le LAPD a commencé à utiliser le logiciel d’exploration de données (data mining) de la compagnie en septembre 2011, le département affirme que les bulletins qui auraient pris une heure à compiler prennent maintenant environ cinq minutes.

Screenshots of Palantir’s Gotham program, from a promotional video. Source: Youtube via Bloomberg

Big Data : Palantir Technologies

La police de Los Angeles soutient que cibler les “délinquants chroniques” de cette manière contribue à réduire les taux de criminalité tout en étant peu invasive. Mais la Stop LAPD Spying Coalition, une alliance communautaire qui milite contre les efforts accrus de surveillance du LAPD depuis 2012, dresse un portrait différent du programme Chronic Offender Bulletin. Le groupe appelle cela une “boucle de rétroaction raciste” dans laquelle la police surveille un certain nombre de personnes sur la base de données générées par leurs propres services de police à tendance raciale, créant plus de surveillance et donc plus d’arrestations.

Jamie Garcia, l’organisatrice principale de la campagne Predictive Policing avec la Stop LAPD Spying Coalition, explique que les fiches d’interview sur le terrain, par exemple, fournissent des informations pour la liste de contrôle prédictive, souvent issues du profilage racial sur la rue. “Quand nous regardons les arrêts du LAPD, la population noire est complètement surreprésentée”, a déclaré Garcia dans un appel téléphonique. Les directives, dit-elle, ordonnent aux agents “de trouver ces gens et de les harceler…. Si vous êtes constamment surveillé, constamment harcelé, la possibilité de quelque chose qui ne va pas … La prochaine chose que vous savez, vous êtes un contour de craie de cadavre.”

Les juristes ont noté que l’institutionnalisation des formules de risque comme la liste de contrôle du programme des délinquants chroniques du LAPD peut exacerber les modèles existants de discrimination en sur-échantillonnant ceux déjà discriminés, générant des données encore plus biaisées qui justifient une discrimination supplémentaire.

Le LAPD a décliné la demande d’entrevue d’IJT et n’a pas fourni de réponses aux questions écrites concernant le programme. Dans un courriel adressé à IJT, la porte-parole de Palantir, Lisa Gordon, a confirmé que Palantir est utilisé dans la création des bulletins des délinquants chroniques, mais a souligné que le logiciel ne génère pas automatiquement les rapports et que la sélection et le contrôle des personnes sur ces listes fait partie d’un processus humain.

Comment les enquêtes pré-criminelles commencent

Le processus d’identification de la cible commence par un analyste du LAPD qui cherche des «délinquants probables» en examinant les dossiers de la police. Selon les documents du LAPD, les analystes déploient le logiciel d’organisation de fichiers de Palantir pour effectuer des «work-ups» de ces individus, à la recherche d’enregistrements qui ajoutent des points à leurs scores prédictifs de risque, basés sur des facteurs tels que leur nombre de contacts avec la police au cours des deux dernières années. Voici une image d’un de ces “work-ups”, produit quelques mois avant que le département n’adopte Palantir, que IJT a trouvé en ligne, complètement non expurgé, dans une présentation de LAPD en mai 2013.

An example of a research “work up” template created by an LAPD analyst to organize data points for the department’s predictive “chronic offender” formula.

En additionnant les points basés sur les arrêts de la police et d’autres critères décrits dans la formule, un analyste créerait au moins 12 bulletins des délinquants chroniques pour les personnes ayant obtenu des notes élevées, et identifier cinq à dix autres comme sauvegardes potentielles pour la liste cible. Les 12, classés selon les valeurs maximales les plus élevées, sont ensuite référés aux agents pour s’assurer que les cibles ne sont pas déjà en détention ou qu’elles ne sont pas suivies. Comme les documents l’indiquent explicitement, ces cibles sont, à ce stade, légalement «pas des suspects mais des personnes d’intérêt». Une “person of interest” ou “personne d’intérêt” n’a pas de signification juridique défini, mais peut simplement signifier quelqu’un qui pourrait avoir connaissance d’un crime.

Le logiciel attribue des points aux personnes, sur la base d’infractions passées, ou même simplement après avoir été arrêté ou en contact avec la police. Les points sont une indication, selon le LAPD, de la probabilité que quelqu’un commette un crime. S’appuyer sur cet algorithme pour déterminer qui devrait être surveillé, ce qui peut être fait par des vérifications de probation ou de mandat, incite la police à surveiller les gens – non pas pour les arrêter, mais pour voir s’il y a une raison de le faire. Les personnes ciblées par l’algorithme et signalées comme des personnes d’intérêt peuvent faire l’objet d’une surveillance policière supplémentaire, simplement parce qu’elles peuvent être associées à ou connaître des activités criminelles. Cela peut arriver même si elles n’ont rien fait de mal, de toute leur vie.

– En utilisant les interviews sur le terrain et les arrestations mentionnées ci-dessus, utilisez Palantir pour faire un travail sur l’individu. Faites une recherche, résolvez les conflits, déterminez ce que la personne a fait au cours des 2 dernières années. – Sur Palantir, indiquez le nombre d’arrestations pour crimes violents que l’individu a subis au cours des deux dernières années. Appliquer 5 points pour chaque arrestation de crime violent (ceci est un changement de notre protocole original). – Déterminez si l’individu a utilisé une arme dans le cadre de ses activités. Appliquer 5 points pour chaque incident impliquant un pistolet au cours des 2 dernières années (ceci est un changement de notre protocole original). – Déterminez si l’individu est membre d’un gang. Appliquer 5 points pour l’appartenance à un gang. – Déterminez si la personne est en probation ou en libération conditionnelle. Appliquez 5 points pour ce statut. – Déterminez le nombre de contacts policiers de qualité que l’individu a eu au cours des deux dernières années. Appliquer 1 point pour chaque contact (principalement des interviews sur le terrain) – Additionnez le nombre de points pour l’individu. Cela vous donnera un score de délinquant chronique.

Les critiques affirment que cela crée essentiellement un cycle où toute personne qui a des antécédents avec le système de justice pénale peut maintenant être soumise à une surveillance accrue dans un avenir prévisible, même si elles ne sont pas soupçonnées d’avoir un lien avec un crime récent. Sur le travail rédigé ci-dessus, que le LAPD a confirmé comme étant authentique dans un courriel, l’individu avait été arrêté deux fois en une seule journée à quatre occasions distinctes au cours d’une période de six semaines. Tous ces arrêts comptent comme des points dans la formule prédictive, ce qui en fait une priorité plus élevée pour le programme de surveillance.

Bien que le LAPD affirme que ces rapports sont “à titre informatif seulement et pour la sécurité des agents”, les informations du rapport sont ensuite transmises à une base de données LAPD interne “à des fins de poursuite et de surveillance” selon les documents 2017. Armés de ces données, par exemple lorsque des délinquants cibles ont été arrêtés et quels tatouages ils ont, des unités spéciales du LAPD sont envoyées pour «engager» des cibles avec des tactiques spécifiques, telles que des vérifications pour des mandats en attente ou des saisies d’armes illégales pouvant conduire à des arrestations.

Sarah Brayne, professeure adjointe de sociologie à l’Université du Texas à Austin, qui a mené des recherches sur le terrain avec le LAPD en 2015, affirme que les policiers sont conscients que les bulletins ne leur ont pas donné de soupçon raisonnable ou de cause probable. “Le langage utilisé lorsque j’ai parlé avec des officiers était :” Allez leur parler, et vous pourriez les attraper en train de faire quelque chose, mais il n’y a actuellement aucune cause probable”.

Bien que les documents du LAPD n’indiquent pas explicitement que ceux qui figurent sur la liste doivent être arrêtés, ils suggèrent qu’une fois qu’un individu se présente sur un bulletin alimenté par Palantir, la police est censée continuer à surveiller la personne jusqu’à ce qu’elle soit détenue. Selon une présentation PowerPoint publiée, par exemple, on s’attend à ce que les agents se demandent “combien de délinquants chroniques ont été arrêtés” au cours des deux semaines précédentes et quelles sont leurs stratégies pour les “délinquants non traités”.

Chaque semaine, les analystes sont également censés déterminer si les individus figurant sur leurs listes de cibles «sont actifs ou en garde à vue», puis remplacer ceux qui ont été capturés par des “back-ups”, d’autres personnes à haut risque, créer de nouveaux objectifs pour la police.

Selon Mme Brayne, les personnes peuvent être retirées de la liste de surveillance si elles n’ont pas eu de contact avec la police depuis deux ans, mais la logique sous-jacente du programme est de neutraliser ceux qui sont déterminés à être les principaux moteurs de la criminalité.

Compte tenu de l’ampleur de l’examen et des contacts de routine que les agents doivent suivre pour les personnes figurant sur la liste des bulletins, éviter tout contact avec la police n’est pas réaliste, affirme Josmar Trujillo, un activiste anti-gang à New York. “Si vous vivez dans une communauté de couleur en Amérique, vous n’avez pas le choix d’avoir ces contacts”, a déclaré Trujillo dans un appel téléphonique. “Souvent, on peut être arrêté juste pour être autour de certaines personnes, que ce soit des arrêts de voiture ou des arrêts de groupes dans une rue, donc cette idée de police prédictive que vous devez mériter votre droit de ne pas figurer sur la liste est cruelle parce que pour éviter l’application de la loi pendant des années – ce n’est pas possible.”

Hitachi : une IA capable de prédire les crimes avant qu’ils se produisent

Incitations perverses ?

L’attente du LAPD selon laquelle les analystes ont au moins une douzaine de cibles sur le pont est possible grâce, entre autres, à l’utilisation du logiciel Palantir, la firme technologique controversée fondée par le milliardaire libertaire Peter Thiel. Comme Craig Uchida, un consultant LAPD et partenaire de recherche, a déclaré à Wired, avant que Palantir ne soit intégré, les analystes du LAPD ne pouvaient pas faire assez de bulletins de surveillance pour suivre les arrêts des officiers. À l’époque, rappelait-il, les flics arrêtaient chaque jour une centaine de personnes dans le quartier de South Los Angeles, où le programme avait été implanté pour la première fois, amenant trop de données pour que les analystes puissent les traiter efficacement.

Les documents indiquent également que les services de police sont devenus plus engagés que par le passé à atteindre les objectifs du programme des délinquants chroniques en matière de surveillance des agents et d’ “engagement” avec ceux qui sont énumérés. Selon les documents, lors des réunions hebdomadaires de contrôle de la criminalité, des unités spécialisées ciblant les délinquants sont censées fournir des rapports sur «leurs progrès» à ce jour. Brayne dit que c’est un développement relativement nouveau.

“Il y avait certainement un suivi du nombre d’arrestations, mais c’était en grande partie pour collecter des données afin de mesurer l’efficacité et plaider en faveur d’un financement continu”, a-t-elle dit.

Les attentes, ancrées dans ces tactiques policières prédictives, inquiètent Garcia, qui souligne que de telles incitations pourraient motiver ou même obliger les analystes et les officiers à procéder à des arrestations sans fondement uniquement pour vérifier les listes de diffusion. “Donc le LAPD se surveille lui-même”, a déclaré Garcia.

Brayne, d’autre part, a fait remarquer que pendant son travail sur le terrain, les agents avaient trop de délinquants de haut niveau à traiter, pas trop peu.

Des projets Chinois à la Minority Report utiliseront l’IA pour prédire des crimes

Nouvelle technologie, victimes similaires

Les activistes soutiennent également que ce programme de police prédictif pourrait donner une nouvelle couverture scientifique et légale aux pratiques policières traditionnelles dans les communautés pauvres et non-blanches, considérées par certains comme discriminatoires sur le plan racial.

“Les données sont intrinsèquement subjectives, et il a ce parti pris implicite”, a déclaré Garcia, affirmant que les données tirées des interactions policières brutes amènent nécessairement les biais existants dans les modèles prédictifs de risque du LAPD. Et les découvertes ethnographiques de Brayne sur la culture de la LAPD suggèrent que ces préoccupations peuvent être justifiées.

Les documents révèlent également une version plus récente et plus expansive de la formule du délinquant chronique basée sur les points du LAPD que ce qui a été rapporté précédemment. Des rapports plus anciens ont montré que les analystes devaient comptabiliser des points contre des individus pour l’appartenance à un gang, la libération conditionnelle ou la probation, des arrestations antérieures avec une arme de poing, des crimes violents passés et des contacts policiers “de qualité”. Cette version plus récente d’octobre 2017 comprend la plupart de ces cases à cocher, mais étend la pénalité des armes à feu maintenant compter jusqu’à cinq points pour «chaque incident» impliquant n’importe quel type d’arme au cours des deux dernières années.

Les documents ont été obtenus grâce à une action en justice intentée par la Stop LAPD Spying Coalition en mars, qui visait à obtenir des informations sur un programme LAPD plus vaste dans lequel les Bulletins des délinquants chroniques sont utilisés. Depuis 2011, ce programme, connu sous le nom d’Opération LASER, a ciblé les quartiers de Los Angeles avec une forte densité de crimes liés aux armes à feu, associant des analystes et des agents pour cibler les délinquants et les zones “chroniques”. Selon une demande de prolongation de subvention du LAPD de 2017 au programme de subventions Smart Policing Initiative du ministère de la Justice, obtenu par la Stop LAPD Spying Coalition, le département ciblait alors les quartiers du sud et du centre de Los Angeles, principalement noirs et latinos, et a prévu d’étendre l’opération à plus de divisions de police à travers la ville.

Le LAPD a revendiqué le succès du programme – entre 2011 et 2012, un domaine dans lequel LASER opérait a enregistré une diminution de 56% des homicides (selon un rapport de 2014 du LAPD). Mais le rapport n’a pas été en mesure de déterminer si cela était dû à l’utilisation des bulletins des délinquants chroniques ou à d’autres tendances indépendantes. Les homicides à Los Angeles ont diminué régulièrement depuis le début des années 1990 avant de se stabiliser vers le milieu de cette décennie.

Mais les résidents disent que ces tactiques prédictives ont un coût. “J’ai l’impression qu’ils savent déjà qui vous êtes au moment où ils vous arrêtent. Ils connaissent déjà votre nom et avec qui vous traitez », a déclaré un membre d’un groupe de discussion organisé par la Stop LAPD Spying Coalition pour un nouveau rapport publié, aux côtés des archives publiques.

Rien n’indique que le LAPD ait délibérément choisi d’utiliser un algorithme ouvertement discriminatoire. Mais ce programme, qui a commencé comme une base de données dissimulée de personnes associées à des gangs, ne peut pas être considéré comme efficace lorsqu’elle est basée sur une activité policière qui est certainement sujette aux parti pris et aux préjugés.

In Justice Today

Big Data : Palantir Technologies

Palantir Technologies Inc. développe et construit des plates-formes de fusion de données pour l’intégration, la gestion et la sécurisation de tout type de données à grande échelle. Il propose Palantir Gotham, une plate-forme pour intégrer, gérer, sécuriser, et analyser les données de l’entreprise; et la plate-forme Palantir Metropolis pour enquête quantitative à grande échelle qui intègre à travers de multiples sources de données, rassemblant des informations disparates dans un environnement unifié d’analyse quantitative. La société apporte une réponse contre la fraude, marchés de capitaux, gestion de cas, intervention de crises, cyber-sécurité, défense,  préparation aux catastrophes, intervention de la maladie, livraison de soins de santé, menaces internes, analyse d’assurance, intelligence/renseignement, application de la loi, veille juridique, palantir verus, pharma R & D, supervision de trader et des solutions personnalisées.

L’entreprise travaille pour la communauté du renseignement des États-Unis, notamment pour la NSA, la CIA et le FBI, ainsi que pour différents acteurs du système de défense américain, comme les US Marines, l’US Air force et les Opérations spéciales. Elle s’est diversifiée dans les secteurs de la finance, de l’assurance, de la santé et des biens de consommation courante. Elle met par ailleurs sa technologie à disposition d’ONG comme Community solutions.

La société a été constituée en 2003 et est basée à Palo Alto, en Californie. Elle fait partie des valeurs sures de la Silicon Valley. Depuis sa création, l’entreprise a levé en tout et pour tout 2,3 milliards de dollars et sa valorisation pourrait prochainement atteindre 20 milliards de dollars. Parmi les investisseurs figure la CIA, qui y a injecté 2 millions de dollars au moment de son lancement. L’agence centrale de renseignement est alors séduite par le projet de Palantir : utiliser les algorithmes informatiques afin de déjouer d’éventuelles attaques terroristes. (ndlr)

Le cofondateur de Palantir, Peter Thiel, est également le co-fondateur de PayPal.

pour en savoir plus : Techcrunch