L’avenir, c’est l’IA qui sait quand vous mourrez

Cette IA sait quand vous mourrez et ses créateurs ne savent pas comment

Des chercheurs de Geisinger, un fournisseur de services de santé de Pennsylvanie, ont formé une IA afin de prédire quels patients sont les plus à risque de décéder au cours de la prochaine année, rapporte New Scientist.

Ils ont alimenté les 1,77 million de fichiers d’électrocardiogramme (ECG) de l’IA – mesurés en tension au fil du temps – de 400 000 patients, afin de détecter des schémas pouvant indiquer des problèmes cardiaques futurs, notamment des crises cardiaques et la fibrillation auriculaire.

Les résultats étaient impressionnants et un peu effrayants. Selon les chercheurs, le modèle d’IA a mieux réussi que les méthodes existantes à faire la distinction entre les patients qui allaient mourir dans l’année et ceux qui ont survécu.

“Quoi qu’il en soit, le modèle basé sur la tension a toujours été meilleur que tous les modèles pouvant être construits à partir d’éléments que nous mesurons déjà à partir d’un ECG”, a déclaré Brandon Fornwalt, chercheur principal de l’étude chez Geisinger.

Le modèle a même détecté des problèmes cardiaques chez des patients qui avaient été préalablement traités par des cardiologues.

“Ce résultat suggère que le modèle voit des choses que les humains ne peuvent probablement pas voir, ou du moins que nous ignorons et pensons être normales”, a ajouté Fornwalt. “L’IA peut nous apprendre des choses que nous avons peut-être mal interprétées pendant des décennies.”

Ce n’est pas la seule tentative d’exploiter le pouvoir du machine learning pour prédire la mort. L’an dernier, des chercheurs de Google à Mountain View, en Californie, ont créé un modèle prédictif utilisant les dossiers de santé électroniques pour prédire la durée du séjour et le moment du congé du patient, ainsi que l’heure du décès.

La FDA a approuvé un algorithme qui prédit la mort

Les modèles d’IA ont également été utilisés pour diagnostiquer les maladies cardiaques et le cancer du poumon – dans certains cas avec plus de précision que les médecins humains.

Mais il y a un problème majeur avec l’IA de Geisinger, et beaucoup d’autres modèles aussi : ils ont du mal à expliquer comment fonctionne l’IA. C’est pourquoi les professionnels s’inquiètent à l’idée de prendre des décisions fondées sur ce genre d’algorithmes.

New Scientist

Ce superordinateur peut prédire quand un patient va mourir avec une précision de 96%

Gattaca : Un nouveau test pour bébé à la carte promet des enfants en bonne santé

Le test ADN prétend permettre aux futurs parents d’éliminer les embryons de FIV présentant un risque élevé de maladie ou une faible intelligence.

Le test, baptisé “23andMe, mais sur des embryons”, est proposé par une jeune entreprise du New Jersey appelée Genomic Prediction. Elle affirme pouvoir utiliser des mesures d’ADN pour prédire quels embryons issus d’une FIV sont les moins susceptibles d’être atteints par l’une des 11 maladies les plus courantes. La société publiera des études de cas sur ses premiers clients dans les prochaines semaines. Elle déclare également qu’elle peut prédire quels embryons feront partie des groupes les plus ou les moins intelligents de la population.

Les parents peuvent utiliser les résultats du test pour essayer de choisir les embryons les plus sains. Les catégories comprennent des estimations du risque de diabète, de crises cardiaques et de cinq types de cancer.

Le test vient tout droit du film de science-fiction Gattaca, un film qui a inspiré le PDG de la startup, Laurent Tellier. Il soulève toutes sortes de questions sur l’eugénisme et la parentalité, et a été vivement critiqué par certains chercheurs en génétique.

Expérience américaine : la croisade eugénique

“C’est irresponsable de suggérer que la science en est au point où nous pourrions prédire de manière fiable quel embryon choisir pour minimiser le risque de maladie. La science n’est tout simplement pas encore au point”, déclare Graham Coop, généticien à l’Université de Californie.

La société a réuni plusieurs millions de dollars de capital-risque auprès d’investisseurs, notamment People Fund, Arab Angel, Passport Capital et Sam Altman, président du conseil d’administration de Y Combinator et PDG de OpenAI.

Dans une clause de non-responsabilité, la société déclare qu’elle ne peut rien garantir au sujet de l’enfant ainsi créé et que l’évaluation “n’est PAS un test de diagnostic”.

Genomic Prediction a fourni une carte de 12 cliniques de fertilité qui, selon elle, commanderont son test, dont cinq aux États-Unis et d’autres en Finlande, au Nigeria, au Pérou, au Mexique, en Thaïlande et à Taiwan.

Nous sommes à l’aube de choisir des embryons selon la taille, le QI et plus encore

MIT Technology Review a été en mesure de localiser de façon indépendante deux cliniques de FIV où des clients ont récemment demandé les prédictions sur les embryons. Michael Alper, fondateur de Boston IVF, l’une des plus grandes cliniques de fertilité au monde, dit que son centre a été approché par un couple il y a quelques semaines, mais il a décidé que la demande devait être évaluée par le comité d’éthique du centre avant qu’il accepte de le faire.

C’est nouveau mais rien ne prouve que les tests fonctionneront comme annoncé.

MIT Technology Review

Hacking Darwin : génie génétique et avenir de l’humanité

Ginni Rometty sur l’avenir du travail et de l’IA

L’intelligence artificielle d’IBM permet de prédire avec une précision de 95 % quels travailleurs sont sur le point de quitter leur emploi.

IBM reçoit plus de 8.000 CV par jour. Mais, ce n’est pas la seule façon pour IBM, qui emploie environ 350 000 personnes, de savoir qui cherche actuellement un nouveau poste. La technologie d’intelligence artificielle d’IBM est maintenant précise à 95 % pour prédire les salariés qui comptent quitter leurs emplois, a déclaré Ginni Rometty.

Depuis les sept années où Rometty occupe le poste de PDG, IBM a amélioré son travail d’intelligence artificielle consacré à la fidélisation de ses employés.

“Le meilleur moment pour récupérer un employé, c’est avant qu’il ne parte”, a-t-elle déclaré.

IBM HR dispose d’un brevet pour son “programme d’attrition prédictive” qui a été développé avec Watson pour prédire le risque de fuite des employés et préconiser des actions pour que les managers engagent des employés.

Rometty ne peut pas expliquer ce qui a permis à l’IA de travailler si efficacement dans l’identification des travailleurs sur le point de partir. Elle se contente de dire que son succès passe par l’analyse de nombreux points de données. L’IA a jusqu’à présent permis à IBM d’économiser près de 300 millions de dollars en coûts de rétention, a-t-elle affirmé.

L’outil de rétention de l’IA fait partie d’une suite de produits IBM conçus pour améliorer l’approche traditionnelle de la gestion des ressources humaines. Rometty a décrit le modèle classique des ressources humaines comme ayant besoin d’une refonte, et a dit que c’est l’une des professions où les humains ont besoin de l’IA pour améliorer leur travail.

Rometty a déclaré que depuis qu’IBM a déployé la technologie sur une plus grande échelle, y compris les services cloud et d’autres modernisations, le géant de la technologie a réduit la taille de son département mondial des ressources humaines de 30 %. Mais elle a ajouté que les postes restants sont mieux rémunérés et capables d’effectuer un travail de plus grande valeur.

Un cheminement de carrière plus clair est nécessaire pour de nombreuses personnes

Parmi les tâches pour lesquelles les DRH et les responsables d’entreprise n’ont pas toujours fait la preuve de leur efficacité et pour lesquelles l’intelligence artificielle jouera un rôle plus important à l’avenir, figurent le maintien des employés sur un parcours professionnel clair et l’identification de leurs compétences.

Rometty a déclaré que la transparence avec les employés au sujet de leur cheminement de carrière est un problème dans lequel de nombreuses entreprises échouent encore. Et cela va devenir plus critique. “Je m’attends à ce que l’IA change 100 % des emplois au cours des 5 à 10 prochaines années “, a déclaré la PDG d’IBM.

Être transparent avec les employés signifie être honnête au sujet des compétences nécessaires, surtout lorsque les travailleurs ne les possèdent pas. Les dirigeants d’IBM parlent aux employés des compétences rares ou abondantes sur le marché.

“Si vous avez une compétence qui n’est pas nécessaire pour l’avenir, qui est abondante sur le marché et qui ne correspond pas à une stratégie dont mon entreprise a besoin, vous n’êtes pas fait pour rester à l’intérieur de mon entreprise”, a déclaré Rometty. “Je crois vraiment qu’il faut être transparent sur l’emplacement des compétences. Je crois vraiment qu’il faut être transparent pour savoir où sont les compétences.”

En comprenant mieux les modèles de données et les compétences adjacentes, l’IA d’IBM peut se concentrer sur les forces d’un individu. En retour, cela peut permettre à un manager d’orienter un employé vers des opportunités futures qu’il n’a peut-être pas vues à l’aide des méthodes traditionnelles.

“Nous avons constaté que les sondages auprès des managers n’étaient pas exacts”, a déclaré Rometty, faisant référence aux évaluations formelles des compétences. “Les managers sont subjectifs en matière d’évaluation. Nous pouvons déduire et être plus précis à partir des données.”

La technologie IBM permet de visualiser les tâches accomplies par les employés, les cours qu’ils ont suivis et les résultats qu’ils ont obtenus. Grâce à ces points de données, l’inférence de compétences en IA et les responsables des ressources humaines peuvent mieux comprendre l’ensemble des compétences d’un employé qu’ils ne le feraient en évaluant le retour d’information provenant des enquêtes auprès des responsables.

IBM a également abandonné un autre élément fondamental des ressources humaines classiques : l’évaluation annuelle des performances, où Rometty a résisté au début, mais la persévérance des responsables des ressources humaines lui a prouvé sa nécessité. La société évalue la croissance des compétences des employés dans le cadre de leurs vérifications trimestrielles avec la direction.

L’IA parvient de mieux en mieux à informer les employés sur leur carrière. L’assistant virtuel MYCA (My Career Advisor) d’IBM utilise Watson pour aider les employés à identifier les domaines où ils ont besoin d’améliorer leurs compétences. La technologie Blue Match, offre des possibilités d’emploi aux employés en fonction de leurs données sur les compétences acquises grâce à l’IA (les employés choisissent de participer au service). Rometty a déclaré que certains des 27 % des travailleurs d’IBM qui ont obtenu un nouvel emploi ou une promotion en 2018 ont été aidés par Blue Match.

“L’IA changera tous les emplois une fois qu’elle sera dans le flux de travail, et c’est la forme la plus significative de l’IA. Oui, certains emplois seront remplacés, mais c’est un faux-fuyant”, affirme Rometty. “Il s’agit de faire travailler les gens à l’intersection de tout ça.”

Elle a ajouté : “Tout cela est un jeu d’habileté et de personnes ayant les bonnes compétences, et le travail de chacun est en train de changer.”

Se débarrasser du système RH actuel

Les départements traditionnels des ressources humaines, où les entreprises “sous-investissent généralement”, ont été divisés entre un système libre-service, où les employés sont forcés d’être leurs propres gestionnaires de carrière, et un système défensif pour faire face aux mauvais résultats.

“Nous devons amener l’IA partout et nous débarrasser du système de libre-service [existant]”, a déclaré Rometty. Les employés d’IBM n’ont plus besoin de déchiffrer quels programmes les aideront à améliorer leurs compétences ; l’IA suggère à chaque employé ce qu’il devrait apprendre afin de progresser dans sa carrière.

Dans le même temps, les mauvaises performances, quant à elles, ne seront pas un problème qui sera traité uniquement par les managers, les RH, le juridique et les finances, mais par les groupes de solutions – IBM utilise des centres de solutions “pop-up” pour aider les managers à rechercher les meilleures performances de leurs employés.

De nombreuses entreprises se sont appuyées sur des centres d’excellence – des groupes spécialisés ou des entités de collaboration créés pour se concentrer sur des domaines où il y a un manque de connaissances ou de compétences au sein d’une organisation ou d’une communauté. “Nous devons passer des centres d’excellence aux centres de solutions”, a-t-elle dit.

Le pari d’IBM est que l’avenir du travail est un avenir dans lequel une machine comprend l’individu mieux que l’individu RH ne peut le comprendre seul. Pour être clair, les observations du PDG d’IBM n’ont pas été présentées comme une attaque contre la profession des RH. En fait, elle a commencé ses remarques en décrivant les RH comme un “travail de passion” et en ajoutant qu’elle était “une grande fan de cette profession”.

Mais la nouvelle ère des ressources humaines centrées sur l’intelligence artificielle s’améliorera par rapport à quelque chose que beaucoup d’équipes de ressources humaines ne peuvent pas gérer aussi efficacement qu’une machine, qui peut créer des millions de points de données et apprendre de nouvelles choses. Il faut reconnaître le véritable potentiel des ressources des individus et servir de moteur de croissance pour les entreprises.

“C’est au niveau individuel. Vous devez connaître l’individu. Les compétences sont votre atout renouvelable, et vous devez les traiter comme ça”, a conclu Rometty.

Big data : les algorithmes sont-ils les maitres de notre futur ?

Des données collectées, puis traitées par des algorithmes, permettent d’émettre certaines prédictions. Les champs d’application des algorithmes sont nombreux, par exemple dans la lutte contre la criminalité.

Prédire les crimes

Prédire les crimes

Des programmes informatiques sont aujourd’hui capables d’anticiper la survenue d’actes criminels.

Une aide précieuse pour la justice ou un risque réel pour nos libertés ?

Un logiciel capable de prédire le lieu et l’instant où un individu s’apprêtera à commettre un délit ne relève plus de la science-fiction. Dans certaines villes comme Chicago, Londres ou Munich, ces programmes sont en effet devenus réalité. Accompagnant l’évolution des sociétés modernes vers le tout-sécuritaire, la police expérimente de plus en plus ces nouveaux outils technologiques. Grâce à un algorithme capable d’analyser l’énorme masse de données personnelles que nous produisons et laissons en permanence sur le numérique, ces logiciels spécialisés peuvent en effet établir des listes d’individus susceptibles d’être mêlés à des actes répréhensibles.

Mais l’utilisation des nouvelles technologies à des fins prédictives pose un grand nombre de questions éthiques et morales. Sommes-nous prêts à abandonner notre liberté au nom de la sécurité ? Peut-on réellement faire confiance à un algorithme pour trier les individus et déterminer aujourd’hui qu’ils deviendront des criminels demain ? Fascinant et glaçant, ce documentaire part à la rencontre de professionnels qui utilisent déjà ces méthodes, mais donne également la parole à des victimes de ces logiciels, citoyens sans histoires que les ordinateurs ont identifiés un jour comme de potentiels criminels.

Hitachi : une IA capable de prédire les crimes avant qu’ils se produisent
On en sait plus sur les algorithmes de Palantir. Le département de police de Los Angeles a une nouvelle formule de surveillance, alimentée par Palantir
Des projets Chinois à la Minority Report utiliseront l’IA pour prédire des crimes
Tout votre historique de navigation sur Internet est maintenant en vente

Palantir Technologies

Palantir Technologies Inc. développe et construit des plates-formes de fusion de données pour l’intégration, la gestion et la sécurisation de tout type de données à grande échelle. Il propose Palantir Gotham, une plate-forme pour intégrer, gérer, sécuriser, et analyser les données de l’entreprise; et la plate-forme Palantir Metropolis pour enquête quantitative à grande échelle qui intègre à travers de multiples sources de données, rassemblant des informations disparates dans un environnement unifié d’analyse quantitative. La société apporte une réponse contre la fraude, marchés de capitaux, gestion de cas, intervention de crises, cyber-sécurité, défense,  préparation aux catastrophes, intervention de la maladie, livraison de soins de santé, menaces internes, analyse d’assurance, intelligence/renseignement, application de la loi, veille juridique, palantir verus, pharma R & D, supervision de trader et des solutions personnalisées.

L’entreprise travaille pour la communauté du renseignement des États-Unis, notamment pour la NSA, la CIA et le FBI, ainsi que pour différents acteurs du système de défense américain, comme les US Marines, l’US Air force et les Opérations spéciales. Elle s’est diversifiée dans les secteurs de la finance, de l’assurance, de la santé et des biens de consommation courante. Elle met par ailleurs sa technologie à disposition d’ONG comme Community solutions.

La société a été constituée en 2003 et est basée à Palo Alto, en Californie. Elle fait partie des valeurs sures de la Silicon Valley. Depuis sa création, l’entreprise a levé en tout et pour tout 2,3 milliards de dollars et sa valorisation pourrait prochainement atteindre 20 milliards de dollars. Parmi les investisseurs figure la CIA, qui y a injecté 2 millions de dollars au moment de son lancement. L’agence centrale de renseignement est alors séduite par le projet de Palantir : utiliser les algorithmes informatiques afin de déjouer d’éventuelles attaques terroristes. (ndlr)

Le cofondateur de Palantir, Peter Thiel, est également le co-fondateur de PayPal.

pour en savoir plus : Techcrunch

L’algorithme PredPol

PredPol est basé sur une décennie de recherches académiques détaillées sur les causes de la formation de schémas criminels. Cette recherche a permis de relier plusieurs aspects clés du comportement des délinquants à une structure mathématique utilisée qui permet de prédire l’évolution des schémas criminels au jour le jour. Qu’est-ce que PredPol et ce que PredPol n’est PAS ?

Pour en savoir plus : The PredPol Algorithm

Qui a besoin de la démocratie quand on a des données ?

On en sait plus sur les algorithmes de Palantir

Le département de police de Los Angeles a une nouvelle formule de surveillance, alimentée par Palantir

Le département de police de Los Angeles (LAPD) a récemment été contraint de publier des documents sur ses algorithmes prédictifs de police et de surveillance, grâce à une action en justice de la Stop LAPD Spying Coalition (qui a remis les documents à In Justice Today).

Les analystes du département de police de Los Angeles sont chargés de maintenir “au moins” une douzaine d’objectifs de surveillance en cours, en utilisant le logiciel Palantir et une mise à jour de la formule du contrevenant “probable”, selon les documents d’octobre 2017, obtenus suite à une demande de la Stop LAPD Spying Coalition et donnée exclusivement à In Justice Today.

Ces rapports de surveillance identifient les “délinquants probables” dans certains quartiers, selon une formule de police prédictive fondée sur les points de la police de Los Angeles. Les analystes trouvent des informations pour leurs rapports en utilisant le logiciel Palantir, qui élimine les données des dossiers de la police, y compris les fiches d’entretien sur le terrain et les rapports d’arrestation, selon une formule mise à jour de la liste de contrôle du LAPD, qui utilise des critères plus larges que la formule de risque passée que le département était censé avoir utilisé. Ces rapports, connus sous le nom de Chronic Offender Bulletin – Bulletins Chroniques des Délinquants, sont antérieurs à l’implication de Palantir dans le LAPD, mais depuis que le LAPD a commencé à utiliser le logiciel d’exploration de données (data mining) de la compagnie en septembre 2011, le département affirme que les bulletins qui auraient pris une heure à compiler prennent maintenant environ cinq minutes.

Screenshots of Palantir’s Gotham program, from a promotional video. Source: Youtube via Bloomberg

Big Data : Palantir Technologies

La police de Los Angeles soutient que cibler les “délinquants chroniques” de cette manière contribue à réduire les taux de criminalité tout en étant peu invasive. Mais la Stop LAPD Spying Coalition, une alliance communautaire qui milite contre les efforts accrus de surveillance du LAPD depuis 2012, dresse un portrait différent du programme Chronic Offender Bulletin. Le groupe appelle cela une “boucle de rétroaction raciste” dans laquelle la police surveille un certain nombre de personnes sur la base de données générées par leurs propres services de police à tendance raciale, créant plus de surveillance et donc plus d’arrestations.

Jamie Garcia, l’organisatrice principale de la campagne Predictive Policing avec la Stop LAPD Spying Coalition, explique que les fiches d’interview sur le terrain, par exemple, fournissent des informations pour la liste de contrôle prédictive, souvent issues du profilage racial sur la rue. “Quand nous regardons les arrêts du LAPD, la population noire est complètement surreprésentée”, a déclaré Garcia dans un appel téléphonique. Les directives, dit-elle, ordonnent aux agents “de trouver ces gens et de les harceler…. Si vous êtes constamment surveillé, constamment harcelé, la possibilité de quelque chose qui ne va pas … La prochaine chose que vous savez, vous êtes un contour de craie de cadavre.”

Les juristes ont noté que l’institutionnalisation des formules de risque comme la liste de contrôle du programme des délinquants chroniques du LAPD peut exacerber les modèles existants de discrimination en sur-échantillonnant ceux déjà discriminés, générant des données encore plus biaisées qui justifient une discrimination supplémentaire.

Le LAPD a décliné la demande d’entrevue d’IJT et n’a pas fourni de réponses aux questions écrites concernant le programme. Dans un courriel adressé à IJT, la porte-parole de Palantir, Lisa Gordon, a confirmé que Palantir est utilisé dans la création des bulletins des délinquants chroniques, mais a souligné que le logiciel ne génère pas automatiquement les rapports et que la sélection et le contrôle des personnes sur ces listes fait partie d’un processus humain.

Comment les enquêtes pré-criminelles commencent

Le processus d’identification de la cible commence par un analyste du LAPD qui cherche des «délinquants probables» en examinant les dossiers de la police. Selon les documents du LAPD, les analystes déploient le logiciel d’organisation de fichiers de Palantir pour effectuer des «work-ups» de ces individus, à la recherche d’enregistrements qui ajoutent des points à leurs scores prédictifs de risque, basés sur des facteurs tels que leur nombre de contacts avec la police au cours des deux dernières années. Voici une image d’un de ces “work-ups”, produit quelques mois avant que le département n’adopte Palantir, que IJT a trouvé en ligne, complètement non expurgé, dans une présentation de LAPD en mai 2013.

An example of a research “work up” template created by an LAPD analyst to organize data points for the department’s predictive “chronic offender” formula.

En additionnant les points basés sur les arrêts de la police et d’autres critères décrits dans la formule, un analyste créerait au moins 12 bulletins des délinquants chroniques pour les personnes ayant obtenu des notes élevées, et identifier cinq à dix autres comme sauvegardes potentielles pour la liste cible. Les 12, classés selon les valeurs maximales les plus élevées, sont ensuite référés aux agents pour s’assurer que les cibles ne sont pas déjà en détention ou qu’elles ne sont pas suivies. Comme les documents l’indiquent explicitement, ces cibles sont, à ce stade, légalement «pas des suspects mais des personnes d’intérêt». Une “person of interest” ou “personne d’intérêt” n’a pas de signification juridique défini, mais peut simplement signifier quelqu’un qui pourrait avoir connaissance d’un crime.

Le logiciel attribue des points aux personnes, sur la base d’infractions passées, ou même simplement après avoir été arrêté ou en contact avec la police. Les points sont une indication, selon le LAPD, de la probabilité que quelqu’un commette un crime. S’appuyer sur cet algorithme pour déterminer qui devrait être surveillé, ce qui peut être fait par des vérifications de probation ou de mandat, incite la police à surveiller les gens – non pas pour les arrêter, mais pour voir s’il y a une raison de le faire. Les personnes ciblées par l’algorithme et signalées comme des personnes d’intérêt peuvent faire l’objet d’une surveillance policière supplémentaire, simplement parce qu’elles peuvent être associées à ou connaître des activités criminelles. Cela peut arriver même si elles n’ont rien fait de mal, de toute leur vie.

– En utilisant les interviews sur le terrain et les arrestations mentionnées ci-dessus, utilisez Palantir pour faire un travail sur l’individu. Faites une recherche, résolvez les conflits, déterminez ce que la personne a fait au cours des 2 dernières années. – Sur Palantir, indiquez le nombre d’arrestations pour crimes violents que l’individu a subis au cours des deux dernières années. Appliquer 5 points pour chaque arrestation de crime violent (ceci est un changement de notre protocole original). – Déterminez si l’individu a utilisé une arme dans le cadre de ses activités. Appliquer 5 points pour chaque incident impliquant un pistolet au cours des 2 dernières années (ceci est un changement de notre protocole original). – Déterminez si l’individu est membre d’un gang. Appliquer 5 points pour l’appartenance à un gang. – Déterminez si la personne est en probation ou en libération conditionnelle. Appliquez 5 points pour ce statut. – Déterminez le nombre de contacts policiers de qualité que l’individu a eu au cours des deux dernières années. Appliquer 1 point pour chaque contact (principalement des interviews sur le terrain) – Additionnez le nombre de points pour l’individu. Cela vous donnera un score de délinquant chronique.

Les critiques affirment que cela crée essentiellement un cycle où toute personne qui a des antécédents avec le système de justice pénale peut maintenant être soumise à une surveillance accrue dans un avenir prévisible, même si elles ne sont pas soupçonnées d’avoir un lien avec un crime récent. Sur le travail rédigé ci-dessus, que le LAPD a confirmé comme étant authentique dans un courriel, l’individu avait été arrêté deux fois en une seule journée à quatre occasions distinctes au cours d’une période de six semaines. Tous ces arrêts comptent comme des points dans la formule prédictive, ce qui en fait une priorité plus élevée pour le programme de surveillance.

Bien que le LAPD affirme que ces rapports sont “à titre informatif seulement et pour la sécurité des agents”, les informations du rapport sont ensuite transmises à une base de données LAPD interne “à des fins de poursuite et de surveillance” selon les documents 2017. Armés de ces données, par exemple lorsque des délinquants cibles ont été arrêtés et quels tatouages ils ont, des unités spéciales du LAPD sont envoyées pour «engager» des cibles avec des tactiques spécifiques, telles que des vérifications pour des mandats en attente ou des saisies d’armes illégales pouvant conduire à des arrestations.

Sarah Brayne, professeure adjointe de sociologie à l’Université du Texas à Austin, qui a mené des recherches sur le terrain avec le LAPD en 2015, affirme que les policiers sont conscients que les bulletins ne leur ont pas donné de soupçon raisonnable ou de cause probable. “Le langage utilisé lorsque j’ai parlé avec des officiers était :” Allez leur parler, et vous pourriez les attraper en train de faire quelque chose, mais il n’y a actuellement aucune cause probable”.

Bien que les documents du LAPD n’indiquent pas explicitement que ceux qui figurent sur la liste doivent être arrêtés, ils suggèrent qu’une fois qu’un individu se présente sur un bulletin alimenté par Palantir, la police est censée continuer à surveiller la personne jusqu’à ce qu’elle soit détenue. Selon une présentation PowerPoint publiée, par exemple, on s’attend à ce que les agents se demandent “combien de délinquants chroniques ont été arrêtés” au cours des deux semaines précédentes et quelles sont leurs stratégies pour les “délinquants non traités”.

Chaque semaine, les analystes sont également censés déterminer si les individus figurant sur leurs listes de cibles «sont actifs ou en garde à vue», puis remplacer ceux qui ont été capturés par des “back-ups”, d’autres personnes à haut risque, créer de nouveaux objectifs pour la police.

Selon Mme Brayne, les personnes peuvent être retirées de la liste de surveillance si elles n’ont pas eu de contact avec la police depuis deux ans, mais la logique sous-jacente du programme est de neutraliser ceux qui sont déterminés à être les principaux moteurs de la criminalité.

Compte tenu de l’ampleur de l’examen et des contacts de routine que les agents doivent suivre pour les personnes figurant sur la liste des bulletins, éviter tout contact avec la police n’est pas réaliste, affirme Josmar Trujillo, un activiste anti-gang à New York. “Si vous vivez dans une communauté de couleur en Amérique, vous n’avez pas le choix d’avoir ces contacts”, a déclaré Trujillo dans un appel téléphonique. “Souvent, on peut être arrêté juste pour être autour de certaines personnes, que ce soit des arrêts de voiture ou des arrêts de groupes dans une rue, donc cette idée de police prédictive que vous devez mériter votre droit de ne pas figurer sur la liste est cruelle parce que pour éviter l’application de la loi pendant des années – ce n’est pas possible.”

Hitachi : une IA capable de prédire les crimes avant qu’ils se produisent

Incitations perverses ?

L’attente du LAPD selon laquelle les analystes ont au moins une douzaine de cibles sur le pont est possible grâce, entre autres, à l’utilisation du logiciel Palantir, la firme technologique controversée fondée par le milliardaire libertaire Peter Thiel. Comme Craig Uchida, un consultant LAPD et partenaire de recherche, a déclaré à Wired, avant que Palantir ne soit intégré, les analystes du LAPD ne pouvaient pas faire assez de bulletins de surveillance pour suivre les arrêts des officiers. À l’époque, rappelait-il, les flics arrêtaient chaque jour une centaine de personnes dans le quartier de South Los Angeles, où le programme avait été implanté pour la première fois, amenant trop de données pour que les analystes puissent les traiter efficacement.

Les documents indiquent également que les services de police sont devenus plus engagés que par le passé à atteindre les objectifs du programme des délinquants chroniques en matière de surveillance des agents et d’ “engagement” avec ceux qui sont énumérés. Selon les documents, lors des réunions hebdomadaires de contrôle de la criminalité, des unités spécialisées ciblant les délinquants sont censées fournir des rapports sur «leurs progrès» à ce jour. Brayne dit que c’est un développement relativement nouveau.

“Il y avait certainement un suivi du nombre d’arrestations, mais c’était en grande partie pour collecter des données afin de mesurer l’efficacité et plaider en faveur d’un financement continu”, a-t-elle dit.

Les attentes, ancrées dans ces tactiques policières prédictives, inquiètent Garcia, qui souligne que de telles incitations pourraient motiver ou même obliger les analystes et les officiers à procéder à des arrestations sans fondement uniquement pour vérifier les listes de diffusion. “Donc le LAPD se surveille lui-même”, a déclaré Garcia.

Brayne, d’autre part, a fait remarquer que pendant son travail sur le terrain, les agents avaient trop de délinquants de haut niveau à traiter, pas trop peu.

Des projets Chinois à la Minority Report utiliseront l’IA pour prédire des crimes

Nouvelle technologie, victimes similaires

Les activistes soutiennent également que ce programme de police prédictif pourrait donner une nouvelle couverture scientifique et légale aux pratiques policières traditionnelles dans les communautés pauvres et non-blanches, considérées par certains comme discriminatoires sur le plan racial.

“Les données sont intrinsèquement subjectives, et il a ce parti pris implicite”, a déclaré Garcia, affirmant que les données tirées des interactions policières brutes amènent nécessairement les biais existants dans les modèles prédictifs de risque du LAPD. Et les découvertes ethnographiques de Brayne sur la culture de la LAPD suggèrent que ces préoccupations peuvent être justifiées.

Les documents révèlent également une version plus récente et plus expansive de la formule du délinquant chronique basée sur les points du LAPD que ce qui a été rapporté précédemment. Des rapports plus anciens ont montré que les analystes devaient comptabiliser des points contre des individus pour l’appartenance à un gang, la libération conditionnelle ou la probation, des arrestations antérieures avec une arme de poing, des crimes violents passés et des contacts policiers “de qualité”. Cette version plus récente d’octobre 2017 comprend la plupart de ces cases à cocher, mais étend la pénalité des armes à feu maintenant compter jusqu’à cinq points pour «chaque incident» impliquant n’importe quel type d’arme au cours des deux dernières années.

Les documents ont été obtenus grâce à une action en justice intentée par la Stop LAPD Spying Coalition en mars, qui visait à obtenir des informations sur un programme LAPD plus vaste dans lequel les Bulletins des délinquants chroniques sont utilisés. Depuis 2011, ce programme, connu sous le nom d’Opération LASER, a ciblé les quartiers de Los Angeles avec une forte densité de crimes liés aux armes à feu, associant des analystes et des agents pour cibler les délinquants et les zones “chroniques”. Selon une demande de prolongation de subvention du LAPD de 2017 au programme de subventions Smart Policing Initiative du ministère de la Justice, obtenu par la Stop LAPD Spying Coalition, le département ciblait alors les quartiers du sud et du centre de Los Angeles, principalement noirs et latinos, et a prévu d’étendre l’opération à plus de divisions de police à travers la ville.

Le LAPD a revendiqué le succès du programme – entre 2011 et 2012, un domaine dans lequel LASER opérait a enregistré une diminution de 56% des homicides (selon un rapport de 2014 du LAPD). Mais le rapport n’a pas été en mesure de déterminer si cela était dû à l’utilisation des bulletins des délinquants chroniques ou à d’autres tendances indépendantes. Les homicides à Los Angeles ont diminué régulièrement depuis le début des années 1990 avant de se stabiliser vers le milieu de cette décennie.

Mais les résidents disent que ces tactiques prédictives ont un coût. “J’ai l’impression qu’ils savent déjà qui vous êtes au moment où ils vous arrêtent. Ils connaissent déjà votre nom et avec qui vous traitez », a déclaré un membre d’un groupe de discussion organisé par la Stop LAPD Spying Coalition pour un nouveau rapport publié, aux côtés des archives publiques.

Rien n’indique que le LAPD ait délibérément choisi d’utiliser un algorithme ouvertement discriminatoire. Mais ce programme, qui a commencé comme une base de données dissimulée de personnes associées à des gangs, ne peut pas être considéré comme efficace lorsqu’elle est basée sur une activité policière qui est certainement sujette aux parti pris et aux préjugés.

In Justice Today

Adrien Basdevant : Nos données valent de l’or

Quel est le point commun entre notre ordinateur, notre téléphone portable, notre carte de transport ou encore les réseaux sociaux ? Ils fournissent tous des données sur nous et sur nos habitudes. Le traitement des données, personnelles mais aussi industrielles et financières, est l’un des enjeux du siècle. Il existe même un marché secondaire de données, licite ou illicite.

L’Empire des données

Compte à rebours pour les prédictions de la Singularité

Peter Diamandis a demandé aux gens les plus intelligents qu’il connaît leurs prédictions technologiques pour les 20 prochaines années (2018-2038). Quelles sont les avancées que nous pouvons espérer sur notre compte à rebours à la Singularité ?

2018 : Suprématie quantique atteinte : La première démonstration d’un calcul quantique qui ne peut être simulé avec des supercalculateurs classiques est annoncée.

2020 : Les opérations de voitures volantes décollent dans une douzaine de villes dans le monde. Le réseau 5G libère des vitesses de connexion de 10 à 100 gigabits pour les téléphones portables dans le monde entier.

2022 : Les robots sont monnaie courante dans la plupart des foyers à revenu moyen, capables de lire de manière fiable les lèvres et de reconnaître les gestes du visage, de la bouche et de la main. Tous les jouets sont “intelligents” avec un apprentissage automatique intégré.

2024 : Les premières missions humaines privées ont été lancées pour la surface de Mars. Les premiers accords «un cent par kilowatt-heure» pour l’énergie solaire et éolienne sont signés.

2026 : La possession de voiture est morte et les voitures autonomes dominent nos routes. 100 000 personnes se rendent chaque jour à bord de VTOL (aéronef à décollage et atterrissage verticaux) dans chacune des villes suivantes : Los Angeles, Tokyo, Sao Paulo et Londres.

2028 : Le solaire et le vent représentent près de 100% de la production d’électricité nouvelle. Les véhicules électriques autonomes représentent la moitié des kilomètres parcourus dans les grands centres urbains.

2030 : L’IA réussit le test de Turing, ce qui signifie qu’elle peut égaler (et dépasser) l’intelligence humaine dans tous les domaines. L’humanité a atteint la «vitesse d’évasion de la longévité» pour les plus riches.

2032 : Nanorobots médicaux démontrés chez l’homme sont capables d’étendre le système immunitaire. Les robots Avatar deviennent populaires, permettant à chacun de «téléporter» sa conscience dans des endroits éloignés du monde entier.

2034 : Des sociétés comme Kernel ont établi des liens significatifs et fiables entre le cortex humain et le Cloud. Les robots agissent comme domestiques, majordomes, infirmières et nounous, et deviennent des compagnons à part entière. Ils soutiennent l’autonomie des personnes âgées à la maison.

2036 : Les traitements de longévité sont couramment disponibles et couverts par des polices d’assurance-vie, prolongeant la durée de vie moyenne de l’homme de 30 à 40 ans.

2038 : La vie quotidienne est maintenant méconnaissable – incroyablement bonne et l’hyper VR et l’intelligence artificielle augmentent toutes les parties du monde et tous les aspects de la vie humaine quotidienne.

L’Empire des données

Credit Don Quichotte

Essai sur la société, les algorithmes et la loi

Le numérique bouleverse nos manières d’être et d’agir, mais demeure un fait social rarement compris, souvent réduit à un optimisme béat ou à un pessimisme figeant. Cet essai pluridisciplinaire propose au contraire des pistes de réflexion.

Plus de données ont été créées en 2011 que depuis le début de l’histoire de l’humanité. Cette production double tous les deux ans, si bien que notre monde est désormais organisé et déterminé par cette nouvelle matière première, qualifiée de pétrole du XXIe siècle.

Vous souffrez d’une maladie apparemment indiagnostiquable ? En comparant votre information génétique aux vingt millions d’études oncologiques, le logiciel IBM Watson pourrait bien être votre sauveur. Vous recevez des réductions personnalisées pour des couches ? Pas d’inquiétude, le supermarché Target sait si vous êtes enceinte avant que vous ne l’annonciez à vos parents. L’un de vos amis a perdu son emploi ou est en retard sur ses échéances de paiement ? Attention, vos interactions sur les réseaux sociaux peuvent être utilisées comme critère pour vous octroyer votre prochain crédit.

Nos données sont collectées, traitées, vendues, chaque seconde. Par qui ? Comment fonctionne ce monde opaque dans lequel nous vivons ? Et existe-t-il un projet politique du Big data ? Les algorithmes des géants du numérique calculent nos moindres faits et gestes, anticipent nos désirs, profilent nos comportements. Ces nouveaux acteurs bouleversent tous les secteurs de la société, de l’agriculture à l’industrie des transports, et menacent la souveraineté des États et les missions traditionnelles qui leur sont dévolues en matière de santé, d’éducation, d’emploi, de recherche, de culture…

C’est officiel. Tout votre historique de navigation sur Internet est maintenant en vente

Ces mécanismes restent pourtant largement incompris des citoyens qui s’en remettent volontairement à eux pour suggérer qui inviter au restaurant, prédire les possibilités d’échec scolaire ou de récidive criminelle. Le droit cherche à se réapproprier ces enjeux, par une redéfinition de la propriété et de la concurrence, et par une réglementation européenne sur les données personnelles. Cela suffira-t-il ? Le rythme effréné de l’innovation nous pose une question plus que jamais cruciale : dans quelle société voulons-nous vivre demain ? L’urgence de notre choix n’est dès lors plus entre l’ancienne dichotomie du XXe siècle, l’État ou le marché, mais entre l’État de droit et la dictature des data.

Largement illustré, L’Empire des données retrace la grande histoire de cette collecte pour ouvrir à de nouvelles perspectives, et offre les clefs pour sortir de l’ornière catastrophiste aussi bien que d’une vision trop technophile.

Avocat spécialiste des enjeux numériques, Adrien Basdevant enseigne aussi à Sciences-Po et au sein du Master Data Science de l’ESSEC et de Centrale sur la gouvernance des données. Jean-Pierre Mignard, docteur en droit sur la cybercriminalité, est avocat, membre du Comité consultatif national d’éthique, et maître de conférences à l’École de journalisme et en Droit pénal des affaires à Sciences-Po Paris.

Extrait :

Le contentieux de données représente à n’en pas douter le contentieux du futur. Aujourd’hui peu maîtrisé, il deviendra notre quotidien de demain. La cybercriminalité va se démocratiser. Il est primordial de définir une politique pénale cohérente au sein de l’Union européenne dans la mesure où la cybercriminalité dépasse souvent et facilement les frontières, l’infraction étant commise à distance.

Juger les individus selon les statistiques collectives.

Que se passera-t-il, en effet, lorsque les données désigneront des criminels avant mêmes qu’ils n’aient commis leurs crimes ? Que restera-t-il de la présomption d’innocence pour celui qui présente les caractéristiques d’un multirécidiviste ? Il est certain qu’à l’heure où l’on écrit ces lignes, des laboratoires de recherche, des services de sécurité privés ou étatiques, réfléchissent aux vastes possibilités d’identification d’auteurs potentiels de crimes, grâce à l’exploitation de données massives. Il s’agirait alors de glisser insensiblement du commencement d’exécution à l’acte préparatoire, puis de l’acte préparatoire à la potentialité de commettre un crime. Indéniablement, cette piste ne peut être envisagée qu’avec intérêt par les organismes publics ou privés en charge de la sécurité, que ce soit pour des raisons de sécurité publique ou d’intérêt commercial. La plus neuve des technologies, par un extraordinaire raccourci, rejoindrait alors la plus vieille des criminologies. Les systèmes numériques prédictifs permettraient d’identifier le criminel en puissance. Tout comme, les caractéristiques morphologiques devaient permettre d’identifier le criminel-né, selon le père de la criminologie italienne, Cesare Lombroso.

Hitachi : une IA capable de prédire les crimes avant qu’ils se produisent
Des projets Chinois à la Minority Report utiliseront l’IA pour prédire des crimes