Archives de catégorie : Intelligence artificielle

Un brevet pour créer des chatbots à partir de vos proches décédés

N’ayant apparemment rien appris de Black Mirror, Microsoft a déposé un brevet “Creating a Conversational Chatbot of a Specific Person,” pour ramener des êtres chers décédés sous forme de chatbots à partir de leurs données numériques afin que vous puissiez avoir une conversation de type messagerie instantanée avec eux depuis l’au-delà.

Le brevet mentionne également l’utilisation de modèles 2D ou 3D de personnes spécifiques générés par des photos ou des données vidéos.

“La personne spécifique peut correspondre à une entité passée ou présente (ou une version de celle-ci), telle qu’un ami, un parent, une connaissance, une célébrité, un personnage fictif, un personnage historique, une entité aléatoire, ou vous-même – ce qui implique que les personnes vivantes pourraient constituer un “remplaçant numérique” en cas de décès.

Les normes sociales changent, mais cela semble difficile à vendre.

https://twitter.com/disclosetv/status/1352608657230483457

Il y a très peu de chances que les ingénieurs de Microsoft développent un jour ce système. Tim O’Brien, directeur général des programmes d’IA chez Microsoft, a tweeté qu’il n’avait pas connaissance de projets visant à donner vie à ces algorithmes.

L’idée que vous puissiez, à l’avenir, parler à une simulation représentant une personne décédée n’est pas nouvelle. Plusieurs startups préparent le terrain pour ce futur, en compilant des données sur les personnes vivantes et décédées afin de pouvoir créer des avatars numériques de ces personnes. Le voyage vers l’immortalité numérique ne fait que commencer.

Input, The Independent

Tous surveillés – 7 milliards de suspects

Faut-il, pour stopper une pandémie ou éviter un attentat, accepter de renoncer à nos libertés individuelles ? A l’heure où de plus en plus d’États ont recours aux technologies de surveillance pour endiguer la propagation du coronavirus, cette enquête dresse un panorama mondial de l’obsession sécuritaire. Des caméras à reconnaissance faciale niçoises à la répression chinoise des Ouïghours, ce film dévoile la relation incestueuse entre les industriels de la sécurité et les grandes puissances, avec un constat glaçant : le totalitarisme numérique est pour demain.

Aujourd’hui, plus de 500 millions de caméras sur la planète offrent aux autorités la capacité de nous surveiller, à peu près partout et à chaque instant. Sous couvert de lutte contre le terrorisme ou la criminalité, les grandes puissances se sont lancées dans une dangereuse course aux technologies de surveillance. Dorénavant, l’incroyable perfectionnement de l’intelligence artificielle valide l’idée d’un regard total. Aux États-Unis, les forces de police utilisent la reconnaissance faciale pour identifier les suspects. En Chine, les caméras peuvent repérer les criminels de dos, à leur simple démarche. En France, la police utilise des caméras intelligentes qui analysent les émotions et les comportements des passants. Marquée par l’attentat au camion du 14 juillet 2016, qui a fait 86 morts, et s’est produit en dépit des 2 000 caméras scrutant la ville, Nice se situe désormais à l’avant-garde de l’expérimentation. Le centre de supervision et les zones dédiées à la reconnaissance faciale sont les chevaux de bataille du maire Christian Estrosi, qui veut faire de sa ville une safe city. Comme un virus, l’idéologie du tout sécuritaire se répand à la mesure d’une révolution numérique à la puissance exponentielle. Va-t-elle transformer notre monde en une planète habitée par 7 milliards de suspects ? Quel niveau de surveillance nos libertés individuelles peuvent-elles endurer ?

Dictature 3.0

On le surnomme le “marché de la peur”, estimé à 40 milliards de dollars par an. Colossaux, les enjeux de la surveillance intelligente aiguisent les appétits de sociétés prêtes à promouvoir le “modèle Big Brother” pour engranger les plus grands bénéfices. L’enquête internationale de Sylvain Louvet démonte les rouages de cette machine aux innombrables facettes et dévoile la relation incestueuse qui se noue entre les industriels et les pouvoirs publics. En Israël, elle souligne les liens entre l’armée, le Mossad et les start-up technologiques, soupçonnées de tester la reconnaissance faciale aux checkpoints. En France, elle met en lumière l’influence du secteur privé, dans les orientations choisies par le maire de Nice, Christian Estrosi. Aux États-Unis, l’enquête donne la parole à ceux qui dénoncent la faillibilité du logiciel de reconnaissance faciale d’Amazon couplé à un fichage biométrique généralisé. Le documentariste a également réussi à enquêter en Chine, pays où l’obsession sécuritaire est en passe de donner naissance à une nouvelle forme de régime : la dictature 3.0. Arrestations “préventives” arbitraires, mise en place d’un système de notation des citoyens, fichage ADN et persécution systématisée (allant jusqu’à l’apposition d’un QR code sur la porte des appartements) de la minorité musulmane des Ouïghours… L’arsenal de la répression connaît un degré de raffinement inédit dans l’histoire de l’humanité. Un camp du Goulag numérique : telle est la vision du futur dessinée par ce documentaire aussi percutant que glaçant.

Le prix Albert Londres 2020 de l’audiovisuel a été décerné à Sylvain Louvet pour le documentaire diffusé le 21 avril 2020 sur Arte. Cette prestigieuse distinction vient saluer une longue enquête internationale qui trouve une résonance particulière dans le contexte actuel .

La Chine prétend avoir atteint la suprématie quantique

Une équipe de chercheurs de l’Université des sciences et des technologies de Chine vient de revendiquer la suprématie quantique, rapporte Wired.

Google a été le premier à revendiquer la suprématie quantique en octobre 2019 avec son ordinateur quantique Sycamore qui a effectué un calcul lié à la génération de nombres aléatoires en seulement 200 secondes – une tâche qui aurait pris 10 000 ans au plus puissant superordinateur du monde, selon le géant de la technologie.

Selon l’article publié dans la revue Science, l’équipe chinoise affirme que son système, appelé Jiuzhang, a réalisé en trois minutes un calcule qui aurait pris deux milliards d’années à un puissant superordinateur.

L’équipe chinoise était dirigée par Jian-Wei Pan, dont l’importante équipe de recherche a bénéficié d’un plan du gouvernement chinois visant à renforcer sa position dans le domaine de la technologie quantique. Leurs réalisations comprennent la démonstration de l’utilisation du cryptage quantique sur des distances record, notamment l’utilisation d’un satellite spécialement conçu pour les communications quantiques afin de sécuriser un appel vidéo entre la Chine et l’Autriche. Le cryptage fondé sur la mécanique quantique est théoriquement inviolable, bien qu’en pratique on puisse encore le subvertir.

A photo of the Jiuzhang light-based quantum computer prototype Photo: courtesy of University of Science and Technology of China

Il existe des différences frappantes entre les deux systèmes quantiques.

Le processeur Sycamore de Google utilise des circuits quantiques qui comprennent des métaux supraconducteurs qui doivent être cryogénisés à des températures extrêmement basses.

Tandis que le processeur de l’équipe chinoise manipule des photons, des particules de lumière qui ne nécessite pas de surrefroidissement. Cela introduit des limites : le prototype photonique n’est pas facilement reprogrammable pour effectuer des calculs différents. Ses paramètres ont en effet été codés en dur dans ses circuits optiques. Ce qui signifie que le système a été conçu dès le départ pour effectuer ce calcul particulier.

L’informatique quantique n’en est qu’à ses débuts. Les ingénieurs n’ont pas encore trouvé d’utilisation pratique et utile. Et les ordinateurs quantiques sont aussi très instables et fragiles.

Mais le fait de se lancer dans des calcules qui dépassent les capacités des ordinateurs conventionnels et avec des architectures radicalement différentes est prometteur.

Intelligence artificielle : quelles conséquences pour la protection de nos données ?

L’intelligence artificielle est au cœur de nombreux débats en ce qui concerne la confidentialité en ligne, la sécurité et la protection des données des utilisateurs. Avec ses capacités d’analyse décuplées, l’IA est souvent vue comme un outil de protection à fort potentiel. Mais, à l’image des technologies de dématérialisation comme celle du cloud gaming, l’IA est un outil à double tranchant.

La rapidité de calcul et d’analyse de centaines de milliers de données en quelques instants ferait ainsi de l’intelligence artificielle une alliée puissante lorsqu’elle est utilisée à bon escient, selon certains experts. Elle pourrait par exemple permettre de découvrir très rapidement de potentielles failles dans les systèmes informatiques des grandes entreprises, ce qui protégerait les utilisateurs finaux de manière plus efficace contre les pirates informatiques ou les personnes malveillantes.

Certaines entreprises de cybersécurité se spécialisent d’ailleurs dans la protection assistée par l’IA. Mais cela est loin d’être un tableau idyllique, car le potentiel de l’IA vient avec un coût pour la protection des données des utilisateurs. La rapidité et l’efficacité de l’intelligence artificielle lui viennent ainsi en partie de l’incroyable masse de données de laquelle elle a appris.

Cela se fait d’ailleurs souvent aux dépens de la confidentialité. Car pour que ces produits, dont la promesse et le bénéfice sont basés sur l’intelligence artificielle, soient efficaces, il est nécessaire de rassembler et d’analyser les actions de millions de personnes ou même leurs profils personnels.

Même si ces données sont anonymisées, elles permettent parfois de retrouver des informations bien trop personnelles. Plusieurs enquêtes d’investigation par des journalistes du monde entier ont ainsi souligné le danger des services de localisation utilisés par certaines applications, en montrant qu’il était possible de suivre les allers et venues de tout un chacun et d’ainsi de deviner leur identité.

Dans le contexte de la pandémie de COVID, ces questions se sont faites encore plus pressantes. L’utilisation de l’IA permet ainsi déjà de générer des statistiques sur le nombre de personnes qui portent un masque dans les espaces publics à Paris ou à Cannes.

Harold Li, expert en cybersécurité et Vice-Président d’ExpressVPN, avertit ainsi les utilisateurs : “À l’ère du numérique, la protection de la vie privée dépend de notre capacité à contrôler la manière dont nos données sont collectées, stockées, modifiées et supprimées. Tant que nous pouvons le faire de manière responsable, il est possible de respecter la vie privée tout en bénéficiant des progrès technologiques. Mais pour l’instant, lorsque que des données sont utilisées par une intelligence artificielle ou pour le machine learning, il n’existe toujours pas de moyen de récupérer ces données ou de revendiquer leur influence sur le produit final qu’elles ont servi à produire. Il n’est pas non plus évident de savoir si nous pouvons apprendre à une machine à “oublier” quelque chose après qu’elle l’ait “appris””.

En plus de ces problèmes liés à la confidentialité, il est aussi important de garder à l’esprit que les pirates informatiques sont souvent très réactifs quand il s’agit de s’approprier une technologie, quel que soit son niveau de complexité. Il est ainsi possible que l’avenir des cyberattaques réside lui aussi dans les IA. Protéger ses données et sa confidentialité devient donc de plus en plus important. Il est néanmoins possible de maintenir sa confidentialité grâce à quelques solutions simples et peu coûteuses, comme l’installation d’un réseau privé virtuel premium en profitant d’une promo VPN. Un contrôle régulier des permissions de ses applications mobiles permet également de mieux comprendre quels acteurs s’intéressent à quelles données, et ainsi de mieux en contrôler le partage. Un partage qui devrait d’ailleurs toujours aller dans le sens de l’utilisateur.

Julie Khoum
Après environ 10 années dans le digital et la French Tech à Paris, je suis devenue rédactrice et journaliste. Je suis passionnée de sport et par les sujets liés à l’avenir du travail, le digital nomadisme et le développement personnel. Convaincue que nous sommes à une grande ère comportant de multiples changements, j’œuvre pour que ces derniers soient documentés.

iHuman – L’intelligence artificielle et nous

L’intelligence artificielle va-t-elle remplacer l’humanité ?

Credit : https://upnorthfilm.no/film/ihuman/

Ce documentaire prend la mesure de l’emprise des algorithmes sur nos vies.

“La création d’une intelligence artificielle serait le plus grand événement de l’histoire de l’humanité. Mais il pourrait être aussi le dernier”, disait Stephen Hawking. Le célèbre cosmologiste avait prévu la croissance infinie de l’informatique mais partageait avec certains pionniers la crainte qu’elle ne devienne incontrôlable. Aujourd’hui, l’IA promet d’aider à guérir des maladies, de faire face aux changements climatiques ou de combattre la pauvreté. Mais elle menace aussi d’influer insidieusement sur nos comportements, de mettre à mal l’idée même de sphère privée ou d’aider les dictatures à asseoir leur pouvoir. En proie à une surveillance algorithmique, notre identité peut dorénavant se réduire… à des données.

Toute-puissance

L’IA sera vite dépassée. On parle aujourd’hui d’une intelligence artificielle générale (IAG), capable de s’adapter et d’apprendre seule, qui égalerait, voire dépasserait les capacités humaines. De quoi allécher les firmes qui font commerce des données numériques (les célèbres GAFAM). Le documentaire dresse l’état des lieux de l’IA en donnant la parole à ceux qui en débattent (sociologues, avocats des droits de l’homme, scientifiques ou journalistes d’investigation) mais aussi à ceux qui l’inventent, comme Jürgen Schmidhuber et Ilya Sutskever, deux grands chercheurs et initiateurs, à la posture ambivalente : conscients de la toute-puissance de leur création mais déterminés à poursuivre leurs travaux.


Source

People Analytics : La longue histoire de l’analyse des personnes

La Silicon Valley croit depuis longtemps qu’elle peut optimiser la société, comme le soutient Jill Lepore dans son nouveau livre If Then.

Si vous travaillez pour Bank of America ou l’armée américaine, vous avez peut-être utilisé une technologie développée par Humanyze. Cette société est issue des recherches menées au Media Lab du MIT et décrit ses produits comme “des analyses fondées sur la science pour favoriser l’adaptabilité”.

Si cela semble vague, c’est peut-être délibéré. Humanyze vend notamment aux entreprises des dispositifs permettant d’espionner les employés, tels que des badges d’identification avec des étiquettes RFID intégrées, des capteurs de communication en champ proche (NFC, Near Field Communication) et des microphones intégrés qui permettent de suivre dans les moindres détails le ton et le volume (mais pas les mots) des conversations des personnes tout au long de la journée. Humanyze a déposé son score de santé organisationnelle, qu’elle calcule sur la base des données des employés collectées par les badges et qu’elle promet être “une formule éprouvée pour accélérer le changement et favoriser l’amélioration”.

Ou alors vous travaillez pour l’une des entreprises du secteur de la santé, du commerce de détail ou des services financiers qui utilisent le logiciel développé par Receptiviti. La mission de cette entreprise basée à Toronto est d’aider les machines à comprendre les gens en scannant les courriels et les messages Slack à la recherche d’indices linguistiques de mécontentement. “Nous nous inquiétons de la perception de Big Brother”, a récemment déclaré Kreindler, le PDG de Receptiviti au Wall Street Journal. Il préfère qualifier la surveillance des employés de corporate mindfulness. (Orwell aurait également eu quelque chose à dire sur cet euphémisme).

De tels efforts dans ce que ses créateurs appellent “people analytics” sont généralement justifiés par l’amélioration de l’efficacité ou de l’expérience du client. Ces derniers mois, certains gouvernements et experts de la santé publique ont préconisé le suivi et la traçabilité des applications comme moyen d’arrêter la propagation de la covid-19.

Mais en adoptant ces technologies, les entreprises et les gouvernements évitent souvent de répondre à des questions cruciales : Qui devrait savoir quoi à votre sujet ? Ce qu’ils savent est-il exact ? Que devraient-ils être en mesure de faire avec ces informations ? Et, est-il jamais possible de concevoir une “formule éprouvée” pour évaluer le comportement humain ?

De telles questions ont une histoire, mais les technologues d’aujourd’hui ne semblent pas la connaître. Ils préfèrent se concentrer sur les nouvelles et ingénieuses façons dont leurs inventions peuvent améliorer l’expérience humaine (ou les résultats de l’entreprise) plutôt que sur les façons dont les gens ont essayé et échoué à faire de même dans les époques précédentes. Chaque nouvel algorithme ou application est, selon eux, une réprimande implicite du passé.

Mais ce passé peut offrir une orientation et une humilité bien nécessaires. Malgré des ordinateurs plus rapides et des algorithmes plus sophistiqués, l’analyse des personnes d’aujourd’hui est alimentée par une vieille conception réductrice : l’idée que la nature humaine dans toute sa complexité peut être réduite à une formule. Nous en savons assez sur le comportement humain pour exploiter les faiblesses des uns et des autres, mais pas assez pour le modifier de manière significative.

If Then, un nouveau livre de Jill Lepore, historienne à l’université de Harvard et rédactrice au New Yorker, raconte l’histoire d’une entreprise technologique oubliée du milieu du XXe siècle, la Simulmatics Corporation. Fondée par un groupe hétéroclite de scientifiques et de publicitaires en 1959, elle était, selon Jill Lepore, “la Cambridge Analytica de l’Amérique de la guerre froide”.

Une description plus précise pourrait être que c’était un effort des démocrates pour concurrencer l’adoption des techniques de publicité par le parti républicain. Au milieu du siècle, les républicains vendaient les hommes politiques au public comme s’il s’agissait de papier toilette ou de café. Simulmatics, qui s’était installé à New York (et qui a dû recourir aux ordinateurs d’IBM pour effectuer ses calculs), promettait de prédire le résultat des élections presque en temps réel – une pratique désormais si courante qu’elle est banale, mais considérée alors comme révolutionnaire, voire impossible.

Le nom de la société, qui signifie “simulation” et “automatique”, était à la mesure de l’ambition de ses créateurs : “automatiser la simulation du comportement humain”. Son principal outil était la People Machine, que Lepore décrit comme “un programme informatique conçu pour prédire et manipuler le comportement humain, toutes sortes de comportements humains, de l’achat d’un lave-vaisselle à la lutte contre une insurrection en passant par le vote”. Il fonctionnait en développant des catégories de personnes (comme une mère blanche de la classe ouvrière catholique ou républicaine de banlieue) et en simulant leur prise de décision probable. (La publicité ciblée et les campagnes politiques utilisent aujourd’hui des techniques largement similaires).

Les principaux acteurs de l’entreprise sont issus de différents milieux. Le publicitaire Ed Greenfield a été l’un des premiers à entrevoir comment la nouvelle technologie de la télévision allait révolutionner la politique et a acquis la conviction que les premiers ordinateurs exerceraient une force tout aussi perturbatrice sur la démocratie. Ithiel de Sola Pool, un ambitieux chercheur en sciences sociales désireux de travailler avec le gouvernement pour découvrir les secrets du comportement humain, est finalement devenu l’un des premiers théoriciens visionnaires des réseaux sociaux.

Plus que tout autre homme de Simulmatics, Pool incarnait à la fois la ferveur idéaliste et l’insouciance à l’égard de la violation des normes qui caractérisent les innovateurs technologiques d’aujourd’hui. Fils de parents radicaux qui ont eux-mêmes touché au socialisme dans leur jeunesse, il a passé le reste de sa vie à prouver qu’il était un patriote engagé dans la guerre froide, et il a un jour décrit son travail à Simulmatics comme “une sorte de pari du Manhattan Project en politique”.

Pour aider à l’élection de J.F.K., Simulmatics a conçu des modèles informatiques du comportement des électeurs. Photographie de Stan Wayman / Getty

L’un des premiers gros clients de la société a été la campagne présidentielle de John F. Kennedy en 1960. Lorsque Kennedy a gagné, la société a revendiqué le mérite. Mais elle a également dû faire face à la crainte que la machine qu’elle avait construite puisse être utilisée à des fins malveillantes. Comme l’a dit un scientifique dans un exposé de la société, publié par le magazine Harper’s peu après l’élection, “On ne peut pas simuler les conséquences de la simulation“. Le public craignait que des entreprises comme Simulmatics puissent avoir une influence corrompue sur le processus démocratique. Cela, rappelons-le, s’est passé près d’un demi-siècle avant même la création de Facebook.

Une branche du gouvernement, cependant, s’est montrée enthousiaste quant aux capacités prédictives de la société : le Département de la Défense. Comme le rappelle Lepore, les partenariats étroits entre les technologues et le Pentagone étaient considérés comme des efforts nécessaires et patriotiques pour endiguer la vague communiste pendant la guerre froide.

En 1966, Pool avait accepté un contrat pour superviser un projet de sciences du comportement à grande échelle pour le Département de la Défense à Saïgon. “Le Vietnam est le plus grand laboratoire de sciences sociales que nous ayons jamais eu ! S’enthousiasme-t-il. Comme le secrétaire à la Défense Robert McNamara, Pool pensait que la guerre serait gagnée dans “le cœur et l’esprit” des Vietnamiens, et qu’elle nécessitait la modélisation et la simulation des sciences du comportement pour être gagnée. Comme l’écrit Lepore, Pool soutenait que si les hommes d’État avaient par le passé consulté la philosophie, la littérature et l’histoire, les hommes d’État de la guerre froide étaient obligés de consulter les sciences du comportement.

Leurs efforts de contre-insurrection assistée par ordinateur ont été un échec désastreux, en grande partie parce que les données de Simulmatics sur les Vietnamiens étaient partielles et que ses simulations reposaient davantage sur des vœux pieux que sur les réalités du terrain. Mais cela n’a pas empêché le gouvernement fédéral de revenir vers Pool et Simulmatics pour l’aider à comprendre – et à prévoir – les troubles civils au Vietnam.

La Commission Kerner, instituée par le président Lyndon Johnson en 1967 pour étudier les émeutes raciales qui avaient éclaté dans tout le pays, a payé la division des études urbaines de Simulmatics pour qu’elle conçoive une formule prédictive des émeutes afin d’alerter les autorités avant que celles-ci ne dégénèrent en désordre. Comme les prédictions pour le Vietnam, celles-ci se sont avérées douteuses. Dans les années 1970, Simulmatics avait fait faillite et “la simulation informatique automatisée du comportement humain était tombée en discrédit”, selon Lepore.

“La collecte et l’utilisation à des fins lucratives de données sur le comportement humain, non réglementées par un quelconque organisme gouvernemental, a fait des ravages dans les sociétés humaines”.

La simulation “se cache derrière l’écran de chaque appareil” que nous utilisons, affirme Lepore, et elle prétend que ses créateurs, les “grands-pères à la moustache blanche et à la mort longue de Mark Zuckerberg et Sergey Brin et Jeff Bezos et Peter Thiel et Marc Andreessen et Elon Musk”, sont un “chaînon manquant” dans l’histoire de la technologie. Mais il s’agit là d’un dépassement. Le rêve de trier, de catégoriser et d’analyser les gens a été une constante tout au long de l’histoire. L’effort de Simulmatics n’était qu’un effort parmi d’autres, et n’était guère révolutionnaire.

Les projets du XIXe siècle visant à classer les criminels par catégories, ou les campagnes du début du XXe siècle visant à prédire le comportement en fonction de catégories pseudo-scientifiques de race et d’ethnicité au plus fort du mouvement eugéniste, ont été beaucoup plus importants (et nuisibles) sur le plan historique. Tous ces projets ont également été couronnés de succès grâce à la collecte et à la systématisation de données et à des partenariats avec les autorités locales et nationales, mais ils ont également suscité l’enthousiasme d’une grande partie du public, ce que Simulmatics n’a jamais réalisé.

Ce qui est vrai, c’est que la combinaison d’idéalisme et d’orgueil de Simulmatics ressemble à celle de nombreuses entreprises contemporaines de la Silicon Valley. Comme elles, elle se considère comme le fer de lance d’un nouveau siècle des Lumières, dirigé par les personnes les plus aptes à résoudre les problèmes de la société, même si elles ne saisissent pas la complexité et la diversité de cette société. “Il serait plus facile, plus réconfortant, moins dérangeant, si les scientifiques de Simulmatics étaient les méchants”, écrit Lepore. “Mais ils ne l’étaient pas. C’étaient des libéraux blancs du milieu du siècle dernier, à une époque où l’on n’attendait pas des libéraux blancs qu’ils comprennent les gens qui n’étaient pas blancs ou libéraux”. Alors que Simulmatics Corporation croyait que la même formule pouvait comprendre des populations aussi distinctes que les électeurs américains et les villageois vietnamiens, les technologies prédictives actuelles font souvent des promesses tout aussi grandioses. Alimentées par une collecte et une analyse de données bien plus sophistiquées, elles ne parviennent toujours pas à rendre compte de toute la gamme et de la richesse de la complexité et des variations humaines.

Ainsi, bien que Simulmatics est inventé le futur, ses tentatives de catégorisation et de prévision du comportement humain ont soulevé des questions sur l’éthique des données qui sont toujours d’actualité. Lepore décrit les audiences du Congrès sur la confidentialité des données en 1966, lorsqu’un scientifique du RAND a exposé au Congrès les questions qu’il devrait poser : Que sont les données ? À qui appartiennent les données ? Quelle est l’obligation du collecteur, du détenteur ou de l’analyste des données à l’égard du sujet des données ? Les données peuvent-elles être partagées ? Peuvent-elles être vendues ?

Lepore déplore qu’une époque antérieure n’ait pas su aborder de front ces questions. “Si, alors, dans les années 1960, les choses s’étaient passées différemment, cet avenir aurait pu être sauvé”, écrit-elle, ajoutant que “beaucoup de gens croyaient à l’époque qu’une people machine était entièrement et totalement amorale”. Mais il est aussi étrangement rassurant d’apprendre que même lorsque nos technologies étaient à leur stade rudimentaire, les gens réfléchissaient aux conséquences probables de leur utilisation.

Comme l’écrit Lepore, la simulation a été entravée par les limites technologiques des années 1960 : “Les données étaient rares. Les modèles étaient faibles. Les ordinateurs étaient lents. La machine tombait en panne, et les hommes qui la construisaient ne pouvaient pas la réparer.” Mais bien que les machines d’aujourd’hui soient “plus élégantes, plus rapides et apparemment inarrêtables”, elles ne sont pas fondamentalement différentes de celles de Simulmatics. Toutes sont basées sur la croyance que les lois mathématiques de la nature humaine sont réelles, de la même manière que les lois de la physique sont – une fausse croyance, note Lepore.

L’étude du comportement humain n’est pas la même chose que l’étude de la propagation des virus et de la densité des clouds et du mouvement des étoiles. Le comportement humain ne suit pas des lois comme la loi de la gravité, et croire qu’il le fait, c’est prêter serment à une nouvelle religion. La prédestination peut être un évangile dangereux. La collecte et l’utilisation à des fins lucratives de données sur le comportement humain, non réglementées par un quelconque organisme gouvernemental, a fait des ravages dans les sociétés humaines, en particulier dans les domaines dans lesquels Simulmatics s’est engagé : politique, publicité, journalisme, contre-insurrection et relations raciales.

La société Simulmatics a échoué parce qu’elle était en avance sur son temps, ses homologues modernes sont plus puissants et plus rentables. Mais se souvenir de son histoire peut aider à clarifier les déficiences d’une société construite sur des croyances réductrices concernant le pouvoir des données.

Les fondements, avantages et la possible menace existentielle de l’IA

Au cours des derniers siècles, la condition humaine a été profondément modifiée par les révolutions agricole et industrielle. Avec la création et le développement continu de l’intelligence artificielle, nous sommes en plein essor d’une révolution de l’intelligence qui pourrait s’avérer bien plus transformatrice que les deux précédentes. Comment en sommes-nous arrivés là, et quels étaient les fondements intellectuels nécessaires à la création de l’intelligence artificielle ? Quels avantages pouvons-nous tirer de l’alignement des systèmes d’intelligence artificielle, et quels sont les risques et les pièges potentiels ? À plus long terme, les systèmes d’IA superintelligents présenteront-ils un risque existentiel pour l’humanité ? Steven Pinker, auteur à succès et professeur de psychologie à Harvard, et Stuart Russell, professeur d’informatique à l’Université de Berkeley, répondent à ces questions.

Steven Pinker and Stuart Russell on the Foundations, Benefits, and Possible Existential Threat of AI by Future of Life Institute

Port du masque : La France utilise l’IA dans les transports publics

La France intègre de nouveaux outils d’IA dans les caméras de sécurité du métro parisien pour vérifier si les passagers portent des masques faciaux.

Le logiciel, qui a déjà été déployé ailleurs dans le pays, a commencé cette semaine un test de trois mois dans la station de Chatelet-Les Halles de Paris, rapporte Bloomberg. La start-up française DatakaLab, qui a créé le programme, affirme que l’objectif n’est pas d’identifier ou de punir les personnes qui ne portent pas de masque, mais de générer des données statistiques anonymes qui aideront les autorités à anticiper les futures épidémies de COVID-19.

“Nous ne faisons que mesurer ce seul objectif”, a déclaré Xavier Fischer, PDG de DatakaLab, à The Verge. “L’objectif est simplement de publier des statistiques sur le nombre de personnes qui portent un masque chaque jour”.

DatakaLab, insiste sur le fait que son logiciel respecte la vie privée et est conforme au RGPD.

Voici une avalanche d’applications coronavirus qui traquent vos mouvements

Alors que la pandémie de covid-19 fait rage, les technologues du monde entier se sont empressés de créer des applications, des services et des systèmes pour tracer les contacts : identifier et notifier tous ceux qui entrent en contact avec un porteur. Certaines sont légères et temporaires, tandis que d’autres sont envahissantes et invasives. Certains services sont produits localement par de petits groupes de codeurs, tandis que d’autres sont de vastes opérations mondiales.

Malgré l’avalanche de services, nous en savons très peu sur eux ou sur la manière dont ils pourraient affecter la société. Quelle est l’ampleur de leur utilisation pour réussir ? Quelles données vont-elles être collectées et avec qui sont-elles partagées ? Comment ces informations seront-elles utilisées dans le futur ? Des mesures ont-elles été mises en place pour prévenir les abus ? Il n’y a pas toujours des réponses claires. Les citoyens de différents pays observent des niveaux de surveillance et de transparence radicalement différents.

Pour aider à surveiller cette situation qui évolue rapidement, une équipe du MIT a lancé le Covid Tracing Tracker – une base de données permettant de recueillir les détails de toutes les applications. A ce jour, 23 sont documentées. La base sera mise à jour au fur et à mesure.

La plupart des applications de traçage automatique des contacts n’utilisent pas l’IA. Elles s’appuient plutôt sur le Bluetooth, un signal sans fil de faible puissance qui peut mesurer (dans une certaine mesure) si deux propriétaires de téléphone ont été en contact.

Mais l’IA est fortement liée à des discussions sur le traçage des contacts, de deux manières importantes. D’une part, l’IA pourrait potentiellement aider ces applications à mieux protéger la vie privée des gens. D’autre part, elle pourrait également exposer davantage la vie privée, si elle était utilisée pour analyser les données collectées et extrapoler des informations personnelles comme le sexe ou le statut socio-économique qu’ils n’avaient pas l’intention de partager.