Google a accès à des millions de données personnelles sur la santé des Américains

Google a signé un accord avec Ascension, le deuxième plus grand système hospitalier des États-Unis, pour collecter et analyser des millions de données personnelles sur la santé des Américains, selon le Wall Street Journal. Ascension opère dans 150 hôpitaux dans 21 états.

A terme, les données de tous les patients (dates de naissance, résultats de laboratoire, diagnostics et dossiers d’hospitalisation par exemple) pourraient être téléchargées dans les systèmes informatiques cloud de Google, afin d’utiliser l’intelligence artificielle pour scanner des dossiers électroniques ou diagnostiquer ou identifier des problèmes médicaux. Le projet, baptisé “Projet Nightingale”, a débuté en secret l’année dernière, rapporte le WSJ. Ni les patients ni les médecins n’ont été informés.

Un sujet délicat

Inévitablement, il y a des inquiétudes. L’entreprise a pris le contrôle de la division de la santé de son unité d’IA, DeepMind, en novembre 2018, et les gens de l’époque ont averti qu’elle pourrait ouvrir la voie à Google pour accéder aux données privées et identifiables sur la santé des gens. Les employés d’Ascension ont soulevé des préoccupations sur la façon dont les données seront recueillies et partagées, tant sur le plan technologique qu’éthique, selon les rapports du WSJ.

https://iatranshumanisme.com/transhumanisme/les-plus-grandes-acquisitions-de-google/

Un domaine compétitif

Amazon, Uber et Apple se présentent tous comme des acteurs du monde lucratif de la santé. Cependant, Ascension est le plus gros client du cloud computing de Google dans le domaine de la santé jusqu’à présent et cet accord les placera en tête du peloton.

Google Cloud, Ascension, BBC, Financial Times

Les futures armes biologiques pourraient tuer des personnes ayant un ADN spécifique

Dans le futur, nous devrons peut-être faire face à des armes biologiques qui ciblent des groupes spécifiques de personnes.

C’est ce qu’indique un nouveau rapport du Centre for the Study of Existential Risk de l’Université de Cambridge publié par The Telegraph. Les chercheurs de Cambridge affirment que les gouvernements du monde n’ont pas réussi à préparer des armes futuristes basées sur des technologies avancées comme l’intelligence artificielle et la manipulation génétique – ou même un pathogène tueur conçu pour tuer uniquement des personnes d’une race particulière.

Le rapport appelle spécifiquement à la création de groupes indépendants pour évaluer les risques de diverses technologies futures et de faire le tri parmi les protocoles déjà en place pour protéger les personnes, selon The Telegraph.

“La technologie devient de plus en plus sophistiquée à des prix de plus en plus bas, démocratisant la capacité de nuire plus rapidement et de façon plus meurtrière”, écrivent les auteurs du rapport. “Dans un cas particulièrement grave, une arme biologique pourrait être construite pour cibler un groupe ethnique spécifique en fonction de son profil génomique.”

Le rapport avertit également que l’intelligence artificielle pourrait devenir “extrêmement dommageable et potentiellement irréversible”. Des entreprises comme Google DeepMind ont mis au point des programmes d’intelligence artificielle qui montrent déjà des signes d’intuition humaine.

En fin de compte, concluent les chercheurs, nous ne pouvons pas nous permettre d’attendre que ces armes deviennent réalité, nous devons faire quelque chose pour y remédier.

The Telegraph, University of Cambridge

Pour en savoir plus sur les armes biologiques : National Academies of Sciences, Engineering, and Medicine. 2018. Biodefense in the Age of Synthetic Biology. Washington, DC: The National Academies Press. https://doi.org/10.17226/24890.

DeepMind et Google : la bataille pour contrôler l’IA

Il y a une lutte de pouvoir à l’intérieur de Google pour contrôler l’intelligence artificielle suprahumaine

Si DeepMind construit une IA suprahumaine, qui la contrôlera ?

DeepMind, la start-up d’intelligence artificielle achetée par Google en 2014, a pour mission de créer le premier système d’intelligence artificielle générale (AGI) au monde – le genre d’intelligence artificielle suprahumaine et globale que nous voyons dans la science-fiction.

Pour s’assurer que l’AGI est utilisée de manière responsable, Demis Hassabis, fondateur de DeepMind, a protégé l’indépendance de son entreprise vis-à-vis de Google et de sa société mère Alphabet en mettant en place des garde-fous internes, selon une nouvelle histoire de The Economist, 1843 Magazine – dont un comité d’éthique contrôlé par Hassabis et son équipe d’origine, plutôt que Google.

Bien que Google se soit longtemps imposé comme un leader en matière d’éthique dans le monde de l’intelligence artificielle, le rapport de 1843 détaille une histoire de prises de pouvoir et de gestion douteuse.

Par exemple, DeepMind a lancé en 2016 une nouvelle division de soins de santé qui utiliserait la technologie d’IA pour rationaliser les opérations hospitalières et surveiller les fonctions vitales des patients.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Deux ans plus tard, quelques mois seulement après que DeepMind Health ait conclu des contrats avec des hôpitaux partenaires, Google a annoncé Google Health et y a intégré le programme de DeepMind, donnant peu de préavis à DeepMind ou aux hôpitaux. Des sources proches du dossier, qui avaient obtenu l’anonymat de 1843 Magazine pour avoir signé des accords de non-divulgation, ont expliqué que cette décision avait suscité ressentiment et colère au sein de l’équipe de DeepMind.

Certaines de ces sources anonymes ont également partagé des doutes avec 1843 Magazine sur le fait que DeepMind pourrait déchiffrer le code de l’intelligence artificielle générale, soulignant des faiblesses peu connues et des mises en garde concernant les succès très médiatisés de l’entreprise en matière d’IA.

Les algorithmes développés par DeepMind peuvent faire des choses fascinantes, comme démolir certains jeux vidéo et conserver les connaissances mieux que d’autres systèmes, mais il n’y a pas de feuille de route claire vers la technologie fondamentalement nouvelle nécessaire pour développer l’AGI.

Mais si Hassabis le découvre, les garde-fous et les comités d’éthique qu’il a mis en place lors de l’achat de son entreprise pourraient signifier que la technologie restera entre ses mains et celles de son équipe au lieu de devenir une simple technologie Google.

The Economist 1843

Tour du monde 2018 de l’IA

Introduction

L’intelligence artificielle (IA) s’inscrit dans la continuité de l’informatique, dont la puissance de calcul ne cesse de croître. L’explosion des Big data, c’est-à-dire de grandes masses de données que nous déposons dans nos navigations Internet, sur nos téléphones et sur nos ordinateurs, permettent aux IA de progresser et de se perfectionner. À travers des calculs algorithmiques, l’IA englobe des tâches telles que l’apprentissage, l’analyse, le raisonnement, la planification, la perception, la compréhension du langage, la robotique et bien plus encore. Petit tour d’horizon des éléments que nous n’avons pas traités sur l’année 2018.

L’IA dans la santé

  • Dubai a créé le premier ministère de l’IA au monde en octobre 2017. Les Émirats Arabes-Unis comptent analyser le séquençage ADN des 3 millions d’habitants du pays par le biais du Dubai Health Association. La capitale émiratie ferait partie des villes les plus actives en matière d’intelligence artificielle dans le monde. Le but étant de créer une gigantesque base de données pour améliorer son dispositif de santé et de soins.

  • La santé est un domaine extrêmement convoité par les sociétés investies dans l’IA. IBM s’y est engagé parmi tant d’autres avec l’ambition d’en devenir l’un des pionniers. En 3 ans, IBM a acquis les sociétés de santé Phytel, Explorys, Merge Healthcare et Truven. Avec son projet Watson Health (4 Mds $ d’investissement), l’entreprise analyse des millions de dossiers médicaux (300 millions de données de patients collectées) grâce au machine learning, la branche de l’IA qui permet d’améliorer les performances de cette dernière avec le Big data. Watson n’analyse pas les symptômes pour identifier une pathologie à l’instar de la médecine traditionnelle, mais examine l’information en ligne pour aboutir à des diagnostics et des prescriptions. « Avec plus de 700 000 publications chaque année, un médecin ne peut se tenir à jour, même dans sa spécialité », tandis que le logiciel en question a la capacité de traiter 300 pages de données en une demi-seconde et en sept langues sur Internet (tweets, blogs, articles journalistiques et scientifiques…). Deux problèmes majeurs découlent de cette prouesse : 1) les datas de santé collectées appartiennent à des entreprises privées ce qui pose des problèmes éthiques et légaux (secret médical par exemple) ; 2) les programmes d’IA donnent des résultats sans en expliciter le raisonnement ; le taux d’erreur subsiste à cause des disparités de méthodes scientifiques entre pays par exemple, ce qui pose plus généralement le problème de la confiance aveugle que doivent avoir les médecins envers la machine.

  • Dans la même tendance, la montre connectée Apple Watch, leader du secteur avec 59 % du marché, innove pour bouleverser notre conception de la santé. La dernière version de la montre de la société Apple est capable de détecter les chutes du porteur (comme un accident de voiture par exemple) et appeler automatiquement les secours grâce à la géolocalisation si l’individu ne bouge pas au bout d’une minute. Parmi les nouveautés, des électrodes intégrées et un nouveau capteur électrique de fréquence cardiaque permettent d’enregistrer tout symptôme ou changement observés par l’app Santé et dans un PDF qui peut être envoyé à son médecin. Parmi les innovations futures, une technologie capable de surveiller le taux de glucose est très attendue. Début 2018, le cabinet Juniper Research estimait que 80 millions de ces montres intelligentes allaient être vendus en 2022, contre 14 millions en 2017.

  • L’euthanasie par l’IA ? Un algorithme conçu par des chercheurs de l’Université de Stanford pourrait prédire le jour de décès précis de patients en phase terminale. C’est à l’Hôpital de Stanford que des dossiers médicaux de milliers de patients atteints de cancers, maladies neurologiques et insuffisances cardiaques ont été analysés par deep learning (apprentissage basé sur des réseaux de neurones artificiels) pour élaborer cette IA. L’algorithme a pu déterminer dans 90 % des cas la mortalité des patients sur une période de trois à douze mois. Ce système permet officiellement d’optimiser les soins, mais aussi de privilégier des soins palliatifs pour économiser des traitements inutiles, chers et douloureux à des patients condamnés. La vie algorithmique à cela de particulier, qu’elle ne laisse que peu de place au hasard malheureux ou miraculé.

Les investissements européens (franco-allemand)

L’Europe est en retard pour les investissements privés en IA, qui ont été d’environ 2,4 à 3,2 Mds € en 2016, contre 6,5 à 9,7 Mds € en Asie et 12,1 à 18,6 Mds € en Amérique du Nord. Le Vieux continent est également toujours frileux à propos du protectionnisme et les acquisitions de pépites européennes par les multinationales américaines et chinoises sont validées sans précaution particulière (cf. l’article 63 du Traité sur le Fonctionnement de l’Union européenne : « toutes les restrictions aux mouvements de capitaux […] sont interdites »). Par exemple, la célèbre entreprise britannique DeepMind, aujourd’hui pionnière en matière d’IA, avait été acquise par Google en 2014 (500 M$), de même que le fleuron de la robotique allemande Kuka avait été absorbé par le géant chinois de l’électroménager Midea en 2016 (4,5 Mds $). L’émergence d’une industrie de l’IA puissante ne peut émerger qu’avec un soutien des pouvoirs publics et un protectionnisme pour le développement de l’initiative privée. Les pouvoirs publics se réveillent toujours avec un train de retard.

La Chancellerie fédérale allemande a annoncé le 15 novembre 2018 un investissement public de 3 Mds € jusqu’en 2025 pour développer l’IA outre-Rhin. L’Allemagne inclut l’UE dans son programme via la création d’un cluster européen pour financer la recherche coopérative sur l’IA et n’oublie pas de promouvoir le dialogue transatlantique « pour le développement d’une IA centrée sur l’humain dans le monde du travail ». Un Observatoire allemand pour l’IA doit également voir le jour pour amorcer une structure similaire à l’échelle européenne.

Le 28 novembre suivant, la Macronie a déclaré établir un nouveau plan de 665 M€ sur quatre ans pour soutenir la recherche publique et privée sur l’IA. Une enveloppe totalisant le milliard d’euros doit être atteinte avec l’aide de compagnies privées. Cette ambition française s’articule également dans le cadre européen pour faire du continent un acteur incontournable dans le domaine. Grâce à ce plan, les universités et centres de recherche français de Grenoble (projet MIAI@Grenoble-Alpes), Nice (projet 3IA Côte d’Azur), Paris (projet Prairie) et Toulouse (projet Aniti) ont récemment été lauréats du titre des instituts interdisciplinaires de l’intelligence artificielle (3IA). Ils se partageront la somme de 100 M€ sur 4 ans pour développer l’IA principalement dans le domaine prometteur de la santé. Les autres secteurs encouragés touchent l’environnement, les transports, le développement des territoires ou encore l’énergie.

Le Ministère de la Santé a démarré en octobre dernier la généralisation du carnet de Santé numérique (210 M€ de mise en place et un budget annuel de fonctionnement estimé à 15 M€) qui centralise dans un fichier les données personnalisées de la santé des patients. Seul le médecin traitant a accès à la totalité du fichier et le patient a le pouvoir de bloquer des informations le concernant, d’ajouter des documents ou de supprimer des données de son Dossier Médical Partagé (DMP). S’il est affiché comme « non obligatoire, gratuit, confidentiel et sécurisé », ce DMP pourra notamment être utilisé pour enrichir les bases de données de l’Health Data Hub, un instrument de l’État permettant d’analyser algorithmiquement les datas de santé des Français. Ce Hub doit émerger pour juin 2019 dans sa première version. Un fichage centralisé de plus.

Le milieu militaire juge également déterminante la R&D dans le domaine de l’IA. En février 2017, l’actuel ministre de l’Europe et des Affaires étrangères et ancien ministre de la Défense, Jean-Yves Le Drian, avait considéré l’IA comme une troisième rupture technologique, après la dissuasion nucléaire et l’explosion des technologies de l’information et du numérique. L’actuelle ministre des Armées, Florence Parly, a quant à elle annoncé une série de mesures en faveur du développement de l’IA militaire pour un coût annuel de 100 M€. Une cinquantaine de data scientist, spécialisés en science des données et en IA, doivent être embauchés d’ici 2022 à la Direction générale de l’armement (DGA). Fait notable : la France noue des partenariats public-privé sur le modèle US/chinois avec des sociétés comme Dassault, Thales, des startups et des centres de recherche. Parly a également annoncé la création d’une Agence de l’innovation de défense au sein de son ministère pour y inclure des startup dans l’objectif de créer des partenariats au niveau européen. Cette déclaration a coïncidé avec le lancement du Man-Machine Teaming (MMT – coopération homme-machine), un projet financé par la DGA (30 M€) et animé par Dassault Aviation et Thales. Il consiste à développer l’IA dans l’aéronautique de combat, particulièrement sur des capteurs de reconnaissance intelligents, de la navigation autonome sur terrains difficiles, des opérations conjointes entre vols habités et non habités ou encore sur une interface homme-machine à l’intérieur du cockpit. Les premiers résultats émergeront d’ici 2025 pour une utilisation totalement intégrée et généralisée vers 2030.

Rivalité américano-chinoise dans le secteur militaire

Pékin a pour objectif de mettre sur pied d’ici une dizaine d’années une industrie de l’IA d’une valeur de 150 Mds $, de devenir le premier centre d’innovation mondial d’ici 2030 (croissance du PIB chinois de 26 % d’ici l’échéance). Outre atlantique, le budget du Département de la défense US dédié à l’IA était de 7,4 Mds $ en 2017. Il faut y ajouter le secteur privé américain qui mobilise environ 60 Mds $ chaque année, montant très proche de celui investi par les BATX (Baidu, Alibaba, Tencent, Xiaomi) chinois. Au vu de ces chiffres, la France fait pâle figure avec ses 100 M€ annuels. Le Pentagone voit également la nouvelle génération d’IA comme une troisième vague de progrès technologique. Ce département de la Défense a d’ailleurs déjà validé le montant de 2 Mds $ consacré à la Defense Advanced Research Projects Agency (DARPA – Agence pour les projets de recherche avancée de défense), pour soutenir une vingtaine de projets d’IA en cours et promouvoir d’autres recherches d’ici cinq ans. Dans une logique de retour sur investissement, les GAFAM sont totalement intégrés aux programmes gouvernementaux sur l’IA dans une collaboration publique-privée ; une entreprise telle que Google par exemple doit son émergence et sa réussite au soutien financier indirect des agences de renseignement civiles américaines (NSA, CIA). Il en est de même en Chine où les BATX sont étroitement liés aux recherches sur l’IA de l’État.

L’encadrement éthico-juridique de l’IA

Avec les problématiques qu’entraîne la puissance algorithmique, la Déclaration de Montréal, une charte éthique encadrant le développement de l’IA, est née le 4 décembre 2018. Environ dix-huit mois de préparation ont été nécessaires à la publication de ce garde-fou. Le texte propose également de généraliser la transition numérique pour que le monde entier puisse bénéficier des nouvelles technologies.

Au cours d’un meeting à Bruxelles, pas moins de 12 mesures ont récemment été proposées pour encadrer voire sécuriser l’IA, développer la cybersécurité et interdire le profilage secret ou le scoring (notation des citoyens, comme il est si bien fait en Chine). Le groupe de protection de la vie privée Electronic Privacy Information Center (EPIC) a interpellé l’État américain via le National Science Foundation (NSF – Fondation nationale pour la science, équivalente du CNRS) pour transposer ces mesures aux USA.

Dans la même idée, les scientifiques d’IBM proposent aux développeurs de mettre en place et rendre accessible une déclaration de conformité du fournisseur (Supplier’s Declaration of Conformity – SDoC) avant de commercialiser un algorithme. Ceci pour rendre l’IA « plus sûre, transparente, équitable et efficace » grâce à des rapports de tests standardisés de sécurité par exemple. De quoi rassurer le public et les clients, peut-être au détriment de la vitesse de l’innovation.

Veille scientifique sur l’IA

  • Selon des prospectives du Forum économique mondial sur l’IA, la plupart des tâches sur le lieu de travail seront effectuées par des machines plutôt que par des hommes d’ici 10 ans. Le rapport s’appuie sur des données de responsables des ressources humaines et d’experts en stratégie d’entreprise. Environ 71 % des activités professionnelles sont actuellement gérées par des humains et la moitié des tâches seront transférées vers des machines d’ici 2025. Le développement de l’apprentissage automatique et de l’automatisation numérique devrait supprimer 75 millions d’emplois d’ici là et en créer quelque 133 millions.

  • Microsoft a mis au point un système informatique (IA) passant du chinois à l’anglais avec le même niveau de performance qu’un traducteur humain professionnel. L’année dernière, son système de reconnaissance vocale réussissait à atteindre des résultats aussi bons que des humains. Le 14 mars 2018, la firme a annoncé qu’une autre de ses intelligences artificielles traduisait des articles d’informations du chinois à l’anglais avec le même niveau de qualité et de précision qu’un professionnel.

  • Neuralink, une des startups du milliardaire Elon Musk (Tesla, SpaceX, The Boring Company), met au point une interface entre la machine et le cerveau humain pour soigner des maladies neurologiques, comme la maladie de Parkinson ou l’épilepsie. À terme, le projet est de mettre au point des neuroprothèses en tant qu’interfaces cerveau-machine à très haut débit afin de connecter le cerveau humain à des programmes informatiques.

  • Une forme de vie dans le quantique ? Si la création de vie artificielle au sein d’ordinateurs a déjà été expérimentée, une recherche similaire vient d’être réalisée cette fois-ci en utilisant un superordinateur quantique d’IBM (l’IBM QX4). Le monde réel étant appréhendé par l’Homme avec la physique classique, une très importante part de mystère qui nous échappe encore relève de la physique quantique. En informatique, le quantique permet de dépasser le système binaire, le langage de programmation traditionnel. Cette nouvelle expérience ajoute donc à l’équation le mystère ou l’imprévisibilité dans des simulations informatiques quantiques. Les conclusions de l’étude ne permettent pas de reproduire réellement une vie artificielle complète à l’intérieur d’un ordinateur quantique, mais laisseraient entrevoir la possibilité d’une telle innovation. Quant aux questions profondes sur l’origine de la vie et l’univers, ce ne sera pas pour de suite.

Conclusion

Les actualités de l’IA sont toujours riches et en pleine expansion. Pour rivaliser un tant soit peu avec les Américains et les Chinois, le gouvernement français doit choisir entre baisser les termes d’exigence de la protection des métadonnées de sa population ou inclure d’autres pays européens dans ce projet pour récolter des quantités de datas plus conséquentes sans outrepasser les réglementations. Nous restons vigilants sur la cybersurveillance de masse en France et ailleurs dans nos prochains dossiers.

Franck PengamExtrait de Géopolitique Profonde n°8

Google I/O 2018 ce qu’il ne fallait pas rater

Vous en avez marre d’écrire des emails ? Gmail va le faire pour vous. Utilisez-vous trop votre téléphone ? Le prochain logiciel Android vous en avertira. Google a fait beaucoup d’annonces lors de sa conférence annuelle des développeurs. Au milieu d’une concurrence serrée, Google a décidé de devenir la plus grande société d’intelligence artificielle au monde et sa conférence annuelle des développeurs l’a prouvé. Lors de l’ouverture de Google I/O 2018, l’entreprise a présenté ses plans logiciels pour l’année suivante et presque tous les aspects incluaient l’intelligence artificielle.

Le PDG Sundar Pichai et une foule d’autres cadres supérieurs de Google ont révélé où se concentre l’entreprise pendant le discours d’ouverture d’I/O. De l’événement à son siège de Mountain View, Google a fait la démonstration de la prochaine version de son système d’exploitation Android, a montré une nouvelle version de Google Actualités et a ajouté de nouvelles fonctionnalités à son assistant personnel.

Bon nombre des changements décrits par Pichai portaient sur la façon dont l’apprentissage automatique, un sous-ensemble de l’intelligence artificielle, l’aidait à utiliser les masses de données qu’il recueille pour personnaliser ses systèmes pour les utilisateurs. Voici toutes les grandes nouvelles Google de l’événement.

Android P

La prochaine version du système d’exploitation de Google pour les mobiles et les tablettes est le nom de code Android P et son nom complet sera révélé plus tard cette année. Google a révélé plus de détails sur ce qui sera inclus dans Android P.

Certaines des plus grandes mises à jour étaient axées sur la personnalisation des utilisateurs. Par exemple, il introduit des réglages de batterie et de luminosité adaptatifs. Ceux-ci changent automatiquement les paramètres en fonction de la façon dont une personne utilise son téléphone. Pour les changements de batterie, l’équipe Android a travaillé avec la branche DeepMind AI de Google pour créer les techniques d’apprentissage machine (machine learning) nécessaires à la personnalisation.

Google a également travaillé sur l’obtention de votre téléphone pour prédire ce que vous voulez faire ensuite. Android P aura des ‘actions d’application’ qui connaissent votre position et votre temps pour suggérer ce que vous voulez faire ensuite. Donc, si vous appelez toujours un membre de la famille à 19 heures, il vous suggérera de faire l’appel à ce moment-là.

Il introduit également un nouveau tableau de bord pour Android qui permettra aux utilisateurs de surveiller leur temps en utilisant un téléphone ou une tablette. Le tableau de bord, qui peut être trouvé dans les paramètres, permettra aux utilisateurs de voir combien de fois ils ont déverrouillé leur téléphone, combien de temps a été consacré à l’utilisation des applications et une ventilation détaillée des notifications. Android P permet également aux utilisateurs de régler la durée d’utilisation de leurs applications chaque jour et une nouvelle fonction appelée Shush mettra un téléphone en mode Ne pas déranger lorsqu’il est placé face cachée sur un bureau.

Google a déjà publié une première version du nouveau système d’exploitation – obtenir la version bêta d’Android P – et il sortira une version complète pour tous les utilisateurs cet automne.

Gmail écrira des emails pour vous

Deux semaines avant l’I/O 2018, Google a annoncé une révision massive de Gmail. Les changements de conception sont les plus importants depuis plusieurs années. La société a ajouté la possibilité d’effectuer des paiements dans l’application Gmail iOS. Les utilisateurs d’Android ont été en mesure de le faire depuis plus d’un an, mais la fonctionnalité a pris son temps pour venir sur les appareils d’Apple. Google a également ajouté la possibilité de répéter les messages jusqu’à une date ultérieure.

Pichai a également annoncé une nouvelle fonctionnalité Gmail appelée «smart compose». La méthode est une saisie semi-automatique pour les emails, en utilisant l’IA de l’entreprise. Dans un exemple montré à l’I/O, la fonctionnalité a suggéré des phrases à ajouter dans un e-mail. À l’avenir, vos emails seront écrits pour vous.

https://iatranshumanisme.com/transhumanisme/les-plus-grandes-acquisitions-de-google/

L’Assistant Google peut effectuer vos appels téléphoniques

Scott Huffman, le vice-président de l’ingénierie chez Google, a déclaré qu’il ajoutait six nouvelles voix à son assistant vocal, ajoutant la possibilité de poser des questions de suivi et permettant également une option destinée aux enfants où “s’il vous plaît” doit être dit dans le cadre d’une commande vocale. Google affirme que ses premiers assistants à domicile avec des écrans seraient disponibles à partir de Juillet. Les appareils sont créés par Lenovo, LG et JBL plutôt qu’en interne chez Google.

Plus expérimentalement, Google travaille également sur un nouveau système appelé Duplex. Google a démontré comment sa voix d’intelligence artificielle pouvait appeler un coiffeur ou un restaurant et prendre rendez-vous. L’intelligence artificielle peut discuter avec un humain (sans que l’autre personne réalise qu’elle parle à une machine) qui lui pose des questions et termine ses instructions. L’assistant se réfère au calendrier de la personne pour trouver un créneau horaire approprié, puis informe l’utilisateur lorsqu’un rendez-vous est prévu. Cependant, ne soyez pas trop excités car il n’y a pas encore de date de sortie pour cette fonctionnalité.

Sécuriser l’Internet des Objets

L’Internet des objets englobe déjà des milliards d’appareils et le nombre ne cesse de croître. La sécurité reste un problème constant car les périphériques sont souvent livrés avec un nom d’utilisateur et des mots de passe par défaut, et sont difficiles à mettre à jour. Le projet de Google pour résoudre les problèmes de sécurité est Android Things 1.0. Le logiciel est conçu pour fonctionner sur les appareils IoT et les développeurs qui décident de l’utiliser verront leurs produits recevoir des mises à jour de sécurité Google automatiquement pendant trois ans.

Android Things 1.0 est un système d’exploitation assez basique, mais contrairement à Android, c’est une source fermée ce qui signifie que les développeurs ne peuvent pas bricoler son code avant de l’implémenter sur leurs appareils. Il a également été conçu pour exécuter une application à la fois. Mais ses usages peuvent être assez larges car les premiers appareils de l’Assistant Google avec écrans utiliseront le système d’exploitation.

Google Actualités vous montrera plus de nouvelles

Le créateur de Google News indique qu’il rend le service plus personnalisé en fournissant des «briefings» qui incluent des histoires qui intéressent les utilisateurs individuels, en fonction de leur historique de recherche. Naturellement, il le fait avec son intelligence artificielle.

La société présente également un point de vue plus profond pour les reportages appelés «couverture complète», car il vise à apaiser les critiques autour du service. Pour certaines nouvelles histoires, la mise à jour montrera plusieurs articles sur un sujet, y compris la vérification des faits et des nouvelles de diverses publications. Le but est d’aider les gens à sortir des bulles de filtre.

Les nouvelles fonctionnalités sont lancées sur Android, iOS et le site Web Google Actualités au cours de la semaine prochaine.

Google Maps utilisera l’appareil photo de votre téléphone

Google a également montré une version augmentée de Google Maps qui charge automatiquement streetview lorsqu’une application appareil photo est ouverte. L’entreprise a appelé cela un système de positionnement visuel qui reconnaît les bâtiments et les points de repère qui se trouvent devant elle.

Trouver le bon endroit pour manger peut être difficile. Google introduit une nouvelle fonctionnalité de liste restreinte à son application de cartes. Cela vous permet de marquer des endroits que vous souhaitez visiter et de partager une liste avec des amis qui peuvent voter sur un emplacement préféré.

Google rend également son appareil photo de téléphone plus puissant en utilisant son intelligence artificielle. Grâce à son système appelé Google Lens, la société utilise l’appareil photo pour numériser des objets. Il permet de mettre en évidence les mots écrits sur une page avec l’appareil photo et de les transformer automatiquement en texte numérique.

Google I/O 2018

Les dirigeants des meilleures sociétés de robotique et d’IA appellent à l’interdiction des robots tueurs

Les dirigeants des compagnies d‘intelligence artificielle et de robotique à travers le monde, y compris Elon Musk (Tesla, SpaceX, OpenAI), Demis Hassabis et Mustafa Suleyman (Google DeepMind), ont publié une lettre ouverte appelant les Nations Unies à interdire les armes autonomes, souvent appelées robots tueurs (systèmes d’armes létales autonomes – SALA*), alors que l’ONU retarde les négociations.

Les fondateurs et les PDG de près de 100 entreprises de 26 pays ont signé la lettre, qui met en garde :

« Les systèmes d’armes létales autonomes menacent de devenir la troisième révolution en matière de guerre. Une fois développées, elles permettront de mener des conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides à ce que les humains peuvent concevoir. »

En décembre 2016, 123 nations membres de l’ONU avaient accepté d’aller de l’avant avec des discussions officielles sur les armes autonomes, 19 membres demandant déjà une interdiction totale. Cependant, la prochaine étape des discussions, initialement prévue pour le 21 août 2017 – date de publication de la lettre ouverte – a été reportée au mois de novembre, d’après le magazine en ligne Fortune.

La lettre a été organisée et annoncée par Toby Walsh, un éminent chercheur en intelligence artificielle à l’Université de Nouvelle-Galles du Sud à Sydney (University of New South Wales ou UNSW), en Australie. Dans un courriel, il a noté que « malheureusement, l’ONU n’a pas commencé aujourd’hui ses délibérations formelles à propos des systèmes d’armes létales autonomes ».

« Il y a cependant une urgence réelle à prendre des mesures et d’empêcher une course aux armements très dangereuse », Walsh a ajouté : « Cette lettre ouverte témoigne d’une préoccupation claire et d’un solide soutien à l’industrie de la robotique et de l’intelligence artificielle. »

Cité dans le journal The Independent du Royaume-Uni, le professeur Walsh a expliqué, « Presque chaque technologie peut être utilisée à bon ou mauvais escient, et il en est de même pour l’intelligence artificielle. Elle peut aider à résoudre de nombreux problèmes urgents auxquels fait face la société aujourd’hui : l’inégalité et la pauvreté, les difficultés que présentent le changement climatique et la crise financière mondiale actuelle.

« Cependant, cette même technologie peut également être utilisée dans les armes autonomes afin d’industrialiser la guerre. Nous devons prendre des décisions aujourd’hui en choisissant lequel de ces avenirs nous souhaitons. »

La lettre ouverte comprend des signataires tels que :

• Elon Musk, fondateur de Tesla, SpaceX et OpenAI (USA)
• Demis Hassabis, fondateur et PDG de Google DeepMind (Royaume-Uni)
• Mustafa Suleyman, fondateur et responsable de l’Applied AI chez Google DeepMind (Royaume-Uni)
• Esben Østergaard, fondateur et CTO de Universal Robotics (Danemark)
• Jérôme Monceaux, fondateur d’Aldebaran Robotics, fabricant de
s robots Nao et Pepper (France)
• Jürgen Schmidhuber, expert en
deep learning et fondateur de Nnaisense (Suisse)
• Yoshua Bengio, expert en
deep learning et fondateur de Element AI (Canada)

En ce qui concerne les signataires, le communiqué de presse de la lettre a ajouté : « Leurs entreprises emploient des dizaines de milliers de chercheurs, de roboticiens et d’ingénieurs, valent des milliards de dollars et couvrent le globe du Nord au Sud, de l’Est à l’Ouest : l’Australie, le Canada, la Chine, la République tchèque, le Danemark, l’Estonie, la Finlande, la France, l’Allemagne, l‘Islande, l’Inde, l’Irlande, l’Italie, le Japon, le Mexique, les Pays-Bas, la Norvège, la Pologne, la Russie, Singapour, l’Afrique du Sud, l’Espagne, la Suisse, le Royaume-Uni, les Émirats arabes unis et les États-Unis. »

Bengio a expliqué pourquoi il a signé, en disant : « l’utilisation de l’IA dans les armes autonomes blesse mon sens de l’éthique ». Il a ajouté que le développement d’armes autonomes « conduirait probablement à une escalade très dangereuse » et que « cela nuirait au développement de bonnes applications d’intelligence artificielle ». Il a conclu sa déclaration en disant que « c’est une question qui doit être traitée par la communauté internationale, de même à ce qui a été fait dans le passé pour d’autres armes moralement répréhensible (biologiques, chimiques, nucléaires) ».

Stuart Russell, l’un des chercheurs les plus importants du monde en intelligence artificielle et fondateur de Bayesian Logic Inc., a ajouté :

« À moins que les gens ne souhaitent voir de nouvelles armes de destruction massive (ADM) – sous la forme de vastes essaims de micro-drones létaux – se répandant dans le monde entier, il est impératif d’intensifier et de soutenir les efforts des Nations Unies pour créer un traité interdisant les systèmes d’armes létales autonomes. Ceci est vital pour la sécurité nationale et internationale ».

Ryan Gariepy, fondateur et CTO de Clearpath Robotics a été le premier à signer la lettre. Pour le communiqué de presse, il a noté :

«Les systèmes d’armes autonomes sont à la pointe du développement en ce moment et ont un potentiel très réel pour causer des dommages importants aux personnes innocentes et une instabilité mondiale ».

La lettre ouverte se termine par des préoccupations similaires. Il est dit :

« Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes piratées pour se comporter de manière indésirable. Nous avons peu de temps pour agir. Une fois que cette boîte de Pandore sera ouverte, il sera difficile de la refermer. Nous implorons donc les hautes parties contractantes de trouver un moyen de nous protéger contre tous ces dangers ».

La lettre a été présentée à Melbourne, en Australie lors de la Conférence conjointe internationale sur l’intelligence artificielle (IJCAI), qui attire un nombre important des plus grands chercheurs du monde en matière d’intelligence artificielle. Il y a deux ans, lors de la dernière réunion de l’IJCAI, Walsh avait publié une autre lettre ouverte, qui appelait les pays à éviter de s’engager dans une course aux armes basées sur l’intelligence artificielle. Jusqu’à présent, cette lettre a été signée par plus de 20 000 personnes, dont plus de 3 100 chercheurs en intelligence artificielle/robotique.

The Independent, Fortune, University of New South Wales, UNSW, Future of Life Institute


* Julien Ancelin, « Les systèmes d’armes létaux autonomes (SALA) : Enjeux juridiques de l’émergence d’un moyen de combat déshumanisé », La Revue des droits de l’homme [En ligne], Actualités Droits-Libertés, mis en ligne le 25 octobre 2016, consulté le 02 septembre 2017. URL : http://revdh.revues.org/2543 ; DOI : 10.4000/revdh.2543

Systèmes d’armes létaux autonomes : Ministère de l’Europe et des Affaires étrangères. Mission permanente de la France auprès de la Conférence du désarmement à Genève
Enjeux et position de la France : “Les systèmes d’armes létaux autonomes (SALA) sont des armes potentiellement susceptibles d’identifier, d’engager et de neutraliser une cible sans intervention humaine. Bien que de tels systèmes n’existent pas, l’autonomie de ces systèmes d’armes serait susceptible de poser de nombreuses questions sur le plan moral, juridique ou encore opérationnel. C’est la raison pour laquelle un débat sur la manière d’appréhender ces armes, qui ne font pas encore partie de la réalité stratégique, est nécessaire. Il s’agit d’un débat d’ordre prospectif. Par ailleurs, l’autonomie, qui n’est pas synonyme d’automaticité, fait également naître de nombreux questionnements sur l’opportunité stratégique du développement et de l’utilisation de ces armes. Enfin, si les discussions sur la problématique des SALA ont lieu dans le cadre de la Convention de 1980 sur certaines armes classiques, il n’en existe pas, à ce jour, de définition communément agréée. Il s’agit de l’un des principaux enjeux actuels des débats sur les SALA. Les discussions sur les SALA au sein de la CCAC ont été lancées en 2013, sur initiative française. Compte-tenu de la nature prospective de ces systèmes et de la nécessité de s’accorder sur un périmètre commun de discussions, la France estime nécessaire de poursuivre les échanges au sein de la CCAC, si nécessaire dans le cadre d’un groupe d’experts gouvernementaux. La France a lors d’une intervention à Genève exposé les conditions suivantes pour qu’une arme soit identifiée comme un SALA : aucune forme de supervision humaine ne doit être possible, l’arme doit être mobile dans un espace terrestre, aérien ou marin de manière autonome, être capable de sélectionner une cible et de déclencher le tir d’une munition létale de manière autonome, être capable de s’adapter à son environnement et au comportement des agents qui l’entourent.”

Des experts prédisent quand l’intelligence artificielle dépassera la performance humaine

Le transport routier sera informatisé bien avant la chirurgie, disent des chercheurs en informatique.

L’intelligence artificielle change le monde et le fait à une vitesse vertigineuse. La promesse est que les machines intelligentes seront en mesure de faire chaque tâche mieux et à moindre coût que les humains. À tort ou à raison, une industrie après l’autre tombe sous son charme, même si peu en ont considérablement profité jusqu’à présent.

Et cela soulève une question intéressante : quand l’intelligence artificielle dépassera-t-elle les performances humaines ? Plus précisément, quand est-ce qu’une machine fera-t-elle votre travail mieux que vous ?

Aujourd’hui, nous avons un début de réponse grâce au travail de Katja Grace de la Future of Humanity Institute de l’Université d’Oxford et à quelques confrères. Pour le savoir, ces personnes ont demandé aux experts. Ils ont interrogé les principaux chercheurs mondiaux en intelligence artificielle en leur demandant à quel moment ils pensent que les machines intelligentes dépasseront les humains dans un large éventail de tâches. Et la plupart des réponses sont assez surprenantes.

Les experts avec qui Grace et son équipe ont coopéré étaient des universitaires et des experts de l’industrie qui ont donné des communications à la conférence internationale sur le machine learning en juillet 2015 et la conférence Neural Information Processing Systems en décembre 2015. Ces deux événements étaient très importants pour les experts en intelligence artificielle, il était donc bon de parier que de nombreux experts mondiaux étaient sur cette liste.

Grace Katja et son équipe leur ont demandé à tous – les 1 634 d’entre eux – de compléter un sondage sur à quel moment l’intelligence artificielle deviendra-t-elle meilleure et moins chère que les humains dans un large éventail de tâches. Parmi ces experts, 352 ont répondu. Grave et son équipe ont ensuite calculé leurs réponses médianes.

Les experts prédisent que l’intelligence artificielle dépassera les humains au cours des 10 prochaines années dans des tâches telles que la traduction des langues (d’ici à 2024), la rédaction de manuels scolaires (d’ici à 2026) et la conduite de camions (d’ici 2027).

Cependant, beaucoup d’autres tâches prendront beaucoup plus de temps à maîtriser pour les machines. L’IA ne sera pas plus compétente que les humains pour travailler dans le commerce de détail jusqu’en 2031, capable d’écrire un best-seller jusqu’en 2049, ou capable de travailler en tant que chirurgien jusqu’en 2053.

Les experts sont loin d’être infaillibles. Ils avaient prédit que l’IA serait plus douée que les humains au Go qu’en 2027 (c’était en 2016, rappelez-vous). En fait, la filiale DeepMind de Google a déjà développé une intelligence artificielle capable de battre les meilleurs humains. Cela a pris deux ans au lieu de 12. Il est facile de penser que cela puisse permettre de démentir ces prédictions.

Les experts pensent avec une probabilité de 50 % que l’intelligence artificielle sera meilleure que les humains dans environ 45 ans.

C’est le genre de prédiction qui doit être prise avec des pincettes. L’horizon de prédiction à 40 ans devrait toujours être vu comme un signal d’alarme. Selon certains experts en énergie, une énergie de fusion rentable est à environ 40 ans, mais ça a toujours été le cas. C’était déjà à 40 ans lorsque les chercheurs ont exploré la fusion il y a plus de 50 ans. Mais c’est resté un rêve lointain parce que les défis se sont révélés plus importants que ce qu’on imaginait.

Quarante ans est un nombre important lorsque les humains font des prédictions parce que c’est la durée de la vie active de la plupart des gens. Ainsi, tout changement prédit allant plus loin que cela, signifie que le changement se produira au-delà de la durée de vie active de tous ceux qui travaillent aujourd’hui. En d’autres termes, cela ne peut se produire avec une technologie dont les experts d’aujourd’hui ont une expérience pratique. Cela suggère qu’il s’agit d’un nombre à traiter avec prudence.

Mais taquiner les chiffres montre quelque chose d’intéressant. Cette prédiction sur 45 ans est la figure médiane de tous les experts. Peut-être qu’un sous-ensemble de ce groupe est plus expert que les autres ?

Pour savoir si différents groupes ont fait des prédictions différentes, Grace Katja et ses confrères ont examiné comment les prédictions ont changé avec l’âge des chercheurs, le nombre de leurs rapports (c’est-à-dire leur expertise) et leur région d’origine.

Il s’avère que l’âge et l’expertise ne font aucune différence dans la prédiction, mais c’est le cas avec l’origine. Alors que les chercheurs nord-américains s’attendent à ce que l’IA surpasse tous les humains d’ici 74 ans, les chercheurs d’Asie s’y attendent d’ici seulement 30 ans.

C’est une grande différence qui est difficile à expliquer. Et cela soulève une question intéressante : qu’est-ce que les chercheurs asiatiques savent que les nord-américains ne savent pas (ou vice versa) ?

Ref: arxiv.org/abs/1705.08807 : When Will AI Exceed Human Performance? Evidence from AI Experts

traduction Thomas Jousse

MIT Technology Review

Apple rejoint Amazon, Facebook, Google, IBM et Microsoft dans l’initiative IA

La technologie de l’intelligence artificielle gagne en popularité chaque jour. Toutes les grandes entreprises semblent prendre le train en route, en essayant de trouver de nouvelles et intéressantes façons d’utiliser l’IA. Dans le cadre de ce mouvement, le partenariat sur l’intelligence artificielle au profit des populations et de la société (Partnership on AI) a été créé en septembre 2016. Lors de sa création, Amazon, Facebook, Google, IBM et Microsoft étaient les seuls membres fondateurs. Apple, Twitter, Intel et Baidu n’avaient pas participé à l’initiative. Ce collectif vient d’annoncer officiellement qu’Apple rejoint l’équipe.

Le cofondateur de Siri et CTO (Chief Technology Officer – directeur de la technologie) Tom Gruber représente Apple dans cette excitante collaboration. Compte tenu de la popularité et de la réputation d’Apple, cette union pourrait conduire à de futures avancées en IA.

Vous pouvez trouver l’ensemble du conseil d’administration sur le site Web Partnership on AI.

Ces entreprises reconnaissent la nécessité de travailler ensemble pour améliorer la qualité de la vie des gens et pour répondre aux défis mondiaux importants, tels que le changement climatique, la nourriture, l’inégalité, la santé et l’éducation.

Ce partenariat s’engage à : Ouvrir la recherche et le dialogue sur les implications éthiques, sociales, économiques et juridiques de l’IA. S’assurer que la recherche et la technologie de l’IA sont solides, fiables, dignes de confiance et fonctionnent dans des limites sûres. S’opposer au développement et à l’utilisation des technologies de l’IA qui violeraient les conventions internationales ou les droits de l’homme et promouvoir les garanties et les technologies qui ne nuisent pas.

traduction Thomas Jousse

Partnership on AI, TechCrunch, Bloomberg

Les scientifiques d’Oxford ont une IA qui peut lire vos lèvres

Des scientifiques de l’Université d’Oxford ont décrit un système d’intelligence artificielle, appelé LipNet, qui peut lire avec précision les lèvres. Le système emploie l’apprentissage profond pour se former en utilisant 29 000 vidéos de trois secondes de long étiquetées avec des légendes.

LipNet, d’autre part, travaille sur des phrases entières à la fois, atteignant une précision de 93,4 %. En comparaison avec les lecteurs de lèvres humains qui ont obtenu une précision de 52,3 %, LipNet était 1,78 fois plus précis que lui en traduisant les mêmes phrases.

Bien que la précision du système soit impressionnante, elle n’est toujours pas parfaite. Cependant, la technologie se révèle prometteuse, et les scientifiques cherchent des applications pour cette technologie. Par exemple, elle pourrait être utilisée comme un outil pour les malentendants et pourrait révolutionner la reconnaissance vocale.

soutien financier : Google DeepMind, ICRA, et NVIDIA

Quartz, Oxford University