Les dirigeants des meilleures sociétés de robotique et d’IA appellent à l’interdiction des robots tueurs

Les dirigeants des compagnies d‘intelligence artificielle et de robotique à travers le monde, y compris Elon Musk (Tesla, SpaceX, OpenAI), Demis Hassabis et Mustafa Suleyman (Google DeepMind), ont publié une lettre ouverte appelant les Nations Unies à interdire les armes autonomes, souvent appelées robots tueurs (systèmes d’armes létales autonomes – SALA*), alors que l’ONU retarde les négociations.

Les fondateurs et les PDG de près de 100 entreprises de 26 pays ont signé la lettre, qui met en garde :

« Les systèmes d’armes létales autonomes menacent de devenir la troisième révolution en matière de guerre. Une fois développées, elles permettront de mener des conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides à ce que les humains peuvent concevoir. »

En décembre 2016, 123 nations membres de l’ONU avaient accepté d’aller de l’avant avec des discussions officielles sur les armes autonomes, 19 membres demandant déjà une interdiction totale. Cependant, la prochaine étape des discussions, initialement prévue pour le 21 août 2017 – date de publication de la lettre ouverte – a été reportée au mois de novembre, d’après le magazine en ligne Fortune.

La lettre a été organisée et annoncée par Toby Walsh, un éminent chercheur en intelligence artificielle à l’Université de Nouvelle-Galles du Sud à Sydney (University of New South Wales ou UNSW), en Australie. Dans un courriel, il a noté que « malheureusement, l’ONU n’a pas commencé aujourd’hui ses délibérations formelles à propos des systèmes d’armes létales autonomes ».

« Il y a cependant une urgence réelle à prendre des mesures et d’empêcher une course aux armements très dangereuse », Walsh a ajouté : « Cette lettre ouverte témoigne d’une préoccupation claire et d’un solide soutien à l’industrie de la robotique et de l’intelligence artificielle. »

Cité dans le journal The Independent du Royaume-Uni, le professeur Walsh a expliqué, « Presque chaque technologie peut être utilisée à bon ou mauvais escient, et il en est de même pour l’intelligence artificielle. Elle peut aider à résoudre de nombreux problèmes urgents auxquels fait face la société aujourd’hui : l’inégalité et la pauvreté, les difficultés que présentent le changement climatique et la crise financière mondiale actuelle.

« Cependant, cette même technologie peut également être utilisée dans les armes autonomes afin d’industrialiser la guerre. Nous devons prendre des décisions aujourd’hui en choisissant lequel de ces avenirs nous souhaitons. »

La lettre ouverte comprend des signataires tels que :

• Elon Musk, fondateur de Tesla, SpaceX et OpenAI (USA)
• Demis Hassabis, fondateur et PDG de Google DeepMind (Royaume-Uni)
• Mustafa Suleyman, fondateur et responsable de l’Applied AI chez Google DeepMind (Royaume-Uni)
• Esben Østergaard, fondateur et CTO de Universal Robotics (Danemark)
• Jérôme Monceaux, fondateur d’Aldebaran Robotics, fabricant de
s robots Nao et Pepper (France)
• Jürgen Schmidhuber, expert en
deep learning et fondateur de Nnaisense (Suisse)
• Yoshua Bengio, expert en
deep learning et fondateur de Element AI (Canada)

En ce qui concerne les signataires, le communiqué de presse de la lettre a ajouté : « Leurs entreprises emploient des dizaines de milliers de chercheurs, de roboticiens et d’ingénieurs, valent des milliards de dollars et couvrent le globe du Nord au Sud, de l’Est à l’Ouest : l’Australie, le Canada, la Chine, la République tchèque, le Danemark, l’Estonie, la Finlande, la France, l’Allemagne, l‘Islande, l’Inde, l’Irlande, l’Italie, le Japon, le Mexique, les Pays-Bas, la Norvège, la Pologne, la Russie, Singapour, l’Afrique du Sud, l’Espagne, la Suisse, le Royaume-Uni, les Émirats arabes unis et les États-Unis. »

Bengio a expliqué pourquoi il a signé, en disant : « l’utilisation de l’IA dans les armes autonomes blesse mon sens de l’éthique ». Il a ajouté que le développement d’armes autonomes « conduirait probablement à une escalade très dangereuse » et que « cela nuirait au développement de bonnes applications d’intelligence artificielle ». Il a conclu sa déclaration en disant que « c’est une question qui doit être traitée par la communauté internationale, de même à ce qui a été fait dans le passé pour d’autres armes moralement répréhensible (biologiques, chimiques, nucléaires) ».

Stuart Russell, l’un des chercheurs les plus importants du monde en intelligence artificielle et fondateur de Bayesian Logic Inc., a ajouté :

« À moins que les gens ne souhaitent voir de nouvelles armes de destruction massive (ADM) – sous la forme de vastes essaims de micro-drones létaux – se répandant dans le monde entier, il est impératif d’intensifier et de soutenir les efforts des Nations Unies pour créer un traité interdisant les systèmes d’armes létales autonomes. Ceci est vital pour la sécurité nationale et internationale ».

Ryan Gariepy, fondateur et CTO de Clearpath Robotics a été le premier à signer la lettre. Pour le communiqué de presse, il a noté :

«Les systèmes d’armes autonomes sont à la pointe du développement en ce moment et ont un potentiel très réel pour causer des dommages importants aux personnes innocentes et une instabilité mondiale ».

La lettre ouverte se termine par des préoccupations similaires. Il est dit :

« Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes piratées pour se comporter de manière indésirable. Nous avons peu de temps pour agir. Une fois que cette boîte de Pandore sera ouverte, il sera difficile de la refermer. Nous implorons donc les hautes parties contractantes de trouver un moyen de nous protéger contre tous ces dangers ».

La lettre a été présentée à Melbourne, en Australie lors de la Conférence conjointe internationale sur l’intelligence artificielle (IJCAI), qui attire un nombre important des plus grands chercheurs du monde en matière d’intelligence artificielle. Il y a deux ans, lors de la dernière réunion de l’IJCAI, Walsh avait publié une autre lettre ouverte, qui appelait les pays à éviter de s’engager dans une course aux armes basées sur l’intelligence artificielle. Jusqu’à présent, cette lettre a été signée par plus de 20 000 personnes, dont plus de 3 100 chercheurs en intelligence artificielle/robotique.

The Independent, Fortune, University of New South Wales, UNSW, Future of Life Institute


* Julien Ancelin, « Les systèmes d’armes létaux autonomes (SALA) : Enjeux juridiques de l’émergence d’un moyen de combat déshumanisé », La Revue des droits de l’homme [En ligne], Actualités Droits-Libertés, mis en ligne le 25 octobre 2016, consulté le 02 septembre 2017. URL : http://revdh.revues.org/2543 ; DOI : 10.4000/revdh.2543

Systèmes d’armes létaux autonomes : Ministère de l’Europe et des Affaires étrangères. Mission permanente de la France auprès de la Conférence du désarmement à Genève
Enjeux et position de la France : “Les systèmes d’armes létaux autonomes (SALA) sont des armes potentiellement susceptibles d’identifier, d’engager et de neutraliser une cible sans intervention humaine. Bien que de tels systèmes n’existent pas, l’autonomie de ces systèmes d’armes serait susceptible de poser de nombreuses questions sur le plan moral, juridique ou encore opérationnel. C’est la raison pour laquelle un débat sur la manière d’appréhender ces armes, qui ne font pas encore partie de la réalité stratégique, est nécessaire. Il s’agit d’un débat d’ordre prospectif. Par ailleurs, l’autonomie, qui n’est pas synonyme d’automaticité, fait également naître de nombreux questionnements sur l’opportunité stratégique du développement et de l’utilisation de ces armes. Enfin, si les discussions sur la problématique des SALA ont lieu dans le cadre de la Convention de 1980 sur certaines armes classiques, il n’en existe pas, à ce jour, de définition communément agréée. Il s’agit de l’un des principaux enjeux actuels des débats sur les SALA. Les discussions sur les SALA au sein de la CCAC ont été lancées en 2013, sur initiative française. Compte-tenu de la nature prospective de ces systèmes et de la nécessité de s’accorder sur un périmètre commun de discussions, la France estime nécessaire de poursuivre les échanges au sein de la CCAC, si nécessaire dans le cadre d’un groupe d’experts gouvernementaux. La France a lors d’une intervention à Genève exposé les conditions suivantes pour qu’une arme soit identifiée comme un SALA : aucune forme de supervision humaine ne doit être possible, l’arme doit être mobile dans un espace terrestre, aérien ou marin de manière autonome, être capable de sélectionner une cible et de déclencher le tir d’une munition létale de manière autonome, être capable de s’adapter à son environnement et au comportement des agents qui l’entourent.”

Apple rejoint Amazon, Facebook, Google, IBM et Microsoft dans l’initiative IA

La technologie de l’intelligence artificielle gagne en popularité chaque jour. Toutes les grandes entreprises semblent prendre le train en route, en essayant de trouver de nouvelles et intéressantes façons d’utiliser l’IA. Dans le cadre de ce mouvement, le partenariat sur l’intelligence artificielle au profit des populations et de la société (Partnership on AI) a été créé en septembre 2016. Lors de sa création, Amazon, Facebook, Google, IBM et Microsoft étaient les seuls membres fondateurs. Apple, Twitter, Intel et Baidu n’avaient pas participé à l’initiative. Ce collectif vient d’annoncer officiellement qu’Apple rejoint l’équipe.

Le cofondateur de Siri et CTO (Chief Technology Officer – directeur de la technologie) Tom Gruber représente Apple dans cette excitante collaboration. Compte tenu de la popularité et de la réputation d’Apple, cette union pourrait conduire à de futures avancées en IA.

Vous pouvez trouver l’ensemble du conseil d’administration sur le site Web Partnership on AI.

Ces entreprises reconnaissent la nécessité de travailler ensemble pour améliorer la qualité de la vie des gens et pour répondre aux défis mondiaux importants, tels que le changement climatique, la nourriture, l’inégalité, la santé et l’éducation.

Ce partenariat s’engage à : Ouvrir la recherche et le dialogue sur les implications éthiques, sociales, économiques et juridiques de l’IA. S’assurer que la recherche et la technologie de l’IA sont solides, fiables, dignes de confiance et fonctionnent dans des limites sûres. S’opposer au développement et à l’utilisation des technologies de l’IA qui violeraient les conventions internationales ou les droits de l’homme et promouvoir les garanties et les technologies qui ne nuisent pas.

traduction Thomas Jousse

Partnership on AI, TechCrunch, Bloomberg

L’intelligence artificielle soulève déjà de nombreuses questions juridiques et éthiques

Faut-il apprendre aux véhicules autonomes à éviter un chien qui traverse ? Peut-on laisser mettre en vente des robots sexuels destinés aux pédophiles ? Qui est juridiquement responsable en cas d’accident provoqué par un robot dans un atelier ?

Le « Rapport d’étape sur l’intelligence artificielle et la vie ». De quoi s’agit-il et que peut-on y apprendre ?

Une étude sur l’intelligence artificielle sur 100 ans à Stanford
Partenariat sur l’IA : les géants de la Tech s’unissent pour développer l’intelligence synthétique
Barack Obama sur l’intelligence artificielle, les voitures autonomes et l’avenir de l’humanité | WIRED
→ « Ces questions sur la technologie que vous n’êtes pas autorisé à poser »
Les Echos : Faut-il une loi spéciale pour les robots ?

https://media.radiofrance-podcast.net/podcast09/11701-25.10.2016-ITEMA_21114633-1.mp3?_=1

 

 

Partenariat sur l’IA : les géants de la Tech s’unissent pour développer l’intelligence synthétique

Cette semaine, Google DeepMind, Microsoft et IBM sont rejoints par Facebook et Amazon pour former un partenariat sur l’intelligence artificielle au profit des populations et de la société. Les cinq entreprises partenaires sont leaders dans leur propre droit en ce qui concerne le développement de l’intelligence artificielle.

Intelligence artificielle : Elon Musk fonde OpenAI

L’un de ses trois principaux objectifs est la nécessité de faire avancer la compréhension du public de l’intelligence artificielle.

Les deux autres objectifs sont de fournir un soutien de recherche pour développer les meilleures pratiques pour aborder les sujets de préoccupation sur “l’éthique, l’équité et l’inclusivité”, et de servir de plate-forme pour tous les autres chercheurs en IA et les parties prenantes potentielles pour aborder les questions pertinentes. Pour ce faire, le conseil des partenariats comprendra des experts du monde académique et prendra la forme d’une organisation à but non lucratif.

Bien que concurrents en matière de développement de produits, ces entreprises reconnaissent la nécessité de travailler ensemble pour développer la technologie de l’intelligence artificielle « pour améliorer la qualité de la vie des gens et peut-être mis à profit pour aider l’humanité à répondre aux défis mondiaux importants, tels que le changement climatique, la nourriture, l’inégalité, la santé et l’éducation ».

Credits: partnershiponai.org

Fortune, Partnership on Artificial Intelligence to Benefit People and Society, Wired

Google DeepMind va scanner un million d’yeux pour combattre la cécité avec le NHS

Retinal scans are produced rapidly, but require great skill to interpret. Photograph: Tim Mainiero / Alamy Stock Photo/Alamy Stock Photo

Google DeepMind et le NHS [National Health Service, système de santé publique du Royaume-Uni] développent un système d’apprentissage automatique avec Moorfields Eye Hospital pouvant reconnaitre des pathologies touchant la vue via un simple balayage numérique de l’œil.

Mustafa Suleyman, co-fondateur de DeepMind, dit que c’est la première incursion de la compagnie dans une recherche purement médicale. Dans cette nouvelle collaboration avec Moorfields, un algorithme sera formé en utilisant un million de balayages oculaires anonymes pour s’exercer à identifier les premiers signes de dégénérescence oculaires telles que la dégénérescence maculaire humide liée à l’âge [principale cause de malvoyance chez la personne âgée] ou la rétinopathie diabétique [complication du diabète et première cause de cécité avant 65 ans].

« Si vous avez du diabète vous êtes 25 fois plus à même de devenir aveugle. Si nous pouvons le détecter, et le traiter aussi tôt que possible, alors 98% des pertes de vision les plus sévères pourraient être évitées », dit Suleyman.

En formant un réseau neuronal pour faire l’évaluation des balayages oculaires, la vitesse et la précision des diagnostiques pourraient être grandement augmentées, ce qui permettrait de sauver la vue de milliers de personnes.

Google DeepMind dispose d’un accès aux données de santé des patients du NHS

Etant donné que la collaboration avec Moorfields implique des informations anonymes, Google s’est vu donné la permission d’accéder [à ces informations] via une entente de collaboration en matière de recherche avec l’hôpital, et a publié un protocole de recherche, comme le veut la pratique standard pour les essais cliniques.

Les scannes montrent des détails jusqu’au niveau cellulaire, ce qui est extrêmement pratique. Mais avec un million de ces analyses, cela pourrait prendre un certain temps aux médecins de les traiter manuellement, c’est là que DeepMind intervient.

Ceci prendra probablement un peu de temps avant que les résultats réels soient communiqués, mais si la recherche devient un succès, cela pourrait aider des millions de personnes à travers le monde ayant des risques de maladies oculaires dégénératives.

Traduction Thomas Jousse

The Guardian

Enregistrer