Les systèmes d’IA devraient être responsables, explicables et impartiaux, selon l’UE
L’Union européenne a publié de nouvelles lignes directrices sur le développement de l’IA éthique
L’Union européenne a publié aujourd’hui un ensemble de lignes directrices sur la manière dont les entreprises et les gouvernements devraient développer des applications éthiques de l’intelligence artificielle.
Les règles abordent les problèmes troubles et diffus qui affecteront la société à mesure que nous intégrerons l’IA dans des secteurs tels que les soins de santé, l’éducation et les technologies grand public.
Ainsi, par exemple, si un système d’IA vous diagnostique un jour ou l’autre un cancer, les lignes directrices de l’UE voudraient s’assurer qu’un certain nombre de choses se produisent : que le logiciel ne soit pas biaisé par votre race ou votre sexe, qu’il ne passe pas outre aux objections du médecin humain et qu’il donne au patient la possibilité de se faire expliquer son diagnostic.
Pour atteindre cet objectif, l’UE a réuni un groupe de 52 experts qui ont défini sept exigences auxquelles, selon eux, les futurs systèmes d’IA devraient répondre.
Facteur humain et contrôle – L’IA ne doit pas empiéter sur l’autonomie humaine. Les gens ne devraient pas être manipulés ou forcés par les systèmes d’IA, et les humains devraient être en mesure d’intervenir ou de superviser chaque décision prise par le logiciel.
Robustesse et sécurité techniques – L’IA doit être sûre et précise. Elle ne devrait pas être compromise par des attaques externes, et elle devrait être raisonnablement fiable.
Confidentialité et gouvernance des données – Les données personnelles recueillies par les systèmes d’IA doivent être sécurisées et privées. Elles ne doivent pas être accessibles à n’importe qui et ne doivent pas être dérobées facilement.
Transparence – Les données et les algorithmes utilisés pour créer un système d’IA devraient être accessibles et les décisions prises par le logiciel devraient être « comprises et analysées par les êtres humains ». En d’autres termes, les opérateurs devraient être en mesure d’expliquer les décisions prises par leurs systèmes d’IA.
Diversité, non-discrimination et équité – Les services fournis par l’intelligence artificielle devraient être accessibles à tous, sans distinction d’âge, de sexe, de race ou autres caractéristiques. De même, les systèmes ne devraient pas être biaisés dans ce sens.
Bien-être environnemental et sociétal – Les systèmes d’IA devraient être durables (c.-à-d. qu’ils devraient être écologiquement responsables) et « favoriser un changement social positif ».
Responsabilisation – Les systèmes d’IA devraient être vérifiables et couverts par les protections existantes pour les lanceurs d’alerte d’entreprises. Les impacts négatifs des systèmes devraient être identifiés et signalés à l’avance.
Ces lignes directrices ne sont pas juridiquement contraignantes, mais elles pourraient façonner toute législation future élaborée par l’Union européenne. L’UE a déclaré à plusieurs reprises qu’elle voulait être un chef de file en matière d’intelligence artificielle éthique, et elle a montré avec GDPR qu’elle était prête à créer des lois d’une grande portée pour protéger les droits numériques.
Mais ce rôle a été en partie imposé à l’UE par les circonstances. Elle ne peut rivaliser avec l’Amérique et la Chine – les leaders mondiaux de l’intelligence artificielle – en matière d’investissement et de recherche de pointe, c’est pourquoi elle a choisi l’éthique comme sa meilleure option pour façonner l’avenir de la technologie.
Dans le cadre de cet effort, le rapport d’aujourd’hui comprend ce que l’on appelle une « liste d’évaluation fiable de l’IA » – une liste de questions qui peuvent aider les experts à déterminer les points faibles ou les dangers potentiels des logiciels d’IA. Cette liste comprend des questions telles que « Avez-vous vérifié le comportement de votre système dans des situations et des environnements inattendus » et « Avez-vous évalué le type et la portée des données dans votre ensemble de données ?
Ces listes d’évaluation ne sont que préliminaires, mais l’UE recueillera les réactions des entreprises dans les années à venir, avec un rapport final sur leur utilité prévu pour 2020.
Fanny Hidvégi, responsable des politiques européennes au sein du groupe de défense des droits numériques Access Now et experte qui a contribué à la rédaction des lignes directrices, a déclaré que la liste d’évaluation était la partie la plus importante du rapport. « Il fournit une perspective pratique et tournée vers l’avenir » sur la façon d’atténuer les méfaits potentiels de l’IA. « Selon nous, l’UE a le potentiel et la responsabilité d’être à l’avant-garde de ce travail », a déclaré Hidvégi.
D’autres doutent que la tentative de l’Union européenne de définir le développement de l’intelligence artificielle globale par le biais de la recherche en éthique ait un impact considérable.
« Nous sommes sceptiques quant à l’approche adoptée, à l’idée qu’en créant une norme d’excellence pour l’IA éthique, qu’elle confirmera la place de l’UE dans le développement mondial de l’IA », a déclaré Eline Chivot, analyste principal des politiques au sein du groupe de réflexion Center for Data Innovation, à The Verge. « Pour être un leader de l’IA éthique, il faut d’abord diriger l’IA elle-même. »
L’ethique et l’accord du patient sont essentiels. Merci d’y veiller dans l’intérêt de tous.
Avec ses lignes directrices non contraignantes, le Cadre institutionnel de l’UE énonce l’objectif à atteindre en matière de qualité dans le domaine de l’IA. Ces principes de bon sens trouveraient tout leur sens si le Cadre institutionnel européen les appliquaient à ses propres programmes de recherche sur l’IA.