Skip to content

IA : A notre service, et non à nos dépens

Nous nous dirigeons inexorablement vers un futur automatisé et une intelligence artificielle aux possibilités quasi illimitées. Il nous faut impérativement peser toutes les implications éthiques de cette nouvelle technologie et nous attaquer aux défis légaux et sociaux sans précédent qui risquent d’apparaître.

Les nouvelles technologies nous obligent parfois à nous interroger sur ce qui fait l’homme. C’est en tout cas vrai pour l’intelligence artificielle, dont les implications potentielles sont si considérables qu’elles appellent un effort de réflexion. Voilà des décennies qu’elle hantait notre imagination collective, aujourd’hui elle fait irruption dans nos vies.

Les récents progrès de l’intelligence artificielle, notamment en matière d’apprentissage machine (machine learning) et d’apprentissage profond (deep learning), montrent que ces systèmes peuvent surpasser les hommes dans de nombreux domaines, y compris les tâches exigeant une certaine dose de raisonnement cognitif. L’intelligence artificielle peut donc être une source formidable de progrès et de bienfaits pour l’humanité, mais elle pourrait aussi ébranler les fondements socio-économiques et politiques de la société humaine.

Avant de s’interroger sur les implications éthiques de l’intelligence artificielle, il faut d’abord préciser en quoi elle consiste, aujourd’hui. Lorsqu’on parle d’intelligence artificielle, on entend généralement « l’intelligence artificielle restreinte », ou « l’intelligence artificielle faible », conçue pour accomplir une tâche spécifique : analyser et fluidifier la circulation, recommander des produits en ligne à partir d’achats antérieurs, par exemple. Cette IA faible existe déjà, mais elle va se complexifier et imprégner davantage notre vie quotidienne.

Nous ne parlons pas ici de ce qu’on appelle l’« IA forte » ou l’« IA générale », telle que la dépeignent tant de romans et de films de science-fiction. Elle serait supposément capable d’accomplir toute la gamme des activités cognitives humaines, et même, selon certains experts, d’accéder à un relatif degré de « conscience ». Nous sommes encore loin d’un consensus quant à la faisabilité et aux perspectives de mise en œuvre d’une telle intelligence artificielle.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Une collecte sans fin de données

L’apprentissage machine et l’apprentissage profond exigent une grande quantité de données historiques et de données recueillies en temps réel, si l’on veut que le système d’intelligence artificielle puisse « apprendre » sur la base de son « expérience ». Leur développement a aussi besoin d’infrastructures permettant à l’intelligence artificielle de réaliser ses tâches ou objectifs à partir de ce qu’elle aura appris. Notre réflexion sur les implications éthiques de l’intelligence artificielle doit tenir compte de l’environnement technologique complexe dont elle a besoin pour fonctionner et qui englobe la collecte permanente des données de masse (big data) issues de l’Internet des objets, leur stockage dans le nuage informatique (cloud), leur utilisation par l’intelligence artificielle pour alimenter son processus d’« apprentissage » et la mise en œuvre des analyses ou des activités de l’intelligence artificielle dans les villes intelligentes, les véhicules autonomes, les robots, etc.

Plus le développement technologique devient complexe, plus les questions éthiques qu’il soulève se complexifient. Et si les principes éthiques restent immuables, notre manière de les aborder pourrait changer radicalement, au risque, sciemment ou non, de les remettre gravement en question.

Notre conception de la vie privée, de la confidentialité et de l’autonomie, par exemple, pourrait se trouver totalement transformée. Grâce à des applications ou dispositifs appelés smart (intelligents, malins) qui sont devenus des instruments de la communication des réseaux sociaux comme Facebook ou Twitter, nous divulguons « librement » et volontairement nos informations personnelles, sans pleinement cerner quels usages pourront être faits de ces données, et par qui. Elles sont ensuite transmises à des systèmes d’IA essentiellement développés par le secteur privé.

Ces données restent nominales, si bien que les informations concernant nos préférences et habitudes peuvent être utilisées pour créer des modèles de comportement permettant à l’intelligence artificielle de nous adresser des messages à caractère politique, par exemple, ou de nous vendre des applications commerciales ou encore de stocker des informations concernant notre suivi médical.

Qui a besoin de la démocratie quand on a des données ?

Le meilleur et le pire

Serait-ce la fin de notre vie privée ? Quid de la sécurité et de la vulnérabilité des données aux actions de piratage ? L’État ne pourrait-il pas s’en emparer pour contrôler la population, au probable détriment des droits humains individuels ? Un environnement d’intelligence artificielle qui, à toute heure, surveille nos préférences et s’en sert pour nous proposer différentes options, ne risque-t-il pas de limiter notre liberté de choix et notre créativité ?

Autre question importante : les données utilisées par l’intelligence artificielle pour apprendre ne risquent-elles pas d’être pétries d’idées reçues et de préjugés, pouvant éventuellement entraîner des décisions discriminatoires ou stigmatisantes ? Cela rendrait vulnérables notamment les systèmes d’intelligence artificielle chargés de relations avec le public ou de la distribution de services sociaux. Nous devons être conscients que certaines données, comme celles qui sont produites sur l’Internet, contiennent des informations qui sont le reflet du meilleur comme du pire de l’humanité. Par conséquent, on ne peut pas se fier uniquement à l’intelligence artificielle pour tirer des leçons à partir de ces données sans courir des risques sur le plan éthique. Une intervention humaine directe est indispensable.

De la fin de la vie privée au transhumanisme, le monde selon Google

Peut-on enseigner à l’intelligence artificielle un comportement éthique ? Pour certains philosophes, il est des expériences – notamment d’ordre esthétique et éthique – qui sont inhérentes à l’être humain et, par conséquent, non programmables. D’autres estiment que si la morale peut être rationnelle, c’est qu’elle peut être programmée, mais qu’il convient de respecter la liberté de choisir.

« L’État ne pourrait‑il pas s’emparer des données pour contrôler la population, au probable détriment des droits humains individuels ? »

Actuellement, il n’y a pas consensus sur la question de savoir si l’éthique et la morale peuvent être enseignées aux hommes en s’appuyant uniquement sur la raison. Dès lors, comment y en aurait-il un quand il s’agit de les enseigner à l’intelligence artificielle ! Et en imaginant qu’une intelligence artificielle puisse être un jour programmée pour être éthique, de quelle éthique s’agirait-il ? Celle des développeurs ? Le développement de l’intelligence artificielle est essentiellement entre les mains du secteur privé dont les idées sur l’éthique peuvent ne pas être conformes à celles qui prévalent dans la société.

Pour que l’intelligence artificielle puisse travailler à notre service, et non à nos dépens, nous devons engager un débat de fond qui prenne en compte les points de vue éthiques de tous ceux qui sont concernés. Et, face aux bouleversements qu’elle pourrait provoquer dans la société, veiller à ce que le cadre éthique dans lequel s’inscrira son développement futur prenne en compte aussi la question plus large de la responsabilité sociale.

Spécialiste du programme au sein de la section Bioéthique et éthique des sciences à l’UNESCO, Tee Wee Ang (Malaisie) a travaillé en ingénierie de la conception et en ingénierie de gestion, avant de rejoindre l’Organisation en 2005.

Docteur en psychologie et bioéthique, Dafna Feinholz (Mexique) dirige la section Bioéthique et éthique des sciences à l’UNESCO. Elle a été secrétaire générale de la Commission nationale mexicaine de bioéthique.

Le Courrier de l’UNESCO • juillet-septembre 2018

Quels risques éthiques ?

Marc-Antoine Dilhac répond aux questions de Régis Meyran

L’intelligence artificielle permet d’accroître l’efficacité de certaines mesures discriminatoires qui existent déjà : profilage racial, prédiction de comportement, voire repérage de l’orientation sexuelle des personnes. Les questions éthiques qu’elle soulève ainsi requièrent la mise en place d’une législation capable d’assurer un développement responsable de l’intelligence artificielle.

Intelligence Artificielle : dimensions socio-économiques, politiques et éthiques

Quels problèmes posent les logiciels d’analyse du comportement à partir d’images filmées ?

L’intelligence artificielle contribue à améliorer l’usage préventif des systèmes de vidéosurveillance dans les espaces publics. Désormais les images sont analysées en continu par des logiciels qui détectent les actes d’agression et peuvent rapidement donner l’alerte. Ce nouveau système est expérimenté par exemple dans les couloirs du métro parisien, à la station Châtelet. Si l’on accepte le principe de la vidéosurveillance, le seul problème que pose l’usage de l’intelligence artificielle est le risque d’erreur, et ce risque n’est pas très élevé, puisque ce sont des humains qui doivent prendre la décision finale d’intervenir ou non.

Néanmoins, les erreurs dans la reconnaissance faciale sont très fréquentes. Il suffit d’une perturbation dans l’image pour que l’intelligence artificielle voie un grille-pain au lieu d’un visage ! Le sentiment d’une surveillance abusive et la multiplication des erreurs peuvent devenir particulièrement anxiogènes.

Par ailleurs, il y a lieu de s’inquiéter des dérives qui risquent de découler de ces systèmes intelligents et des méthodes de profilage (racial, social) qu’ils pourraient solliciter.

À quel type de dérives faites-vous allusion ?

Je pense notamment aux programmes, appliqués dans plusieurs pays, visant à identifier les « comportements terroristes » ou le « caractère criminel » de certaines personnes, par le biais de la reconnaissance faciale. Leurs traits de visage dénonceraient donc leur criminalité intrinsèque !

Alarmés par cette résurgence de la physiognomonie, Michal Kosinski et Yilun Wang de l’université de Stanford (États-Unis) ont voulu montrer les dangers de cette théorie pseudoscientifique que l’on croyait reléguée à l’histoire et qui consiste à étudier le caractère d’une personne à partir des traits et des expressions de son visage. Pour attirer l’attention sur les risques d’atteinte à la vie privée, ils ont créé en 2017 le « gaydar », un programme qui vise à identifier les personnes homosexuelles d’après leur photographie ! Selon les auteurs, la marge d’erreur du programme n’est que de 20 %. Outre l’effet de stigmatisation, l’application de cette technologie violerait le droit de chacun à ne pas révéler son orientation sexuelle.

Toute recherche scientifique sans repères philosophiques et sans boussole sociologique ou juridique est susceptible de poser des problèmes éthiques. Ces quelques exemples que je viens d’évoquer montrent qu’il est urgent d’imposer un cadre éthique à la recherche en IA.

Qu’en est-t-il des dérives eugénistes ?

À mon sens, l’intelligence artificielle ne constitue pas a priori un facteur d’eugénisme. Certains prédisent l’avènement d’un monde où l’être humain pourrait être amélioré grâce à l’utilisation de l’intelligence artificielle : puces qui augmentent la mémoire ou perfectionnent la reconnaissance faciale, etc. Si la robotique intelligente peut apporter des solutions médicales à des situations de handicap (rendre la mobilité grâce à des prothèses sophistiquées), l’hypothèse transhumaniste de l’homme augmenté reste quant à elle de l’ordre de la science-fiction.

Professeur adjoint en éthique et philosophie politique à l’Université de Montréal, Marc-Antoine Dilhac (France) est titulaire de la Chaire de recherche du Canada en éthique publique et Co-directeur de l’axe éthique et politique du Centre de recherche en éthique (CRÉ).

Le Courrier de l’UNESCO • juillet-septembre 2018

1 Comment »

  1. Dans « La Guerre des Intelligences », le Docteur Laurent Alexandre fait mention d’un concept d’IA censée avoir été proposé par Gary Gasparov: l’IA Centaure. Il s’agirait d’une IA conçue pour augmenter les capacités d’un humain, une sorte de super assistant personnel qui cataliserait les capacités de l’humain en lui prêtant les siennes.

    Je ne sais comment un tel concept pourrait être réalisé mais on étudie la qustion sur Gryzzly.

    Lire: La théorie du centaure : comment l’homme et la machine iront loin ensemble
    (https://www.gryzzly.io/blog/theorie-centaure-ai-homme/)

En savoir plus sur Intelligence Artificielle et Transhumanisme

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Continue reading

Quitter la version mobile
%%footer%%