Les initiateurs de la lettre ouverte constatent que l’intelligence artificielle a quitté sa phase de laboratoire: les développements dans le domaine de l’AI génèrent une valeur économique toujours plus importante. Les avantages potentiels des applications sont grands. Le bannissement de la maladie et de la misère n’est ainsi pas impossible, selon eux.

Jusqu’à présent, l’accent dans la recherche sur l’AI était essentiellement mis sur le développement des techniques sous-jacentes. Il est temps à présent aussi de consacrer de l’attention à la maximalisation de l’utilité sociale et à des méthodes capables de garantir que les systèmes AI feront ce que les humains veulent qu’ils fassent, selon les initiateurs.

Ce souhait, évident s’il en est, se traduit par un agenda de recherche soulignant que les effets de l’introduction de systèmes AI ne sont pas favorables par définition. Les initiateurs se font en effet du souci quant aux conséquences économiques, aux aspects juridiques et esthétiques, ainsi qu’à la robustesse des techniques sous-jacentes. Ils lancent un appel à une recherche plus poussée sur l’impact de l’introduction de l’intelligence artificielle sur le marché du travail et dans certaines branches de l’activité économique, ainsi que sur les mesures politiques effectives quant à un scénario du futur, où ne subsisterait que trop peu de travail pour l’ensemble des acteurs de la société.

Sur les plans juridique et éthique, il convient d’apporter des réponses à des questions comme qui est tenu pour responsable en cas d’accident avec une voiture sans chauffeur, ou à propos d’armes autonomes conformes ou non au droit de guerre et pouvant être considérés comme telles, ou encore quels aspects en matière de respect de la vie privée sont menacés par l’utilisation de systèmes AI.

Au niveau de la robustesse, les questions portent sur la vérification (le système satisfait-il aux exigences posées?), la validité (faut-il exclure le fait que le système affiche un comportement non désirable?), la sécurité (éviter la manipulation du système par des tiers non-habilités) et le contrôle (comment faire en sorte que l’humain garde le contrôle du système AI, s’il est utilisé en entreprise?).

Ce que le Future of Life Institute n’aborde pas, c’est le fait que ces défis ont aussi un côté de politique sociale. La recherche sur les aspects économiques, juridiques et éthiques est nécessaire, mais elle doit aussi se traduire en adaptations de la législation, comme par exemple dans notre système social, notre enseignement, etc. Les défis visés par les initiateurs dans le domaine de l’AI même, requièrent davantage d’attention, y compris de la classe politique.

Pour n’en citer qu’un : si l’on envisage l’état délabré de la sécurité d’internet et les possibilités qui en résultent en vue de saboter des installations de production industrielle, l’on doit se demander sérieusement dans quelles conditions, l’on souhaite connecter des systèmes AI à internet. Il serait bon que les politiciens se penchent sur le sujet, avant que les premiers incidents sérieux se manifestent.

Entre-temps, les chercheurs en AI ont bien pris conscience du besoin de prendre sérieusement la mesure de l’intelligence artificielle. La lettre ouverte du Future of Life Institute a déjà été signée par un grand nombre de personnes, essentiellement du domaine de l’AI. Les noms les plus connus sur cette liste sont ceux de Stephen Hawking et du fondateur de Tesla, Elon Musk, qui avaient précédemment déjà exprimé leur inquiétude au sujet des aspects potentiellement négatifs de l’AI, mais aussi celui d’Erik Brynjolfsson, qui attire l’attention depuis des années déjà sur la recherche des effets de l’IT en général sur l’économie et le marché du travail.

source