Skip to content

La déclaration de Bletchley pour une IA responsable

Le gouvernement britannique a orchestré un sommet de deux jours couronné de succès, réunissant des dirigeants du monde entier pour convenir d’une position commune sur la sécurité de l’IA.

La conférence visait à assurer l’unité face aux défis sans précédent – à la fois les avantages et les risques – de l’intelligence artificielle (IA).

La secrétaire américaine au commerce, Gina Raimondo, était présente, tout comme la vice-présidente américaine Kamala Harris et le vice-ministre chinois des sciences Wu Zhaohui, parmi d’autres dirigeants de l’UE et du G7.

La réunion à Bletchley Park a également reçu la visite de personnalités de premier plan, dont Elon Musk.

Que s’est-il passé au sommet de Bletchley Park sur la sécurité de l’IA ?

À l’issue du sommet, la déclaration de Bletchley sur l’IA, axée sur la « frontière de l’IA » (une référence aux services d’IA générative tels que ChatGPT), a été signée par 27 pays et l’Union européenne.

Dans le document, un programme en deux points est détaillé pour aborder ce que l’on appelle les « risques liés à l’IA d’avant-garde » :

– Identifier les risques liés à la sécurité de l’IA qui suscitent des inquiétudes communes, en développant une compréhension scientifique commune et fondée sur des preuves de ces risques.

– Compléter cette compréhension au fur et à mesure que les capacités continuent d’augmenter, dans le cadre d’une approche globale plus complète pour comprendre l’impact de l’IA sur nos sociétés.

– Élaborer des politiques respectives fondées sur les risques dans nos pays afin de garantir la sécurité à la lumière de ces risques, en collaborant le cas échéant tout en reconnaissant que nos approches peuvent différer en fonction des circonstances nationales et des cadres juridiques applicables.

Débats autour d’une transparence accrue de la part des acteurs privés qui développent des capacités d’IA d’avant-garde, des mesures d’évaluation appropriées, des outils pour les tests de sécurité, et du développement de capacités et de recherches scientifiques utiles auprès du secteur public.

LIRE AUSSI 🔖  Les Titans de la Tech ont rencontré les législateurs US pour discuter d'IA

Les réactions des principaux leaders d’opinion en matière d’intelligence artificielle dans le monde sont mitigées.

Le professeur Anthony Cohn, professeur à l’université de Leeds et responsable du thème des modèles fondamentaux à l’Alan Turing Institute, a déclaré à Science Media Centre :

« La présente déclaration est très visionnaire, mais, sans surprise, peu détaillée, et il est probable que « le diable sera effectivement dans le détail » pour créer un régime réglementaire efficace au niveau international, qui garantisse un déploiement sûr de l’IA, tout en facilitant les applications bénéfiques.

La participation d’un grand nombre de pays et d’organisations clés dans le monde entier ajoute à la crédibilité de la déclaration. Il s’agit inévitablement de la première d’une longue série d’étapes à franchir et deux autres réunions sont d’ores et déjà prévues au cours de l’année prochaine. »

De son côté, Rashik Parmar, CEO de BCS, The Chartered Institute for IT, a déclaré :

« La déclaration de Bletchley adopte une vision plus positive du potentiel de l’IA à transformer nos vies que beaucoup ne le pensaient, ce qui est également important pour renforcer la confiance du public.

« Je me réjouis également de voir que l’accent est mis sur les questions liées à l’IA qui posent problème aujourd’hui, en particulier la désinformation, qui pourrait donner lieu à des fausses nouvelles personnalisées lors des prochaines élections ; nous pensons que ces questions sont plus urgentes que les spéculations sur les risques existentiels. L’accent mis sur la coopération mondiale est essentiel pour minimiser les différences dans la manière dont les pays réglementent l’IA.

« Après le sommet, nous aimerions que le gouvernement et les employeurs insistent pour que tous ceux qui travaillent dans le domaine de l’IA soient des professionnels agréés et que leurs organisations et eux-mêmes soient tenus de respecter les normes éthiques les plus strictes ».

Ian Hogarth, responsable de la AI Frontier Model Taskforce (groupe de travail sur les modèles d’avant-garde en matière d’IA) au Royaume-Uni :

Marc de Kamps, professeur associé à l’école d’informatique de l’université de Leeds, dont les domaines d’expertise comprennent l’apprentissage automatique, fait remarquer :

« Un moratoire sur l’IA présentant des risques sera impossible à mettre en œuvre. Aucun consensus international ne se dégagera sur la manière dont cela devrait fonctionner. D’un point de vue technologique, il semble impossible de tracer une frontière entre les technologies « utiles » et « risquées », et les experts ne seront pas d’accord sur la manière de les équilibrer.

« Le gouvernement a choisi, à juste titre, de s’engager sur les risques de l’IA, sans être normatif sur la question de savoir si certaines recherches sont interdites.

« Toutefois, le communiqué ne précise pas les moyens d’atteindre ses objectifs et n’est pas assez explicite sur la nécessité d’un engagement avec le public ».

Elon Musk, quant à lui, a partagé une illustration politique, laissant entendre que si la déclaration de Bletchley Park adopte une approche unifiée pour identifier les risques, elle ne fait pas grand-chose pour les empêcher de se produire.

Le bilan

Dans l’ensemble, le sommet sur la sécurité de l’IA semble avoir été un succès significatif sur plusieurs fronts.

Tout d’abord, c’est un succès pour le Premier ministre britannique Rishi Sunak, qui a accueilli le sommet dans le cadre d’un effort diplomatique visant à améliorer la présence du Royaume-Uni sur la scène internationale.

Deuxièmement, le sommet semble avoir réussi à rassembler les principaux acteurs géopolitiques tels que les États-Unis, l’UE et la Chine autour d’une approche commune de la sécurité de l’IA.

Toutefois, il reste à voir si la déclaration de Bletchley Park deviendra un instrument efficace de collaboration internationale sur la sécurité de l’IA, compte tenu du peu de détails et des pouvoirs d’exécution limités.

Un nombre toujours croissant pour la réglementation de l’IA

Ses dernières semaines ont été marquées par de nombreux développements, qu’il s’agisse d’efforts de sensibilisation ou de mesures prometteuses en faveur d’une réglementation de l’IA :

– Le secrétaire général des Nations unies, António Guterres, a inauguré l’organe consultatif de haut niveau sur l’IA, composé de 39 experts du monde entier.

– Le président américain Joe Biden a fait un premier pas important vers la réglementation en publiant un décret sur l’IA, qui prévoit des mesures visant à atténuer les effets néfastes actuels et futurs de l’IA.

– Le même jour, le G7 a publié ses principes directeurs internationaux sur l’IA, ainsi qu’un code de conduite volontaire pour les développeurs d’IA.

– Le chef de la majorité au Sénat américain, Chuck Schumer, a organisé deux autres forums AI Insight. Lors du forum du 24 octobre, Max Tegmark, président de la FLI, a parlé de la possibilité de faire coexister l’innovation et la sécurité de l’IA, mais uniquement par le biais d’une réglementation et d’une surveillance gouvernementales.

Plusieurs campagnes ont suscité des discussions avant le sommet britannique sur la sécurité de l’IA :

Control AI a plaidé avec force pour que le sommet aboutisse à des résultats significatifs. Un récent sondage réalisé pour eux par YouGov a révélé qu’une « majorité décisive » d’électeurs britanniques est favorable à une réglementation gouvernementale de l’IA.

– Une lettre ouverte appelant à un traité international sur l’IA a circulé et a été signée par un certain nombre d’éminents spécialistes de l’IA.

– FLI a élaboré et publié un document présentant les principales recommandations avant l’AI Safety Summit.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.