Skip to content

ICO met en garde les entreprises sur les technologies d’analyse émotionnelle

L’Information Commissioner’s Office (ICO) a demandé aux entreprises de se tenir à l’écart des technologies d' »analyse émotionnelle » sous peine d’amendes, en raison de la nature « pseudo-scientifique » de ce domaine.

C’est la première fois que le régulateur émet un avertissement général sur l’inefficacité d’une nouvelle technologie, a déclaré Stephen Bonner, commissaire adjoint, mais cet avertissement est justifié par le préjudice qui pourrait être causé si les entreprises prenaient des décisions importantes sur des données dénuées de sens.

L’Information Commissioner’s Office (ICO) est une autorité de régulation indépendante du Royaume-Uni en matière de protection des données et de droit à l’information. Il défend les droits à l’information dans l’intérêt du public et la confidentialité des données pour les particuliers.

Les entreprises qui n’agissent pas de manière responsable, présentant des risques pour les personnes vulnérables, ou qui ne répondent pas aux attentes de l’ICO feront l’objet d’une enquête.

Les technologies d’analyse émotionnelle traitent des données telles que le suivi du regard, l’analyse des sentiments, les mouvements du visage, l’analyse de la démarche, les battements de cœur, les expressions faciales et l’humidité de la peau.

Il s’agit par exemple de surveiller la santé physique des travailleurs en proposant des dispositifs de détection portables (wearable) ou d’utiliser des méthodes visuelles et comportementales, notamment la position du corps, la parole, les mouvements des yeux et de la tête, pour inscrire les étudiants aux examens.

L’analyse des émotions repose sur la collecte, le stockage et le traitement d’une série de données personnelles, y compris des réponses comportementales ou émotionnelles subconscientes et, dans certains cas, des données de catégorie spéciale. Ce type d’utilisation des données est beaucoup plus risqué que les technologies biométriques traditionnelles qui sont utilisées pour vérifier ou identifier une personne.

LIRE AUSSI 🔖  Des cartes de vaccination biométriques disponibles pour les camerounais

L’incapacité des algorithmes, qui ne sont pas suffisamment développés pour détecter les signaux émotionnels, signifie qu’il y a un risque de biais systémique, d’inexactitude et même de discrimination.

« Les développements sur le marché de la biométrie et de l’IA émotionnelle sont immatures. Il se peut qu’ils ne fonctionnent pas immédiatement, voire jamais. Bien que des opportunités soient présentes, les risques sont actuellement plus importants. À l’ICO, nous sommes préoccupés par le fait qu’une analyse incorrecte des données pourrait entraîner des hypothèses et des jugements inexacts sur une personne et conduire à une discrimination », déclare Bonner.

« Les seuls déploiements biométriques durables seront ceux qui sont pleinement fonctionnels, responsables et soutenus par la science. En l’état actuel des choses, nous n’avons pas encore vu de technologie d’IA émotionnelle se développer d’une manière qui satisfasse aux exigences de protection des données, et nous nous posons des questions plus générales sur la proportionnalité, l’équité et la transparence dans ce domaine.

« L’ICO continuera de scruter le marché, en identifiant les parties prenantes qui cherchent à créer ou à déployer ces technologies, et en expliquant l’importance du renforcement de la confidentialité des données et de la conformité, tout en encourageant la confiance dans le fonctionnement de ces systèmes. »

L’aide apportée aux entreprises et aux organisations lors du développement de produits et de services biométriques s’inscrit dans une approche de « respect de la vie privée dès la conception », réduisant ainsi les facteurs de risque et garantissant que les organisations opèrent en toute sécurité et légalité.

Des informations supplémentaires sont disponibles dans deux nouveaux rapports qui ont été publiés cette semaine pour aider les entreprises à s’orienter dans l’utilisation des technologies biométriques émergentes.

LIRE AUSSI 🔖  Qu'est-ce que la transformation numérique signifie vraiment ?

L’IA émotionnelle est l’un des quatre sujets que l’ICO a identifiés dans une étude sur l’avenir de la biométrie. Elle est accompagnée d’une autre étude fournissant une introduction sur l’état de la biométrie et de la réglementation au Royaume-Uni.

Exemples d’utilisation actuelle des technologies biométriques :

Les sociétés financières utilisent la reconnaissance faciale pour vérifier les identités des personnes en comparant des pièces d’identité avec photo et un selfie. Les systèmes informatiques vérifient ensuite la probabilité que les documents sont authentiques et que la personne sur les différentes images est la même.

Les aéroports cherchent à simplifier le parcours des passagers en utilisant la reconnaissance faciale à l’enregistrement, au dépôt des bagages en libre-service et aux portes d’embarquement.

D’autres entreprises utilisent la reconnaissance vocale pour permettre aux utilisateurs d’accéder à des plateformes sécurisées au lieu d’utiliser des mots de passe.

Les technologies biométriques devraient également avoir un impact majeur sur les secteurs suivants :

Les secteurs de la finance et du commerce qui déploient rapidement des biométries comportementales et des technologies telles que la voix, la démarche et la forme des veines à des fins d’identification et de sécurité.

Le secteur du fitness et de la santé, qui élargit la gamme des données biométriques qu’il collecte, les appareils électroniques grand public étant réutilisés pour les données de santé.

Le secteur de l’emploi a commencé à déployer la biométrie pour l’analyse des entretiens et la formation du personnel.

L’analyse comportementale dans l’éducation préscolaire devient une préoccupation importante, bien que lointaine.

La biométrie fera également partie intégrante du succès des divertissements immersifs.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.