À l’aube d’un monde où la technologie nous enferme
Nous sommes à l’aube d’un monde où la technologie peut devenir la cage
La France entre, sans vraie discussion publique, dans une ère où l’identification biométrique, les paiements entièrement numérisés, les caméras « intelligentes » et l’intelligence artificielle envahissent tous les espaces publics et privés. Ce texte est un ultime appel — technique, documenté, sans concession — pour mesurer les risques concrets : perte progressive de libertés, concentration de pouvoirs, normalisation d’une surveillance continue. Il ne s’agit pas d’un fantasme technophobe : ce sont des trajectoires politiques et industrielles déjà en marche.
1) Le spectre du « cash numérique » : souveraineté ou contrôle ?
Le projet d’euro numérique, porté par la BCE et relayé par des gouvernements européens, est présenté comme un moyen d’assurer « la souveraineté des paiements » et la résilience face aux réseaux privés. Cependant, sa mise en œuvre technique peut introduire des capacités inédites de traçage et de contrôle. Sans garanties juridiques et techniques solides, cela pourrait se traduire par des comptes « wallets » gérés par un acteur central, des limites imposées, la tenue de journaux d’opérations, ou encore la possibilité d’ordonner des blocages. Les décideurs parlent de « confidentialité renforcée », mais les architectures centralisées restent des points d’attaque ou de pression politique. La question n’est pas théorique : des décisions politiques récentes ont accéléré les travaux et rapprochent le calendrier de mise en œuvre. (Reuters)
2) Biométrie et reconnaissance faciale : la pente glissante
La France expérimente et diffuse l’usage de technologies biométriques — parfois sans cadre juridique clair ou en dépit de mises en garde. La CNIL a déjà sanctionné des usages policiers et municipaux de la reconnaissance faciale pour non-respect du droit. La tentation est évidente : efficacité policière, « prévention », identification automatique dans les gares, aéroports, stades, transports. La réalité technique, pourtant, est sans ambiguïté — ces systèmes « parfaits » produisent de faux positifs, biaisent selon l’origine et le genre, et permettent une mise en corrélation qui transforme des pratiques ponctuelles en surveillance de masse. (DataGuidance)

technologie de reconnaissance faciale
3) Caméras intelligentes + IA = automatisation de la surveillance
La multiplication des caméras publiques (et leur intégration à des logiciels d’analyse comportementale) crée un maillage persistant. Entre 2013 et 2023, les dispositifs sous le contrôle ont augmenté significativement ; le marché commercial croît également fortement, tant en nombre que en sophistication. L’ajout d’IA — détection d’anomalies, reconnaissance d’actions, classification automatique de comportements — transforme une caméra passive en un « agent » décisionnel capable de déclencher interventions, alertes ou enquêtes. Les systèmes d’analyse vidéo sont souvent opaques, fournis « clés en main » par des entreprises privées, avec peu de contrôle public sur les modèles, les jeux de données, et les seuils d’alerte. (Connexion France)
4) Le prétexte sécuritaire : quand l’exception devient norme
Les technologies de surveillance avancée poussent sous couvert d’événements exceptionnels (grandes manifestations, jeux olympiques, menaces terroristes). Mais l’historique est clair : des dispositifs initiaux « temporaires » demeurent, se généralisent et s’industrialisent. L’argument technique — « nous avons besoin de détection automatisée pour faire face » — masque un choix politique : substituer des processus algorithmiques à des procédures humaines et des contrôles démocratiques. Les exemples internationaux montrent comment la surveillance algorithmique peut servir à réprimer des opposants, contrôler des minorités, ou automatiser la marginalisation. (Lawfare)
5) L’IA réglementée… mais pas étanchée
L’Union européenne a crée un cadre — l’AI Act — qui identifie des catégories d’IA interdites (notamment le « social scoring ») et d’autres « à risque élevé ». C’est un progrès juridique notable. Pourtant, les définitions, les dérogations, et la capacité d’application laissent des fenêtres. Les entreprises et États ont du temps pour déployer des systèmes avant que la régulation ne s’applique strictement ; et l’essentiel se joue dans les normes techniques, la certification des modèles, et l’audit independent — tous sujets pour lesquels la pression industrielle est forte. En clair : la loi peut limiter les pires dérives, mais sans moyens d’audit, sans transparence et sans contrôle public fort, les risques persistent. (Stratégie numérique de l’UE)
6) Concentration technologique et dépendance
Les infrastructures — cloud, modèles d’IA propriétaires, fournisseurs de biométrie — concentrent pouvoir et connaissance. Quand des systèmes critiques (paiements, identité, transports, sécurité) dépendent de quelques acteurs (publics ou privés), la marge d’arbitrage démocratique s’amenuise. Les promesses de « sécurité » servent parfois de levier pour externaliser des décisions : qui décide des seuils d’alerte, des exclusions, des blocages ? Qui corrige un faux positif ? Ces questions sont techniques mais d’abord politiques. (IMF)
7) Risques humains documentés — pas des hypothèses
Les usages abusifs ne sont pas des scénarios de science-fiction. Des rapports internationaux documentent des usages massifs et coercitifs (Xinjiang en Chine), où des algorithmes contrôlent mouvements, identités et accès aux droits fondamentaux. Ces cas servent d’alerte : la technologie existe, elle est transférable, et son adoption sans cadre peut produire des résultats comparables si les garde-fous démocratiques sont faibles. (Human Rights Watch)
Ce qu’il faut exiger — un dernier avertissement pratique
- Transparence totale : publication des architectures techniques, des jeux de données d’entraînement, et des audits indépendants pour tout système d’IA ou biométrique déployé dans l’espace public. (Stratégie numérique de l’UE)
- Interdictions claires : proscription des usages de « social scoring », des rapprochements biométriques automatisés sans mandat judiciaire, et des systèmes de blocage économique automatisé (cas des comptes numériques non contrôlés). (artificialintelligenceact.eu)
- Audit public et sanctions effectives : autorité dotée de pouvoir d’inspection, d’audits techniques et de sanctions financières dissuasives (pas seulement admonestations). La CNIL montre la voie mais a besoin de prérogatives et ressources renforcées. (DataGuidance)
- Décentralisation des moyens de paiement : toute conception d’euro numérique doit être techniquement limitée pour empêcher le traçage transactionnel de masse et garantir des modes hors-ligne et non nominatif à un niveau suffisant. (European Central Bank)
- Droit d’opposition et recours humain : chaque alerte algorithmique qui affecte un citoyen doit déclencher un accès à un recours humain rapide et transparent, avec effacement des données erronées. (artificialintelligenceact.eu)
Conclusion
La technologie n’est pas neutre. Les architectures informatiques, les protocoles de paiement, les modèles d’IA, et les capteurs biométriques portent en eux des choix de pouvoir. Protester n’est pas « être contre le progrès » : c’est exiger que le progrès ne devienne pas la machine qui broie la liberté. Si la société accepte, par résignation ou ignorance, des systèmes opaques et centralisés aujourd’hui, il sera extrêmement coûteux — techniquement et politiquement — de revenir en arrière demain. L’urgence est démocratique autant que technique.

Cyborg head using artificial intelligence to create digital interface on city bokeh background 3D rendering. Credit : sdecoret/Shutterstock
Annexe technique — Technologies de contrôle et risques concrets
1) Euro numérique : architecture et risques de traçage
Principe : L’euro numérique reposerait sur des « wallets » (portefeuilles numériques) liés à une identité, gérés par des intermédiaires (banques, PSP) mais connectés à une infrastructure centrale contrôlée par la BCE.
- Traçabilité intégrale : chaque transaction, même minime, peut être enregistrée dans un registre central, contrairement au cash physique.
- Risque de blocage sélectif : techniquement, un serveur central peut appliquer des restrictions (plafond de dépense, interdiction de certaines catégories de paiement, gel de compte).
- Fonctionnalités hors-ligne : prévues mais limitées (montants plafonnés, synchronisation obligatoire), donc incapables d’assurer un anonymat équivalent aux espèces.
- Faille systémique : si l’autorité centrale ou un fournisseur cloud est compromis (attaque étatique, ransomware, espionnage), la confidentialité et l’accès de millions de citoyens peuvent être affectés.
🔗 Sources : BCE — « Progress on the digital euro » (2023) ; Banque de France — Rapports sur les expérimentations de l’euro numérique
2) Biométrie et reconnaissance faciale : fonctionnement et vulnérabilités
Mécanisme : la reconnaissance faciale repose sur un réseau neuronal qui transforme une image en un vecteur (empreinte faciale), comparé à une base de données.
- Faux positifs / faux négatifs : même avec un taux d’erreur de 0,1 %, l’usage sur des millions de personnes génère des milliers d’erreurs d’identification.
- Biais algorithmiques : sous-représentation de certaines origines dans les jeux de données → sur- ou sous-identification selon le groupe.
- Vulnérabilité aux deepfakes et attaques adversariales : lunettes imprimées avec motifs spécifiques, masques 3D, ou photos HD peuvent tromper les algorithmes.
- Interopérabilité silencieuse : une base construite pour les passeports peut être utilisée dans un autre contexte (vidéosurveillance de masse), sans consentement explicite.
🔗 Sources : CNIL — Avis sur la reconnaissance faciale (2019‑2022, PDF) ; NIST — Face Recognition Vendor Test (FRVT)

Capture « Prédire les crimes » Arte
3) Caméras « intelligentes » + IA d’analyse comportementale
Principe : les caméras envoient le flux vidéo à un algorithme (souvent un modèle CNN ou transformer) qui extrait des caractéristiques (postures, objets, trajectoires).
- Détection de comportements « suspects » : attroupement, course, dépôt d’objet. Ces définitions sont arbitraires et paramétrées par l’éditeur du logiciel, non par la loi.
- Automatisation de la décision : l’IA peut déclencher une alerte immédiate, avec un risque de surcharge pour les opérateurs ou de décisions policières biaisées.
- Manque d’explicabilité : les algorithmes de vision ne permettent pas toujours d’expliquer pourquoi un individu a été marqué comme suspect.
- Dépendance fournisseur : logiciels souvent développés par des entreprises étrangères, hébergés sur des clouds non souverains.
🔗 Sources : Amnesty International — Rapport « Ban the Scan » (PDF) ; CNIL — Analyses techniques sur la vidéosurveillance algorithmique
4) Risques systémiques : de l’exception au standard
- Normalisation : déploiement d’IA sécuritaires pendant des événements (JO 2024, Euro 2028) → infrastructures qui restent en place après.
- Glissement fonctionnel : la « détection d’objets dangereux » peut évoluer vers le suivi en continu d’individus.
- Absence d’opt-out citoyen : impossibilité pratique d’éviter la captation (on ne peut pas refuser d’être filmé dans un espace public saturé).
🔗 Sources : Conseil d’État — Avis sur le projet de loi relatif aux Jeux Olympiques et Paralympiques de 2024 ; La Quadrature du Net — Analyses juridiques sur la loi JO 2024 : Dossier PDF sur la vidéosurveillance algorithmique (VSA) et les JO 2024 ; Analyse : « La France, premier pays d’Europe à légaliser la surveillance biométrique »
5) Audit et certification d’IA : limites actuelles
- AI Act européen : impose des obligations (documentation, registres, audits) pour les IA « à haut risque ».
- Limites pratiques :
- Pas de protocole technique standardisé d’audit → dépend des auto-déclarations des fournisseurs.
- Auditeurs souvent privés, sans publication publique des rapports.
- Délais d’application : entrée en vigueur progressive jusqu’à 2026-2027, laissant plusieurs années de déploiement sans garde-fous stricts.
🔗 Sources : Parlement européen — Règlement AI Act (2024, PDF officiel)
6) Scénarios de dérives concrètes
- Blocage économique ciblé : un citoyen critique du gouvernement voit ses paiements numériques « temporairement suspendus » sous prétexte d’anomalie ou d’erreur technique.
- Fichage automatisé : présence répétée dans des manifestations identifiée par reconnaissance faciale → classement « risque de trouble ».
- Profilage commercial / assurantiel : données croisées (caméras, paiements, biométrie) utilisées pour ajuster primes, refuser un contrat.
- Usage militaire ou policier : drones urbains autonomes avec identification biométrique et croisement avec fichiers nationaux.
Ces scénarios ne sont pas de la science-fiction : ils sont déjà observés en Chine, en Russie, ou dans certains projets pilotes en Europe.
Points clés de vigilance technique
- Exiger des modes hors-ligne et anonymes pour tout euro numérique.
- Imposer l’interdiction légale et technique de l’interopérabilité sauvage des bases biométriques.
- Mettre en place des protocoles d’audit open source pour les IA utilisées en sécurité publique.
- Renforcer les capacités de la CNIL et d’autorités indépendantes pour vérifier les codes, pas seulement les rapports déclaratifs.






