Les systèmes d’IA devraient être responsables, explicables et impartiaux, selon l’UE

L’Union européenne a publié de nouvelles lignes directrices sur le développement de l’IA éthique

L’Union européenne a publié aujourd’hui un ensemble de lignes directrices sur la manière dont les entreprises et les gouvernements devraient développer des applications éthiques de l’intelligence artificielle.

Les règles abordent les problèmes troubles et diffus qui affecteront la société à mesure que nous intégrerons l’IA dans des secteurs tels que les soins de santé, l’éducation et les technologies grand public.

Ainsi, par exemple, si un système d’IA vous diagnostique un jour ou l’autre un cancer, les lignes directrices de l’UE voudraient s’assurer qu’un certain nombre de choses se produisent : que le logiciel ne soit pas biaisé par votre race ou votre sexe, qu’il ne passe pas outre aux objections du médecin humain et qu’il donne au patient la possibilité de se faire expliquer son diagnostic.

Pour atteindre cet objectif, l’UE a réuni un groupe de 52 experts qui ont défini sept exigences auxquelles, selon eux, les futurs systèmes d’IA devraient répondre.

Facteur humain et contrôle – L’IA ne doit pas empiéter sur l’autonomie humaine. Les gens ne devraient pas être manipulés ou forcés par les systèmes d’IA, et les humains devraient être en mesure d’intervenir ou de superviser chaque décision prise par le logiciel.

Robustesse et sécurité techniques – L’IA doit être sûre et précise. Elle ne devrait pas être compromise par des attaques externes, et elle devrait être raisonnablement fiable.

Confidentialité et gouvernance des données – Les données personnelles recueillies par les systèmes d’IA doivent être sécurisées et privées. Elles ne doivent pas être accessibles à n’importe qui et ne doivent pas être dérobées facilement.

Transparence – Les données et les algorithmes utilisés pour créer un système d’IA devraient être accessibles et les décisions prises par le logiciel devraient être “comprises et analysées par les êtres humains”. En d’autres termes, les opérateurs devraient être en mesure d’expliquer les décisions prises par leurs systèmes d’IA.

Diversité, non-discrimination et équité – Les services fournis par l’intelligence artificielle devraient être accessibles à tous, sans distinction d’âge, de sexe, de race ou autres caractéristiques. De même, les systèmes ne devraient pas être biaisés dans ce sens.

Bien-être environnemental et sociétal – Les systèmes d’IA devraient être durables (c.-à-d. qu’ils devraient être écologiquement responsables) et “favoriser un changement social positif”.

Responsabilisation – Les systèmes d’IA devraient être vérifiables et couverts par les protections existantes pour les lanceurs d’alerte d’entreprises. Les impacts négatifs des systèmes devraient être identifiés et signalés à l’avance.

Ces lignes directrices ne sont pas juridiquement contraignantes, mais elles pourraient façonner toute législation future élaborée par l’Union européenne. L’UE a déclaré à plusieurs reprises qu’elle voulait être un chef de file en matière d’intelligence artificielle éthique, et elle a montré avec GDPR qu’elle était prête à créer des lois d’une grande portée pour protéger les droits numériques.

Mais ce rôle a été en partie imposé à l’UE par les circonstances. Elle ne peut rivaliser avec l’Amérique et la Chine – les leaders mondiaux de l’intelligence artificielle – en matière d’investissement et de recherche de pointe, c’est pourquoi elle a choisi l’éthique comme sa meilleure option pour façonner l’avenir de la technologie.

Dans le cadre de cet effort, le rapport d’aujourd’hui comprend ce que l’on appelle une “liste d’évaluation fiable de l’IA” – une liste de questions qui peuvent aider les experts à déterminer les points faibles ou les dangers potentiels des logiciels d’IA. Cette liste comprend des questions telles que “Avez-vous vérifié le comportement de votre système dans des situations et des environnements inattendus” et “Avez-vous évalué le type et la portée des données dans votre ensemble de données ?

Ces listes d’évaluation ne sont que préliminaires, mais l’UE recueillera les réactions des entreprises dans les années à venir, avec un rapport final sur leur utilité prévu pour 2020.

Fanny Hidvégi, responsable des politiques européennes au sein du groupe de défense des droits numériques Access Now et experte qui a contribué à la rédaction des lignes directrices, a déclaré que la liste d’évaluation était la partie la plus importante du rapport. “Il fournit une perspective pratique et tournée vers l’avenir” sur la façon d’atténuer les méfaits potentiels de l’IA. “Selon nous, l’UE a le potentiel et la responsabilité d’être à l’avant-garde de ce travail”, a déclaré Hidvégi.

D’autres doutent que la tentative de l’Union européenne de définir le développement de l’intelligence artificielle globale par le biais de la recherche en éthique ait un impact considérable.

“Nous sommes sceptiques quant à l’approche adoptée, à l’idée qu’en créant une norme d’excellence pour l’IA éthique, qu’elle confirmera la place de l’UE dans le développement mondial de l’IA”, a déclaré Eline Chivot, analyste principal des politiques au sein du groupe de réflexion Center for Data Innovation, à The Verge. “Pour être un leader de l’IA éthique, il faut d’abord diriger l’IA elle-même.”

L’UE se rapproche de l’obligation d’apposer des données biométriques sur les CNI

La présidence du Conseil de l’UE et le Parlement européen sont parvenus à un accord informel sur l’introduction de cartes d’identité nationales biométriques obligatoires comprenant une photo et deux empreintes digitales.

Le règlement applique de nouvelles normes aux cartes d’identité des citoyens de l’UE et aux documents de séjour des citoyens de l’UE et des membres de leur famille qui ne font pas partie de l’UE, et il sera transmis aux ambassadeurs de l’UE pour confirmation au nom du Conseil. Les membres de l’UE cesseront de délivrer les anciennes cartes d’identité deux ans après l’adoption du règlement. Les anciennes cartes deviendront caduques après 10 ans, si elles ne sont pas déjà périmées, bien que des exceptions soient prévues pour les citoyens âgés.

Les cartes d’identité devront être produites dans un format carte de crédit uniforme (ID-1), avec une zone de lecture via une machine, conforme aux normes de sécurité fixées par l’OACI (Organisation de l’aviation civile internationale), une puce sans contact et le code pays de l’État membre ayant délivré la carte. Lorsque l’exigence d’une carte d’identité biométrique a été proposée, la Commission européenne a estimé que 80 millions d’Européens avaient des cartes d’identité sans données biométriques qui n’étaient pas lisibles par une machine.

“Il ne sera possible de garantir la sécurité dans l’ensemble de l’UE qu’en assurant la sécurité dans chaque État membre”, a déclaré la ministre roumaine de l’Intérieur, Carmen Daniela Dan. “Les nouvelles règles relatives aux normes de sécurité pour les documents d’identité nous permettront de détecter plus facilement la fraude documentaire et l’usurpation d’identité; il sera ainsi plus difficile aux terroristes et aux criminels d’agir, tandis que la libre circulation des voyageurs authentiques sera facilitée”.

Les ambassadeurs auprès de l’UE ont également confirmé un accord antérieur visant la modification du code des visas, ce qui constitue un pas de plus vers la mise en œuvre de nouvelles règles exigeant l’enregistrement biométrique des détenteurs de visas de long séjour et des résidents permanents.

Pour une intelligence artificielle européenne

Depuis que l’on parle d’intelligence artificielle, l’Europe n’a jamais été aussi critiquée, ridiculisée et condamnée. De nombreux leaders d’opinion donne parfois l’impression d’être que de simples lanceurs d’alertes plutôt d’acteurs qui essaient de bousculer l’ordre établit. L’Europe est devenu une colonie numérique à force de rester attentiste, en simple observateur et dans le débat permanent, mettant en péril toutes actions permettant de faire face aux GAFA et aux BATX.

Ne nous voilons pas la face, l’Europe a perdu la première bataille de l’intelligence artificielle, nous avons un retard important sur les Etats-Unis et la Chine, mais la situation est-elle vraiment irréversible ?

Retrouver notre indépendance par l’autosuffisance

L’Europe doit gagner son indépendance numérique par l’autosuffisance au détriment d’une certaine conception de la mondialisation qui n’est partagée que par elle seule. La fusion entre Alstom et Siemens est un bon exemple, refusée par la Commission Européenne parce que jugée néfaste pour la concurrence, elle déroule le tapis rouge au géant chinois CRRC à la porte du marché Européen. Mener cette politique à l’échelle de l’intelligence artificielle reviendrait à nous condamné à l’asservissement par les GAFA et les BATX sous l’œil de Pékin.

La taxe GAFA n’est qu’une fausse solution à très faible impact au regard d’entreprises plus puissantes que certains états. La loi RGPD ne bouleverse que très peu le fonctionnement des géants numériques et ne fait qu’affaiblir notre capacité à développer des IA Européennes performantes. Arrêtons cette folie auto-castratrice qui conduit l’Europe à sa perte.

Dans sa tribune du 10 février 2019 dans le Journal Du Dimanche, André Loesekrug-Pietri, porte parole de la Joint European Disruptive Initiative (J.E.D.I.), félicite Angela Merkel d’avoir supprimé son compte Facebook, signe selon lui, d’un mouvement d’indépendance vis-à-vis des GAFA. Par la même, il incite Emmanuel Macron à prendre le pas et à boycotter ces entreprises américaines omniprésentes dans nos vies. La réflexion est louable mais la solution est à mon sens très (trop) radicale. Gandhi a, entre autre action, commencé par tisser ses propres étoffes avant de boycotter les importations britanniques pour obtenir l’indépendance de l’Inde.

Aujourd’hui, l’Europe ne compte aucune solution viable face aux GAFA : c’est une réalité. Il faut valoriser et renforcer nos acteurs, comme par exemple Qwant pour nos recherches en ligne. Disons stop à l’European Tech Bashing ! L’Europe doit réussir à créer des « Airbus du numérique » par une mutation politique et une nouvelle approche économique.

Procéder à la plus grande mutation politique de notre histoire

L’IA Européenne ne peut exister qu’à travers la mixité paritaire entre politiciens, chercheurs, ingénieurs et entrepreneurs au sein même de la Commission Européenne. L’une des problématiques majeures est l’incompréhension des enjeux de la technologie de la classe politique actuellement au pouvoir.

Donald Trump a lancé le 11 février son “American AI Initiative“, un décret présidentiel exigeant au gouvernement fédéral de consacrer plus d’investissements dans l’intelligence artificielle. Cette initiative révèle à mon sens d’une situation de panique du pouvoir, en effet, très peu de détails opérationnels ont été annoncées sur la stratégie globale, le libre-échange numérique, la réglementation de la collecte des données, etc. Encore un super effet d’annonce pour essayer d’intimider la Chine dans le cadre de la guerre commerciale en cours, mais aux Etats-Unis, les véritables puissances de l’intelligence artificielle, sont des acteurs privés surpuissants rendant l’incapacité politique marginale.

Ce modèle présente toutefois des risques, donner le plein pouvoir à la poignée de ceux que l’on appelle les aristocrates de l’intelligence artificielle, provoquerait à mon sens, une régression sociale sans précédent.

Il ne faut pas sous-estimer l’importance de l’implication politique dans cette guerre de l’intelligence artificielle, l’un des plus grand avantages des BATX est sa participation au projet politique du pouvoir en place. Eh oui ! Jack Ma, co-fondateur d’Alibaba a bien sa carte Membre du parti Communiste Chinois et est un proche du pouvoir.

L’implication d’une nouvelle classe politique pluridisciplinaire autour d’une stratégie « IA First » favorisera nettement le développement d’une nouvelle force technologique européenne.

Multiplier les investissements et gagner la bataille des talents

La Chine va investir 150 milliards d’ici 2030 et parmi les GAFA, Amazon investit 18 milliards par an. L’Europe doit se montrer en capacité d’apporter des investissements conséquents pour financer sa recherche et son développement. Malheureusement, rien qu’en France nos investissements liés à la recherche sont trop faible, la politique budgétaire d’une super puissance économique privée et bien différente de celle d’un pays. Nous devons trouver de nouveaux financements, en réinventant en partie l’utilisation des impôts qui représentent 95 % des recettes de l’état. Alors que nous sommes en plein Grand Débat, à aucun moment nous parlons des enjeux technologiques qui auront, dans les prochaines décennies, des conséquences économiques et sociales dévastatrices ! Plus que vouloir des suppressions massives d’impôts, réfléchissons plutôt à des dépenses publiques plus pertinentes à travers des fonds dédiés à la recherche et aux développements des technologies NBIC à la hauteur de nos concurrents. En effet, dans 10 ans ce sera trop tard et l’effet Gilets Jaunes sera multiplié par 1000.

Sur le plan stratégique, entre 2012 et 2017, Google a cumulé 12 acquisitions, Apple s’est offert 7 start-ups et Facebook en a racheté 5 pendant qu’IBM élargit l’offre de Watson grâce à 3 start-ups spécialisées. La guerre de l’intelligence artificielle se joue aussi sur le terrain des acquisitions : les leaders industriels Européens doivent attaquer le marché de manière plus agressive, pas seulement sur son territoire, mais aussi à l’étranger et notamment au Moyen-Orient. Israël, la Start-Up Nation, est un vivier de talents et de R&D important exploité quasi exclusivement par les Etats-Unis.

Le nombre d’annonces d’emplois liées à l’intelligence artificielle a bondi de 149 % aux Etats-Unis en 2018. La guerre de l’intelligence artificielle est aussi une guerre de talents et d’attractivité. Cédric Villani, député en charge de la mission sur l’intelligence artificielle, explique que la fuite des talents français vers l’étranger est le phénomène le plus préoccupant. Pour faire face à cette fuite des cerveaux, le rapport sur l’intelligence artificielle préconise ainsi de revaloriser les carrières des chercheurs, notamment en doublant le salaire en début de carrière.

Toutefois, la fuite des experts français en IA ne s’explique pas seulement par les salaires attractifs, mais également par les conditions de travail meilleures que celles proposées par les acteurs français en matière de démarches administratives, de recrutement, d’achat de matériel, etc.

Créer une IA des lumières pour faire face à l’obscurantisme

Bien plus qu’une problématique économique et politique, le vieux continent, par son histoire riche, a le devoir d’éclairer le monde d’une IA des lumières.

En 2016, l’intelligence artificielle de Microsoft est devenu raciste au contact des internautes. En 2018 l’intelligence artificielle de Google confond messages de haine et messages d’amour rendant l’algorithme générateur de Fake News et de sentiment haineux sur les réseaux sociaux. La reconnaissance faciale fait preuve de sexisme, de racisme et d’homophobie. Nous pouvons bien évidemment penser que ce sont de simples dysfonctionnements du système, mais il n’en est rien. C’est un usage irréfléchi d’un algorithme qui reste extrêmement influençable à son environnement et qui n’a aucune notion de la morale. Or, n’est-il pas de notre devoir, nous Européen, de construire une IA basée sur la notion de morale avant tout ?

Nous parlons énormément de l’intelligence artificielle et de l’emploi sous le prisme du remplacement mais peu sous celui du rapport Homme-Machine. Une IA d’Amazon permet de manager les salariés pour les amener à des performances extrêmes. Avec cette technologie, nous observons une nouvelle forme relationnelle avec la machine, un management proche de l’esclavage.

Il est de notoriété publique que la Chine utilise l’intelligence artificielle à des fins autoritaires et liberticides. Depuis mai 2018, un système de crédit social a pour objectif de noter la réputation des citoyens. Si les « bons citoyens » sont encouragés à partager leurs notes sur leurs réseaux sociaux pour obtenir plus facilement un emploi ou un emprunt, le système se retourne contre ceux dont l’attitude ne correspond pas aux attentes du gouvernement. Plusieurs millions d’utilisateurs des transports ferroviaires ou aériens sont interdits de voyage suite à un mauvais comportement en ligne et les restrictions menacent aussi l’accès au logement ou à la scolarisation des enfants.

La nécessité d’une IA Européenne, vous l’aurez compris, n’est pas uniquement politique ou économique, c’est avant tout une alternative pour l’avenir de notre civilisation. Il est temps de développer un écosystème favorable au développement de l’intelligence artificielle par une mutation politique et des efforts économiques importants. L’Europe a perdu un bataille mais peu encore gagner la guerre de l’intelligence artificielle.

La Chine pourrait devenir le leader mondial des recherches sur l’IA

La Chine dépassera l’Europe en termes de production de documents de recherche sur l’intelligence artificielle dans les quatre prochaines années si les tendances actuelles se maintiennent, selon un rapport publié par Elsevier.

Le rapport révèle que les États-Unis, qui abritent des géants de la technologie tels que Google, Amazon et Facebook, ont réussi à attirer les meilleurs talents en intelligence artificielle. Il montre également que la recherche aux États-Unis est en train de passer des milieux universitaires aux opérations de recherche au sein de grandes entreprises technologiques.

La Chine a commencé à dépasser les recherches américaines en nombre de documents publiés en 2004, a indiqué le rapport.

“La Chine aspire à devenir le leader mondial en matière d’intelligence artificielle et s’appuie sur des politiques nationales ambitieuses”, indique le rapport. « Les chercheurs chinois en intelligence artificielle pensent que l’environnement de recherche est attrayant. L’Intelligence artificielle chinoise se concentre sur la vision par ordinateur et ne dispose pas d’un traitement du langage naturel dédié et pôle de représentation des connaissances, y compris la reconnaissance vocale, peut-être parce que ce type de recherche en Chine est réalisée par des sociétés qui ne peuvent pas publier autant d’articles scientifiques.

Outre des recherches de plus en plus nombreuses menées par des entreprises telles que Baidu et Tencent, la Chine abrite certaines des sociétés d’IA les mieux financées sur la planète.

Plus tôt cette semaine, par exemple, il a été annoncé que la société mère de Face ++, Megvii, chercherait à lever 500 millions de dollars supplémentaires pour une valorisation de 3,5 milliards de dollars.

En plus des rapports du Future Today Institute et du rapport annuel sur les tendances Internet qui décrivent la domination croissante de l’intelligence artificielle en Chine, des sommités technologiques telles que le Dr Kai-Fu Lee et l’ancien chef des opérations de Baidu, Qi Lu – qui ont occupé des postes de direction dans les plus grandes entreprises de technologie aux États-Unis et en Chine – ont prédit que les initiatives d’intelligence artificielle chinoises dépasseraient celles d’autres régions du monde dans les années à venir.

La Chine, prochaine superpuissance de l’intelligence artificielle?

Malgré le nombre total d’articles publiés, les travaux de recherche sur l’IA en Chine n’ont pas vu autant de citations parmi leurs pairs, une tendance qui pourrait être un symptôme de portée régionale plutôt que mondiale, révèle le rapport.

Globalement, le nombre d’articles de recherche sur l’intelligence artificielle publiés a augmenté de 12,9% au cours des cinq dernières années, tandis que les pré-impressions d’Arxiv dans des domaines clés de l’intelligence artificielle, tels que le traitement du langage naturel et la vision par ordinateur, ont augmenté de 37% au cours des cinq dernières années.

L’Inde figure actuellement au troisième rang des publications de recherche sur l’IA, derrière les États-Unis et la Chine. L’Allemagne et le Japon se classent aux cinquième et sixième rangs mondiaux pour la production de documents de recherche sur l’IA, tandis que l’Iran, au neuvième rang, se classe aux côtés de pays comme la France et le Canada.

Les catégories de publications qui ont connu la plus forte croissance au cours de cette période comprennent le machine learning et le raisonnement probabiliste, la vision par ordinateur et les réseaux de neurones.

L’Europe occupe actuellement la première place mondiale en matière de publications scientifiques sur l’intelligence artificielle, selon le rapport.

Le rapport annuel sur l’état des technologies européennes, publié l’année dernière par la société de capital-risque Atomico, préconisait de resserrer les liens entre le secteur des technologies de la région et les instituts de recherche afin de concurrencer la Chine et les États-Unis.

Venturebeat

« iBorderCtrl» ou la sécurité totale

On a l’habitude de parler de la Chine comme le champion des caméras à reconnaissance faciale. La Commission Européenne a mis au point depuis 2016 une technologie dîte de « contrôle intelligent » qui va être testée pendant neuf mois jusqu’à août 2019 sur trois frontières de l’Union Européenne (Grèce, Hongrie, Lettonie) sur la base du volontariat. Elle est financée par le programme européen de recherche et d’innovation Horizon 2020 à hauteur de 4,5 Millions d’euros. Aucune loi nationale ou européenne n’autorisant à l’heure actuelle un tel dispositif, les volontaires à cet essai doivent signer un consentement éclairé. Le projet, « conscient des dimensions éthiques et légales » travaille en « étroite proximité avec un conseiller en éthique »1.

Comme l’explique aussi le site de la Commission Européenne, la procédure se fait en deux étapes. Le voyageur – dûment informé de ses droits et découragé d’entreprendre des activités illégales – remplira d’abord un formulaire en ligne et téléchargera ses documents officiels (passeport, visa, preuves de fonds) avant de répondre devant une webcam à des questions personnalisées. Ses réponses seront analysées par un système « détecteur de mensonges » qui vérifiera si elles sont en adéquation avec les expressions du visage à l’aide de 38 micromouvements indétectables par un être humain. A partir de ces résultats, le voyageur sera dirigé soit vers une file à « bas risque », soit vers une file à « haut risque »2.

Ses opposants lui reprochent son taux d’erreur (le système ne détecterait que 76% des menteurs) ainsi que le risque de répandre des technologies de reconnaissance faciale à caractère racial3. Ces arguments supposent-ils qu’un détecteur de mensonges 100 % fiable et garanti non raciste serait légitime ? Ces objections seraient d’ailleurs en voie de résolution, puisque le système prétend devoir être encore amélioré afin d’atteindre une meilleure fiabilité, et qu’il n’est pas supposé être destiné à la prise de décision mais seulement à être un « indicateur de risque ».

Le risque de quoi ? Lisons plutôt les justifications du projet sur son propre site. Il s’agit, nous dit-on, de simplifier et accélérer les processus de contrôle aux frontières, de diminuer les coûts, d’améliorer la sécurité en combinant différentes technologies, de diminuer l’immigration illégale et les activité criminelles. En effet, explique le site sans la moindre fausse pudeur, « la croissance continue des flux combinée avec la menace croissante d’immigration illégale exercent aujourd’hui une pression considérable aux postes de frontière. Les passages de frontière ralentis entravent la satisfaction des voyageurs, les affaires et le commerce4

Le site précise qu’il s’agit d’un système interdisciplinaire unifié convergeant vers un système global [overall system] comprenant :

1) un détecteur de mensonge automatique ;
2) un module biométrique lisant les empreintes de doigts et de veines ;
3) un outil de reconnaissance faciale ;
4) un outil de vérification des documents officiels ;
5) un outil de détection des humains dissimulés ;
6) un outil d’évaluation du risque aidant à la la décision du garde-frontière ;
7) un outil intégré d’analyse du contrôle des frontières chargé d’analyser l’ensemble des données collectées et d’évaluer l’ensemble du système.

On appréciera l’équivoque de la fin : « En tant que projet de recherche iBorderCtrl vise à élaborer de nouvelles technologies et déterminer si elles ont la capacité d’améliorer la qualité des contrôles de frontière aussi bien pour les voyageurs que pour les garde-frontières, mais ne vise pas à implémenter de nouvelles politiques5. » Cela veut-il dire que les lois qui n’existent pas encore pour encadrer ce système pourraient encore être refusées par les citoyens européens malgré ces investissements considérables ? Ou bien cela veut-il dire au contraire que, en vérité, la politique est déjà faîte, et qu’il ne restera qu’à lui donner un vernis démocratique assorti de grands principes éthiques, pour que ce système devienne légal ?

Qu’on ne croit pas que ce système de contrôle soit seulement réservé aux frontières. Il est destiné à se généraliser au gré des « villes intelligentes » pour assurer une sécurité sans faille. Les caméras intelligentes sont discutées et expérimentées avec les mêmes arguments6. L’ex-ministre de l’intérieur Gérard Collomb justifiait récemment de telles orientations : « L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre7. » Peut-être ces systèmes rassureront-ils tous ceux qui sont de plus en plus obnubilés par le terrorisme, l’immigration et la criminalité et qui sont même prêts à devenir des acteurs du systèmes de surveillance « intelligent ». « La “smart city” faisant appel à l’intelligence citoyenne, adaptative et ubiquitaire, nous avons tout intérêt à nous inspirer des modes de gouvernance “bottom-up”, où l’information remonte directement du terrain, pour que la “safe city” s’inscrive enfin dans une logique de ville intelligente8. » Car les criminels deviendront évidemment toujours plus inventifs pour déjouer les pièges de la prédiction algorithmique : alors, pourquoi pas, il sera de nécessité publique d’implanter des puces à tout le monde pour assurer notre sécurité – toujours avec notre consentement éclairé.

Notes :

2 Un système intelligent de détection de mensonges resserrera les frontières de l’UE. Smart lie-detection system to tighten EU’s busy borders

3 Harold Grand, « Pourrez-vous passer les contrôles aux frontières ? C’est une intelligence artificielle qui décide », Le Figaro, 07/11/2018, en ligne

4 Le projet iBorderCtrl : « Continuous traffic growth, combined with the increased threat of illegal immigration, is putting nowadays border agencies under considerable pressure. Slow border crossings impact traveller satisfaction, business and trade. »

5 Cadre technique iBorderCtrl : « iBorderCtrl as a research project aims at elaborating new technologies and whether they have the capabilities to enhance the quality of border checks for both travellers and border guards, not at implementing new policies

6 Rapport d’information n° 788 (2015-2016) de MM. François Bonhomme et Jean-Yves Leconte, fait au nom de la commission des lois, déposé le 13 juillet 2016, en ligne

7 Flore Thomasset, « Le ministère fait le bilan d’un an de maintien de l’ordre », La croix, 08/06/2018 en ligne.

8 Flavien Bazenet, Gabriel Périès, « Des citoyens et des caméras “inelligentes” bientôt au service de la sécurité urbaine », La Tribune, 05/12/2017, en ligne.

Google et Facebook engloutissent les câbles sous-marins de l’Internet

Google, Facebook et Microsoft ne contrôlent pas seulement toutes nos données, ils contrôlent désormais les câbles sous-marins qui traversent les océans et les mers du monde entier.

Plus de 5 700 kilomètres de l’océan Atlantique séparent les côtes de la France et de la Virginie. Mais en 2020, ils seront directement connectés pour la première fois par le câble sous-marin Dunant, ce qui renforcera la capacité Internet entre l’Europe et la côte est des États-Unis.

Lorsque Dunant deviendra opérationnel, il rejoindra plus de 428 câbles sous-marins, couvrant des milliers de kilomètres, constituant l’épine dorsale d’Internet. Mais ce câble ne ressemble à aucun autre.

Nommé en l’honneur de Henry Dunant, fondateur de la Croix-Rouge et lauréat du premier prix Nobel de la paix, le câble appartient à Google. Il s’agit du premier câble sous-marin transatlantique financé par des fonds privés et déployé par l’une des grandes entreprises de technologie.

Dunant est peut-être le premier câble sous-marin appartenant à l’une des grandes entreprises de technologie à traverser l’océan Atlantique, mais il ne s’agit pas du premier câble privé de la société. En janvier 2016, Google a également annoncé le câble Curie qui relierait le Chili à Los Angeles. Ces dernières années, Google, Microsoft et Facebook ont tous investi dans des câbles sous-marins pour répondre à la demande croissante.

Auparavant, les grandes entreprises technologiques dépensaient des millions de dollars en câbles dans le cadre de consortiums. En contrepartie de leur investissement, chaque entreprise a son mot à dire sur son parcours et, ce qui est crucial, une part de sa capacité. Mais la Big Tech n’aime pas partager.

Les consortiums sont parfaits pour le partage des coûts, mais il faut un certain temps pour parvenir à un consensus“, a déclaré Urs Hülzle, vice-président directeur de l’infrastructure technique de la division Cloud de Google. Hülzle a déclaré que les consortiums pouvaient ralentir le processus de construction de nouveaux câbles et que c’est pourquoi Google a décidé de faire cavalier seul. “Aujourd’hui, si vous regardez le marché, la majorité des câbles sont principalement alimentés par les sociétés Internet.”

Le vice-président de l’ingénierie réseau de Facebook, Najam Ahmad, explique que la création d’un nouveau câble peut prendre trois ans, ce qui signifie que les entreprises et les consortiums sont planifiés jusqu’à dix ans à l’avance.

En septembre 2017, Microsoft, Facebook et Telxius ont achevé le câble transatlantique MAREA de 6 600 km. Il a commencé à fonctionner en février 2018 et peut transmettre des données à 160 terabits par seconde.

D’autres câbles de consortium récents impliquant la Big Tech ont relié Singapour, l’Australie, le Japon et les États-Unis. Au total, Facebook a participé à au moins six consortiums de câbles sous-marins et Google détient des intérêts dans au moins 13 câbles, qui remontent à 2010.

Alan Mauldin, directeur de la recherche chez TeleGeography, une entreprise de données télécoms qui suit et cartographie les câbles sous-marins, a déclaré que, malgré les investissements de Google dans les câbles privés, il ne vendrait pas de capacité à d’autres entreprises. « Il ne le ferait jamais, car il deviendrait alors un transporteur et serait assujettis à une licence de transporteur », explique-t-il. « Nous ne voulons pas être un fournisseur de services en tant que fournisseur de services Internet », ajoute Hlzle, de Google.

« Les câbles ne seront finalement pas utilisés uniquement pour le trafic Google. Ce qui a tendance à se produire, c’est qu’ils vont échanger de la capacité sur ce câble avec des parties ayant de la capacité sur d’autres câbles », explique Mauldin. « En réalité, vous constaterez peut-être que Google a construit un câble sur une route donnée, mais ils peuvent en tirer parti en utilisant ce moyen d’échange. »

Qui a besoin de la démocratie quand on a des données ?

Tous les câbles sous-marins sont légèrement différents – dans la capacité qu’ils peuvent transporter et les technologies utilisées pour les construire – mais fonctionnent généralement de la même manière. Ils mesurent plusieurs pouces d’épaisseur et sont composés d’un tube en plastique qui protège un boîtier en cuivre contenant des fibres optiques.

Les données sont acheminées à travers les câbles à l’aide de voyants et de répéteurs répartis le long du fond à des distances d’environ 80 km, garantissant que les données se déplacent à une vitesse constante. L’analyse de Telegeography estime que plus d’un million de kilomètres de câbles sous-marins sont utilisés aujourd’hui. L’un des plus longs est le câble Asia America Gateway qui s’étend sur environ 20 000 km.

Initialement, les câbles sous-marins – les premiers posés outre-Atlantique dans les années 1850 – étaient utilisés pour les télégraphes, puis pour les données nécessaires aux appels téléphoniques mobiles. Les câbles peuvent durer environ 25 ans et s’ils sont cassés (généralement par les ancres des navires ou les tremblements de terre sous-marins), ils peuvent être réparés à l’aide de robots submersibles.

Ahmad a déclaré que l’intérêt de Facebook pour les câbles sous-marins venait d’un manque de capacité disponible. Il ajoute qu’il existe deux types de trafic sur Facebook : machine à machine et machine à utilisateur. Le premier d’entre eux, qui implique la sauvegarde de photos, de publications et d’autres éléments sur les réseaux sociaux des centres de données, est six à sept fois plus volumineux que le trafic de machine à utilisateur.

Wired

Facebook, le plus gros collecteur de données personnelles au monde

La société Facebook est un « service d’espionnage » selon le lanceur d’alerte Edward Snowden. Les propos de cet individu mériteraient d’être bien intégrés dans les crânes atlantistes des pouvoirs publics français et européen. Les affaires récentes touchant cette entreprise localisée dans la Silicon Valley nécessitent de faire le point.

Un quart de la population mondiale utilise Facebook, du jamais vu. L’entreprise est sur le point de devenir plus puissante que la National Security Agency (NSA) et pourrait devenir « le sous-traitant gouvernemental le plus puissant au monde » d’ici 10 ans, selon John Robb, un ancien agent antiterroriste du Commandement des opérations spéciales des États-Unis et conseiller de longue date du renseignement militaire américain. Facebook a d’ailleurs des liens certains avec l’état profond anglo-saxon qui compte bien utiliser la colossale manne d’informations de la plateforme pour accroître le contrôle et la surveillance politique. L’entreprise de Mark Zuckerberg (5e fortune mondiale) occupe également une position privilégiée pour devenir le premier fournisseur mondial de services d’information pour les gouvernements du monde.

La surveillance de masse a d’ailleurs été récemment entérinée par le droit américain. Les autorités US ont promulgué une loi renouvelant le programme de surveillance d’Internet par la NSA pour une durée de six ans. Créé après les attentats du 11 septembre 2001 et formalisé dans la section 702 du Foreign Intelligence Surveillance Act (FISA), le programme permet à la NSA d’examiner sans mandat les communications effectuées en dehors des États-Unis via des plateformes telles que Facebook ou Google, et d’en collecter les informations. Les flux échangés par des Américains, sur leur territoire ou en dehors, pourraient également être pistés si un lien peut être effectué avec des cibles étrangères (Radio Chine internationale, le 20/01/18).

Le fichage minutieux de Zuckerberg 

Quand on parle du réseau social Facebook, il faut y rattacher également les messageries WhatsApp et Messenger, ainsi que la plateforme Instagram, destinée au partage de photos et de vidéos.

Les paramétrages par défaut des Facebook et autre Google sont intrusifs vis-à-vis des données personnelles des utilisateurs. Il s’agit donc de faire quelques manipulations dans les paramètres pour y échapper quelque peu. Mais la société de Zuckerberg sauvegarde tous les éléments passant sur sa plateforme : les personnes qui ne font plus partie de la liste d’amis, les anciennes relations amoureuses, les ex-employeurs, les précédents noms et les métadonnées des photos postées (le modèle de l’appareil photo, l’exposition, l’orientation, l’ouverture, la vitesse d’obturation, la longueur focale et l’adresse IP de téléchargement). C’est probablement la première fois dans l’histoire humaine qu’une décennie complète de données relatives comportement humain est stockée.

La société est capable de déterminer les éléments du quotidien avec précision (domicile, lieu de travail, trajet habituel, heures de réveil et de coucher…). Parmi les données aspirées, même lorsque Facebook est fermé, on compte l’adresse IP de l’ordinateur, la géolocalisation, l’adresse email, le trajet de la souris d’ordinateur sur l’écran, le temps passé sur telle ou telle partie d’une page Web, sur tel produit, etc. Facebook récupère toutes les données disponibles sur les autres sites ouverts sur l’ordinateur et sur le téléphone grâce à ses algorithmes. Les boutons Facebook « J’aime » ou « Partager » qui apparaissent sur de nombreux sites contraignent également le navigateur Internet à transmettre des données de l’internaute vers la société, et ce même s’il n’a pas cliqué dessus.

La reconnaissance faciale de la plateforme Facebook est de plus en plus au point. Sans aucune intervention humaine, ses algorithmes sont capables d’identifier automatiquement les utilisateurs sur toutes les photos publiées sur le réseau social. De même que le dernier téléphone iPhone X d’Apple, qui a une technologie 3D pour la reconnaissance faciale, avec un projecteur déployant 30 000 points invisibles sur le visage de son utilisateur pour le modéliser en profondeur. Le Center of Privacy and Technology de l’Université Georgetown Law (Washington) avait déjà signalé en 2016 que 117 millions d’Américains (environ la moitié des adultes du pays) figuraient, à leur insu, dans des bases de données permettant la reconnaissance faciale utilisées par le FBI. Nous pouvons modestement soupçonner que les instances gouvernementales US échangent des éléments avec les géants du numérique pour croiser leurs informations.

Selon Forbes, la discrète entreprise israélienne de surveillance Terrogence, fondée par un ancien officier des services de renseignement israéliens, utilise la base de données massive des plateformes Facebook, YouTube et d’autres sites Internet depuis cinq ans. Son objectif est de collecter des visages pour son système de reconnaissance faciale nommé Face-Int. Le système a été racheté en 2017 par Verint Systems, une société US initialement israélienne (Comverse Technology, Inc.), qui fournit des services à la NSA, à la marine US et à des agences de sécurité et de renseignement. La société israélienne Onavo (rachetée fin 2013 par Facebook) a généré une application de protection mobile considérée comme une « machine interne à espionner » permettant d’identifier les applications utilisées par un individu.

Selon le docteur dîneur du Siècle Laurent Alexandre, les milliards de données qui composeront notre dossier médical ne pourront être analysés que par des IA. Les deux groupes numériques les plus investis dans la santé sont IBM et Google, mais Microsoft, Facebook, Amazon ou encore Baidu se sont également engagés très sérieusement dans le secteur (L’Express, 27/12/17). Le développement de la génomique, des neurosciences et des capteurs électroniques connectés surveillant la santé, devrait bouleverser le domaine médical.

Sur mobile, Facebook scanne l’intégralité des conversations (appel et texte), les photos, vidéos, et tout fichier ou lien échangés sur sa messagerie Messenger. Des modérateurs analysent tout et bloquent ou retirent les contenus s’ils le jugent nécessaire. L’IA de Facebook commence à faire le travail de modération et de censure automatique sur les contenus qu’elle juge « inappropriés ». Le réseau conserve également toute trace d’appels téléphoniques et SMS, sans mention préalable et indépendamment des applications Facebook et Messenger. Des éléments qui ne sont pourtant pas mentionnés sur la page du site dédié au sujet. Selon Vice, des éléments de conversations téléphoniques peuvent être captés par Facebook lors d’un simple appel pour proposer des messages sponsorisés adaptés. Quand un usager synchronise ses contacts téléphoniques avec le réseau social, les adresses email et les numéros de téléphone de toutes ses connaissances enregistrées sont collectés, ainsi que toute autre information présente sur l’appareil. Les internautes non-inscrits sur la plateforme Facebook voient donc leurs datas également aspirées. Par ailleurs, si l’utilisateur a fourni son numéro de téléphone au moment de l’inscription ou de l’activation de l’authentification à deux facteurs du site Facebook, le profil social associé peut être retrouvé en tapant le numéro de mobile dans le moteur de recherche de Facebook.

Des chercheurs en cyber sécurité de l’Université de la Ruhr (Allemagne) viennent de révéler une faille sur l’application mobile WhatsApp, pourtant réputée pour être sécurisée (chiffrement de bout en bout). Cette brèche permettrait d’accéder au contenu des conversations chiffrées des utilisateurs de la messagerie. Le risque serait tout de même limité du fait que le pirate doit intégrer la discussion du groupe qu’il cible préalablement. Dans tous les cas, cette messagerie instantanée transfère à son propriétaire Facebook toutes les données de ses utilisateurs, selon Paris Match. Sont transmis les numéros de téléphone et surtout toutes « les informations relatives aux habitudes d’utilisation », sans l’accord de l’utilisateur. Le seul moyen d’y échapper est de supprimer son compte WhatsApp. Un autre défaut a été identifié sur Facebook par une équipe de chercheurs américains, français et allemands. Il permettait de transmettre aux annonceurs les numéros de téléphone portable des usagers par le biais d’un outil de ciblage pour les audiences personnalisées. Depuis la fondation du réseau à Harvard en 2004, le site Tech Crunch comptabilisé 39 incidents critiques en matière de protection des données privées des utilisateurs de Facebook.

Facebook a déposé un brevet en 2016 pour pouvoir activer le micro d’un smartphone à l’aide d’un son inaudible pour l’humain (diffusé à la télévision par exemple) et récupérer les données enregistrées. D’autres brevets prévoient de prédire l’avenir d’un utilisateur en analysant publications, messages, dépenses bancaires et localisation ou encore de déterminer quels amis une personne côtoie le plus en analysant les localisations des téléphones. Le réseau asocial a récemment reconnu avoir partagé les données de ses utilisateurs avec le constructeur Huawei, ainsi qu’avec d’autres entreprises chinoises telles que Lenovo, OPPO ou TCL. Zuckerberg ne gagne clairement pas des points d’amitié avec Trump, qui a récemment interdit les appareils fabriqués par Huawei pour cause de soupçons d’espionnage. La firme chinoise s’est défendue des accusations de collecte et stockage de données des utilisateurs de Facebook. Le New York Times a aussi signalé que Facebook avait partagé les données de ses utilisateurs avec 60 constructeurs de smartphones (Apple, Microsoft, HTC, Samsung) durant dix longues années de pillage de data. On comprend pourquoi le niveau de capitalisation boursière de cette société d’à peine plus de 25 000 employés est aussi élevé, et ce malgré l’affaire Cambridge Analytica, qui a fait passer la cote de 538 Mds $ à 445 Mds $ entre le 19 et le 28 mars 2018.

En parlant de cette dernière polémique qui n’a étonné que les moins avertis, le magazine scientifique international New Scientist a découvert une base de données accessible de 3 millions d’utilisateurs Facebook, avec des éléments intimes sur chaque profil. Comme pour le « scandale » Cambridge Analytica, c’est un quiz de personnalité de l’application myPersonality qui a permis d’établir des profils. Des renseignements « hautement sensibles » des résultats de tests psychologiques étaient donc facilement accessibles depuis 4 ans, car mal sécurisés. Bien que ces datas soient anonymes, il était apparemment aisé de recouper les données du test avec l’identité de l’individu l’ayant effectué. Facebook a suspendu myPersonality le 7 avril 2018 suite à son enquête sur les applications violant ses règles d’utilisation. Ce sont 200 applications de ce type qui ont été récemment mises hors service par la société californienne.

Mark Zuckerberg s’est adressé à certains membres du Parlement européen

Publicité, dissimulation, addiction… un modèle de société exemplaire

Sur Internet, la plupart des sites vous demandent d’accepter des « cookies », un petit fichier stocké sur l’ordinateur ou le téléphone par les sites que vous visitez. S’ils sont déjà partiellement utilisés par les publicitaires comme des mouchards implantés au sein du navigateur, il existe d’autres types de mouchards qui collectent bien plus d’informations comme les « scripts de traçage ». Selon une étude de Cliqz de 2017, 77 % des 440 millions de pages vues par 850 000 personnes analysées contenaient des mouchards. Les outils publicitaires de Google comme DoubleClick, Google Publishers Tag et Google Tag Manager représentent 48 % des pages Internet et sont présents sur quasi deux tiers des pages visitées par les participants à l’expérience à grande échelle loin devant Facebook. Mais ce dernier peut, comme Google, suivre et étudier en détail les pratiques de navigation de leurs utilisateurs. Le modèle économique de ces sociétés repose quasiment entièrement sur la commercialisation des données personnelles de ses utilisateurs vers les annonceurs (entreprises qui font de la publicité ciblée sur le réseau social). Plus de 98 % des revenus de Facebook en 2017 (39 Mds $) proviennent la vente des éléments des profils personnels à des annonceurs, dont 88 % viennent des publicités sur appareils mobiles. De plus, la société acquiert régulièrement des datas à des tiers pour alimenter son intelligence artificielle.

Depuis plusieurs mois, Facebook est préoccupé par l’effondrement contextuel (context collapse), autrement dit, du fait que les utilisateurs du réseau sont plus mesurés dans la publication des détails intimes de leur vie. De plus, les flux d’actualités sont envahis par les médias et les entreprises, ce qui rend les audiences plus passives et ne bénéficient pas à son business model. Effectivement, les « murs Facebook » affichent bien plus de liens vers des sites Web tiers que d’éléments de vie personnelle; ce qui n’arrange pas la société numérique. La plateforme va donc dorénavant donner la priorité aux messages des amis sur le fil d’actualités, plutôt qu’aux contenus postés par les marques privées et les médias. Pour l’exemple, si Facebook devait rémunérer ses utilisateurs pour l’exploitation de leurs données personnelles, il devrait verser au total près de 350 000 Mds $, selon le chercheur Olivier Auber.

De même, les applications représentent la majorité du temps passé sur les appareils mobiles, qui se répartit entre seulement 5 applications (85 % du temps des utilisateurs selon comScore). Les géants du high-tech sont donc également à la recherche de stratégies pour dépasser cette crise de l’engagement sur les applications. Alors que ces entreprises s’appuient sur un nombre conséquent d’applications différentes pour atteindre un maximum d’audience, la crise d’engagement de plus en plus forte met tout leur écosystème en danger. Pour dépasser le phénomène, WeChat, Google, Facebook ont pour objectif d’intégrer des mini applications au sein même de leurs applications (BI Intelligence, « La fin des applications », 08/09/17).

Les plateformes telles que Facebook sont pensées pour être addictives. À haute dose et à long terme, elles déchirent le tissu social et créent des effets addictifs néfastes, comme l’ont récemment dénoncé d’anciens cadres de l’entreprise. C’est bien souvent les personnes qui connaissent le mieux les nouvelles technologies informatiques, parce qu’ils les ont créées, qui sont les premières à s’en détourner et surtout à préserver leur progéniture d’une exposition précoce. En effet, l’addiction aux technologies est créée de toute pièce. Depuis longtemps déjà, les comportementalistes ont théorisé comment conditionner l’Homme avec diverses méthodes de stimulation. La logique a été poussée au maximum aujourd’hui : les besoins d’interactions sociales, de reconnaissance, la capacité à nous laisser distraire, les limites de notre mémoire, la vitesse et la surcharge d’informations, tout est étudié par la captologie. Conçue par les comportementalistes, elle est devenue une science à part entière en s’appuyant sur des techniques de persuasion prenant acte de l’impatience, l’insatisfaction ou encore l’info-dépendance présentes dans nos sociétés. L’objectif des annonceurs et autres publicitaires étant de susciter l’attention de l’individu cible pour créer addictions et frustration entraînant mécaniquement une baisse de l’attention et un engagement temporel conséquent sur les réseaux sociaux.

En 2016 en France, les adultes passaient 3 h 58 heures par jour en moyenne devant un écran d’ordinateur ou de smartphone et 3 h 51 devant une télévision quasiment dans le même temps. Une étude de la Radiological Society of North America affirme que les personnes les plus dépendantes à Internet et au smartphone ont des scores significativement plus élevés dans la dépression, l’anxiété, l’insomnie et l’impulsivité. C’est en ce sens que Tristan Harris, ingénieur et ancien « philosophe produit » de Google, a déclaré que « la technologie détourne nos esprits ». Ancien promoteur des nouvelles technologies, il en est aujourd’hui un farouche opposant sous prétexte qu’elles seraient au service exclusif de la publicité. Il a même créé un site Internet dédié à cette lutte pour que les plateformes technologiques cessent de détourner les esprits et pensent plus au bien-être humain.

Google et Facebook sont des « infomédiaires », c’est-à-dire qu’ils organisent le contenu produit par d’autres. Leur réussite économique s’appuie sur la captation des revenus publicitaires grâce à des technologies de ciblage alimentées par la collecte des données personnelles de leurs utilisateurs. À eux deux, ils représentaient 84 % des dépenses de publicité en ligne dans le monde en 2017 (Chine exceptée), selon une étude de GroupeM. Facebook est d’ailleurs dépendant de la publicité à hauteur de 97 % de son chiffre d’affaires (Conflits n°17, avril-mai-juin 2018, p.24). Pour la première fois en France, ce marché de la publicité sur Internet a dépassé celui de la publicité télévisuelle, avec 3,5 Mds € d’investissement en 2016, et particulièrement grâce à l’efficacité des algorithmes (qui affichent des bannières correspondant à nos intérêts).

Facebook compte également s’inscrire dans la hiérarchisation de l’information pour que certains contenus n’apparaissent pas ou moins dans les fils d’actualités. Ce sont les utilisateurs du réseau social eux-mêmes qui pourront juger du degré de fiabilité d’une information présente sur la plateforme. De plus, Facebook travaille main dans la main avec la Commission européenne contre les fake news et ferait preuve d’un certain zèle pour censurer et supprimer des contenus sur demande du gouvernement israélien et américain. Le financement de la presse mainstream française par Zuckerberg a notamment été mis en place pour contrer les « contenus sales », comme celui que vous lisez actuellement.

Après l’État, la publicité, le complexe militaro-industriel et le secteur bancaire, c’est maintenant au tour de Facebook de venir sauver financièrement les médias français nuls et déficitaires. Selon une étude de Nicolas Becquet, de l’Observatoire européen du journalisme, entre 100 000 et 200 000 € mensuels renouvelables tous les six mois sont distribués à des journaux tels que TF1Le FigaroLe Parisien ou Le Monde pour qu’ils produisent du contenu directement sur le réseau social. Au vu de la purge par laquelle s’est illustrée Facebook cette année sur les contenus idéologiquement déviants (MarsaultNordPresseÉgalité & Réconciliation, etc.), il semble a contrario essentiel de ne pas trop être dépendant de ces entreprises de la Silicon Valley, clairement engagées politiquement. Facebook peut également ralentir les flux de publications des mal pensants sur son réseau, comme l’a montré le cas des liens du site de l’ancien diplomate et blogueur subversif britannique Craig Murray. Google et Facebook ont d’ailleurs annoncé la couleur en déclarant que le point de vue des médias russes ne doit pas avoir le même degré d’impact que celui des médias occidentaux sur leur plateforme. Au moins c’est dit.

La branche française du réseau asocial est dirigée par le sous-préfet sarközyste Laurent Solly, membre de l’obédience maçonnique Grand Orient de France et du club élitiste Le Siècle (Faits & Documents n° 451, mai 2018, p.12). Autant dire la crème de la crème. La suppression pure et simple des pages Facebook des Identitaires et de l’opération Defend Europe, ni illégale ni violente jusqu’à preuve du contraire, traduit les orientations du réseau envers les idées mal pensantes. Les pages ont été retirées sur demande de la Dilcrah, la Délégation interministérielle à la lutte contre le racisme, l’antisémitisme et la haine anti LGTB, créée sous le règne de Sarkozy en 2012 et directement rattachée au Premier ministre depuis 2014 sous Hollande.

La propagande numérique au service du politique ou l’hypocrisie de l’oligarchie occidentale

Cambridge Analytica était initialement une simple entreprise Psyops, c’est-à-dire qu’elle fournissait des prestations d’ingénierie sociale afin de provoquer un changement de sentiment de masse en gagnant les cœurs et les esprits. Le principal problème est que cette puissante entreprise de relations publiques a surtout été utilisée par des individus appartenant aux tendances de droite alternative conservatrice. Grosse erreur que la presse libérale-libertaire très neutre s’est empressée de condamner. Surtout que l’infernal Trump aurait utilisé les services de cette compagnie en 2016 pour remporter les élections américaines. Il n’en fallait pas plus pour activer la cabale médiatique mondiale.

Depuis 2013, Cambridge Analytica, filiale de la société privée britannique SCL Group, recueillait à des fins de publicité politique les informations personnelles de dizaines de millions d’utilisateurs de Facebook. C’est le département SCL Elections de l’entreprise qui trace les éléments numériques (achat, activité sur Internet) pour détecter les électeurs potentiels. Beaucoup d’informations ont été tirées de Facebook sans que les utilisateurs n’en soient informés dans le but de dresser le « portrait psychographique » de l’électeur type américain. Le détournement de 87 millions de profils Facebook aurait été effectué par la société afin d’influer sur la campagne présidentielle américaine. Déjà précédemment, les psychologues de l’Université de Cambridge avaient légalement collecté des données Facebook à des fins de recherche à partir des mentions « j’aime » de la plateforme. Ils ont pu réaliser des études pionnières sur les traits de personnalité, la tendance politique, la sexualité et d’autres caractéristiques individuelles. Cambridge Analytica a ensuite engagé le Dr Aleksandr Kogan, chercheur de cette même université, pour affiner la récolte de nouvelles données Facebook pour leur prestation.

Le fait que Cambridge Analytica ait travaillé activement avec des candidats de tendance conservatrice s’explique par le fait que son principal investisseur était le milliardaire du même courant Robert Mercer, bon ami de l’eurosceptique Nigel Farage (créateur du Parti pour l’indépendance du Royaume-Uni ou UKIP). La société a également compté comme clients le candidat républicain à la présidence Ted Cruz, l’ancien ambassadeur américain à l’ONU John Bolton et l’ex-conseiller déchu du président américain, Steve Bannon. En pleine guerre de l’information, des milliardaires de tendance conservatrice font face aux libéraux libertaires en mettant la main sur des entreprises clefs pour promouvoir leur ingénierie sociale. SCL Group-Cambridge Analytica, qui fournit des prestations dans le civil et dans le secteur militaire, peut être considéré comme une tendance alternative au sein de l’État profond, qui agit au cœur des gouvernements pour influer sur les opinions publiques en faveur d’un conservatisme sociétal.

Au Royaume-Uni, l’entreprise avait également recueilli des données pour préparer le référendum sur le Brexit. La société aurait récolté des données personnelles de 2,7 millions d’Européens. Avant que cette affaire n’éclate, Facebook avait déclaré publiquement que son investigation personnelle n’avait pas permis de trouver de preuves de l’ingérence lors du vote du Brexit. Cambridge Analytica aurait illégalement faussé le référendum de 2016 sur le Brexit en exploitant les données des profils Facebook, selon Christopher Wylie, ancien salarié de l’entreprise mise en cause. Lors d’une audition devant des députés britanniques, il a expliqué les liens et le partage de données entre la firme et la société d’analyse du Web canadienne Aggregate IQ, qui travaillait pour la campagne pour une sortie de Britannique de l’UE. Des accusations niées par le PDG de Cambridge Analytica, Alexander Nix. Les équipes de Google n’ont pas trouvé de preuve d’ingérence de la Russie sur YouTube dans la campagne du référendum sur le Brexit. Dieu merci. Mais des études ont signalé que de nombreux faux comptes Twitter avaient été créés depuis la Russie pour relayer et amplifier les messages pour la sortie de l’UE.

Mais l’utilisation de données à des fins électorales recueillies sur Facebook et autres réseaux sociaux « a commencé avec la première campagne de Barack Obama en 2008 et s’est accentuée en 2012 », selon le Huffington Post. Les mêmes médias qui avaient loué l’audace de la stratégie numérique à l’époque se sont scandalisés du cas Cambridge Analytica parce qu’il a profité à Trump… Ou la pleurnicherie à deux vitesses. La pratique d’achats de fichiers ciblés a également été largement utilisée durant la campagne présidentielle Macron, en 2017. À partir des données des Pages blanches et de l’Insee, l’entreprise Self Contact a obtenu un fichier de 19 millions d’adresses de citoyens français. Pour un montant de 240 000 €, une opération de marketing politique téléphonique a été lancée auprès d’environ six millions de personnes. L’oligarchie s’est peu émue de l’absence de diabolisation de la pauvre société Self Contact.

Les seules conclusions honnêtes à tirer sont que Facebook vend les données des internautes à n’importe quel camp politique tant que celui-ci paye. Une étude de Bloomberg révèle que le parti politique eurosceptique AfD (Alternative pour l’Allemagne), le Parti national écossais, le président philippin Rodrigo Duterte alias The Punisher, le président argentin Mauricio Macri, le Premier ministre indien Narendra Modi, l’ancien président US Obama, et même l’actuel président Trump, ont tous basé leur campagne électorale sur les conseils avisés d’une cellule secrète de Facebook. La cellule permet notamment de mettre en place une armée de « trolls »  pour diffuser la propagande numérique de ses clients. Point d’écho au sein des rédactions des journaux déficitaires bien-pensants.

Et ce n’est pas fini. Courant 2018, Google, Facebook et Twitter ont signé des accords avec l’Institut national électoral mexicain (INE), l’organisation chargée d’organiser des élections au Mexique, pour une campagne d’orientation des résultats des élections législatives du 1er juillet 2018. Ceci se fait évidemment sous couvert de combattre les « fausses nouvelles » et toutes les niaiseries connexes. Facebook se voit donc fournir par l’INE des données en temps réel sur les élections et même un espace physique dans ses bureaux. Des accords similaires ont été conclus et annoncés avec Google et Twitter peu de temps après une conférence coorganisée à Mexico par l’INE, avec des hauts cadres de ces sociétés numériques et le National Democratic Institute (NDI), un tentacule de la CIA idéologiquement lié au Parti démocrate et dirigé par l’ancienne secrétaire d’État criminelle, Madeleine Albright. La conférence était intitulée « L’Amélioration de la conversation électorale : des alternatives pour combattre la désinformation ». Tout un programme.

Conclusion : Zuckerberg, président du monde libre ?

Quelques indices laissaient penser que le milliardaire fondateur de Facebook était un potentiel présidentiable, avant l’affaire Cambridge Analytica. Zuckerberg a effectivement embauché de célèbres conseillers en communication et marketing politique. Il s’agit de David Plouffe, Amy Dudley et Joel Benenson, ex-conseillers des démocrates Obama et Hillary Clinton, ainsi que de Ken Mehlman, ex-conseiller de Georges W. Bush. Dès 2016, le PDG de Facebook avait transmis aux autorités financières américaines un document lui permettant de se présenter à un éventuel mandat politique tout en le cumulant avec ses activités entrepreneuriales. Alors qu’il se revendiquait athée jusqu’à fin 2016, Zuckerberg a également commencé à affirmer ses liens importants avec la foi juive dès son enfance selon France Info et adresse depuis publiquement ses vœux pour toutes les fêtes juives (Faits & Documents, n° 445, 15/01/18 – 31/01/18, p.8). Il a finalement effectué une tournée très politique dans une trentaine d’États américains durant l’année 2017. Que d’ambitions pour finalement chuter comme Icare.

Extrait de Géopolitique Profonde n°6 (été 2018).

Géoéconomie de l’industrie 4.0 et de l’IA

Alors que les Européens sont passés à côté des deux premières révolutions Internet, celle des produits (Apple, Microsoft…) et celle des services (Uber, Netflix, Airbnb…), la 3e révolution de l’intelligence artificielle s’annoncerait une fois de plus sous un leadership non européen. Un rapport publié par le cabinet Roland Berger a recensé le nombre de start-ups intervenant dans l’intelligence artificielle dans le monde. Dans l’ordre, nous les trouvons aux USA (1 393), en Chine (383) et en Israël (362). Le premier pays européen apparaissant dans ce classement est le Royaume-Uni (245), qui, manque de chance pour l’Union, est en plein Brexit. La France se place à la 7e place (109) et l’Allemagne en 8e (106). Vingt-quatre pays de l’UE se sont engagés à mutualiser leurs moyens pour concevoir une approche européenne de l’intelligence artificielle, mais ce sont bien le Royaume-Uni et la France qui espèrent devenir des leaders mondiaux pour guider et réguler la technologie de l’intelligence artificielle. Si la France s’est récemment saisie de cette question, c’est particulièrement la Chine qui a officiellement fait part de ses ambitions de prendre le leadership de l’intelligence artificielle d’ici 2030, en la liant aux enjeux de défense et de sécurité. Le gouvernement américain compte quant à lui conserver son avantage militaire technologique avec son plan national « Third Offset » intégrant pleinement l’intelligence artificielle.

La création d’un laboratoire européen appelé European Lab for Learning and Intelligent Systems (ELLIS) a été promue dans une lettre ouverte signée par des scientifiques du Royaume-Uni, de France, d’Allemagne, de Suisse, d’Israël (un pays européen ?) et des Pays-Bas. Le projet se focaliserait sur l’apprentissage et les systèmes intelligents et serait localisé à différents endroits en employant des centaines de chercheurs, d’ingénieurs en informatique et de mathématiciens pour concurrencer les géants technologiques américains et asiatiques.

L’arrivée de l’intelligence artificielle dans l’entreprise et l’administration de l’État va profondément transformer l’industrie. L’industrie de demain communément appelée « Industrie 4.0 » ne consiste pas à automatiser davantage, mais plus intelligemment en faisant communiquer des systèmes en temps réel pour augmenter la valeur pour le client. Remplacer les hommes par les robots ne fait pas partie des objectifs de cette industrie, qui combine plutôt trois innovations technologiques clefs : l’autonomisation, l’Internet des objets et l’intelligence artificielle. Le phénomène est assez global : en Allemagne, en France, en Belgique, en Chine, aux USA, au Japon ou encore en Corée du Sud, des programmes émergent pour mettre en application ce modèle et être compétitifs (Géoéconomie, n° 82, Juin-Juillet 2017, p.37 et 38). Pour lutter face aux géants du numérique par exemple, le responsable allemand de l’économie digitale du Land Rhénanie du Nord-Westphalie (NRW) compte s’appuyer sur le numérique tout en conservant l’industrie traditionnelle du pays.

Le futur de l’industrie rime avec robotisation et pertes d’emplois dans l’esprit français. En effet, en l’état actuel des choses, la robotisation amènerait une désindustrialisation encore plus poussée et une perte de marchés extérieurs sans montée en gamme ; or la France est un pays de production manufacturière de milieu de gamme avec un coût du travail plutôt élevé. Selon le think tank GenerationLibre, ces polémiques à propos de l’effet négatif des robots sur l’emploi empêchent l’émergence d’une politique de robotisation assumée. Il y a, selon son étude, une absence de corrélation significative entre robotisation et taux de chômage sur tous les niveaux de qualification. De même que dans les pays de l’OCDE : la robotisation ne conduit pas à des destructions d’emplois, mais plutôt à une modification de leur structure vers des emplois de services peu qualifiés. La fin du travail salarié n’est pas pour maintenant, car pour l’instant, la robotisation accentuerait plutôt les mécanismes historiques du capitalisme industriel, soit une intensification du travail et une perte des savoir-faire. De plus, l’accroissement de la puissance informatique est au bénéfice de la puissance publique et des intérêts entrepreneuriaux, au prix d’une recrudescence du contrôle et de la surveillance de l’État sur la vie privée des individus.

L’arrivée de l’intelligence artificielle est finalement synonyme de concurrence à l’État dans ses prérogatives traditionnelles de connaissance, de contrôle et d’administration de son corps social. Dans un premier temps, l’État prendra en main cette problématique en tant qu’outil de contrôle parmi d’autres, dans une course internationale à l’intelligence artificielle. Un second axe serait envisageable, où la juridiction humaine serait supplantée par un code plus rationnel et performant (savoir, régulation, application de décision…). Si les spéculations de l’intelligence artificielle accédant à une relative autonomie se concrétisent un jour, la puissance publique perdra le contrôle et devra remettre en question son modèle de gouvernement.

Mark Zuckerberg s’est adressé à certains membres du Parlement européen

Le PDG de Facebook, Mark Zuckerberg, a discuté de la confidentialité des données avec le président du Parlement européen.

Le PDG de Facebook, Mark Zuckerberg, a parlé aux législateurs du Parlement européen de la protection des données et de la vie privée suite au scandale de Cambridge Analytica. Il a répondu aux questions à huis clos d’un petit groupe d’eurodéputés, mais la conversation a été diffusée en direct après une intense critique de la configuration initiale. La réunion a commencé vers 18h20 heure de Bruxelles, le 22 mai 2018.

“La réunion d’aujourd’hui n’est qu’un point de départ”, alors que l’Europe se dirige vers de nouvelles réglementations numériques, a déclaré Tajani. “Nous voulons être en mesure d’utiliser des plateformes numériques” sans aucun danger pour la sécurité ou la confidentialité.