Les ambitions de Huawei en matière d’IA

Le Chinois Huawei a de grandes ambitions pour affaiblir l’emprise américaine sur le leadership de l’IA

Le chinois Huawei a récemment fait la une des journaux pour une myriade de raisons, parmi lesquelles des accusations de fraude, le vol présumé de secrets commerciaux et sa domination croissante dans la 5G, qui ont toutes servi à alimenter les inquiétudes de longue date du monde occidental sur la menace pour leur sécurité.

Beaucoup moins de choses ont été écrites sur la stratégie d’intelligence artificielle du géant de la technologie. Mais dans une interview exclusive avec Xu Wenwei, directeur du conseil d’administration de Huawei et directeur de la stratégie et du marketing de l’entreprise, a vanté la portée de ses plans d’intelligence artificielle. C’est l’ingrédient final de l’hégémonie mondiale du géant de la technologie, qui n’a jamais été égalé par aucune autre entreprise.

Xu a déclaré que Huawei prévoit d’augmenter ses investissements dans l’intelligence artificielle et de l’intégrer à l’ensemble de l’entreprise pour “construire un portefeuille complet d’intelligence artificielle”. Comme Huawei est une entreprise privée, il est difficile de quantifier ses investissements technologiques. Mais les représentants de l’entreprise ont déclaré l’an dernier qu’elle prévoyait de doubler ses dépenses annuelles de R&D pour les porter entre 15 et 20 milliards de dollars. Cela pourrait propulser l’entreprise entre la cinquième et la deuxième place dans les dépenses mondiales de R&D. Selon son site Web, quelque 80 000 employés, soit 45 % de la main-d’œuvre de Huawei, sont affectés à la recherche et au développement.

La vision de Huawei s’étend des puces d’intelligence artificielle pour les centres de données et les appareils mobiles aux logiciels d’apprentissage en profondeur (deep learning) et aux services cloud qui offrent une alternative à ceux d’Amazon, Microsoft ou Google. La société étudie les principaux défis techniques, notamment en rendant les modèles d’apprentissage automatique (machine learning) plus efficaces en données et en énergie, et plus faciles à mettre à jour, a déclaré Xu.

Mais Huawei lutte pour convaincre le monde occidental qu’on peut lui faire confiance. Et l’IA ajoute une autre dimension à ces inquiétudes. Les services de machine learning constituent une nouvelle source de risque, car ils peuvent être exploités par des pirates informatiques, et les données utilisées pour former ces services peuvent contenir des informations privées. L’utilisation d’algorithmes d’intelligence artificielle rend également les systèmes plus complexes et opaques, ce qui rend l’audit de sécurité plus difficile.

MIT Technology Review

Protéger la blockchain des hackers quantiques

Pour préserver le grand livre inviolable des hackers quantiques, les deux technologies vont unir leurs forces. S’ils ne le font pas, les données sont en danger.

Il y a un débat acharné entre les défenseurs de la blockchain qui croient qu’elle est sécurisée et ceux qui pensent qu’elle pourrait être détériorée par les nouveaux ordinateurs quantiques.

Grâce à la construction inviolable de son grand livre, la Blockchain est intégrée dans tous les domaines, de l’assurance à l’immigration, et constitue la base des cryptomonnaies telles que Bitcoin. Mais sa nature ouverte et polyvalente pourrait entraîner sa perte – en 2019, l’informatique quantique pourrait briser la blockchain.

Les ordinateurs quantiques peuvent stocker plus d’informations en utilisant moins d’énergie que les ordinateurs traditionnels, ce qui signifie qu’ils peuvent effectuer rapidement des calculs complexes. Là où un ordinateur normal résoudrait un labyrinthe complexe en suivant un chemin à la fois, les machines quantiques peuvent suivre plusieurs chemins simultanément.

L’informatique quantique va changer le monde

En conséquence, la technologie quantique est estimée à des dizaines de milliers, voire des millions de fois plus rapide que les ordinateurs actuels – et plus de puissance signifie que des tâches telles que la rupture du cryptage deviennent énormément plus faciles, exposant potentiellement les dossiers financiers, les données personnelles et autres informations sensibles. En 2016, des scientifiques du MIT et de l’Université d’Innsbruck ont réussi à construire un ordinateur quantique qui, selon eux, pourrait – s’il était déployé avec succès – casser le cryptage RSA, un algorithme largement utilisé qui sécurise tout, des messages texte aux achats en ligne.

La blockchain est particulièrement vulnérable car elle a un point de défaillance unique – tous les blocs sont librement à la disposition des organisations criminelles ou agents de surveillance. Pour le moment, ils ne peuvent rien faire avec eux car ils sont cryptés, mais lorsque l’informatique quantique deviendra suffisamment bon marché, il pourrait y avoir d’énormes fuites de données de la chaîne de blocs potentiellement stockées.

C’est comme si vous gardiez vos objets de valeur dans une boîte verrouillée, mais que vous les laissiez ensuite dans la rue. La capacité d’enchevêtrement quantique (ou intrication quantique) lui permet de faire des sauts logiques que des ordinateurs classiques ne pourraient jamais faire. Cela pourrait combler les lacunes entre les données recueillies à partir de quelques blocs seulement.

Nous sommes passés de la théorie et du prototype à l’informatique quantique commerciale en quelques années seulement. En mars 2018, Google a dévoilé Bristlecone, une puce de 72 qubits qui, selon la société, pourrait bientôt atteindre la «suprématie quantique», mettant sur le marché des ordinateurs quantiques fabriqués en série. La technologie est en train d’être perfectionnée pour créer des processeurs qubit stables, et les machines méga-qubit sont proches.

Les puces neuromorphiques pourraient être l’avenir de l’informatique

L’industrie est concernée. Chaque année, les chercheurs des gouvernements et des géants informatiques dont Intel, Microsoft et Cisco se rencontrent avec les meilleurs chercheurs dans les domaines de la cybersécurité et des mathématiques lors d’atelier sur le chiffrage quantique (QSC : Quantum-Safe Cryptography – cryptographie sécurisée quantique) afin de discuter des solutions potentielles à la menace.

La technologie de défense contre les attaques quantiques existe déjà sous la forme de précurseurs de la cryptographie quantiquei, tels que la cryptographie basée sur le hachageii, la cryptographie basée sur le codeiii, la cryptographie basée sur le réseauiv, la cryptographie à plusieurs variablesv et la cryptographie d’isogénie à courbe elliptique supersingulairevi, chacune améliorant les itérations précédentes.

Face aux attaques croissantes sur nos données personnelles, telles que le piratage de British Airways de septembre 2018, nous devons faire pression pour une collaboration entre ces technologies apparemment concurrentes. Bien que l’informatique quantique semble porter atteinte à la sécurité de la blockchain, la solution pourrait consister à combiner les deux technologies et à créer un meilleur ensemble.

Les États-Unis travaillent à la construction de réseaux quantiques inaltérables

Wired


Rapport: il est facile de pirater toute une génération d’armes militaires

Le Government Accountability Office (GAO) a annoncé que le Pentagone avait été pris au dépourvu. Il s’avère que les systèmes d’armes d’une génération entière, y compris ceux en cours de développement, sont vraiment faciles à pirater.

Il n’y a pratiquement aucune excuse pour que l’armée soit aussi laxiste en matière de sécurité numérique, car son armement – ainsi que la nature même de la guerre – est de plus en plus numérique.

Il s’avère que plusieurs des tests effectués au cours des années étaient incomplets, ce qui a conduit les responsables à ne pas prendre en compte les vulnérabilités apparues.

Le rapport, qui a omis de nombreux détails cruciaux sur les systèmes les plus vulnérables, a indiqué que de petites équipes de hackers informatiques au chapeau blanc (“white hat” un hacker éthique) étaient en mesure de se connecter à divers systèmes d’armes en moins d’une heure.

Les hackers, selon le rapport, ont été en mesure de prendre le contrôle des principaux systèmes d’armes et d’opérer en grande partie sans être détectés, en partie à cause de problèmes fondamentaux tels qu’une mauvaise gestion des mots de passe et des communications non chiffrées.

L’armée américaine a le budget le plus élevé au monde, cependant, la cybersécurité de l’armée échoue régulièrement à ces tests depuis 2012, selon le rapport. Face à tout cela, il semble que l’armée ait laissé ses armes et ses systèmes numériques les plus avancés au grand jour.

U.S. Government Accountability Office, Phys.org

Les États-Unis travaillent à la construction de réseaux quantiques inaltérables

Deux projets visent à rendre les données Internet invulnérables au piratage

Les câbles à fibres optiques véhiculant des données sur Internet sont vulnérables. Deux initiatives américaines visent à résoudre ce problème en créant des transmissions quantiques super sécurisées.

Il y a quelques années, Edward Snowden, un contractant travaillant pour la NSA, a divulgué des documents montrant la manière dont les agences de renseignement espionnaient nos données. L’une des révélations les plus frappantes a été que des espions avaient exploité des câbles à fibres optiques pour surveiller la grande quantité d’informations qui les traversait.

Les révélations de Snowden ont suscité des efforts pour exploiter les propriétés presque mystiques de la science quantique afin de rendre ce piratage impossible. Il y a maintenant des signes de progrès.

Une start-up appelée Quantum Xchange a annoncé la conclusion d’un accord lui donnant accès à 805 kilomètres de câbles à fibres optiques longeant la côte Est des États-Unis afin de créer ce qui, selon elle, sera le premier réseau de distribution de clés quantiques du pays.

L’Université de Chicago, le Laboratoire national Argonne et le Laboratoire national des accélérateurs Fermi ont annoncé la création d’une entreprise commune afin de créer un banc d’essai permettant de sécuriser la communication de données par téléportation quantique.

L’informatique quantique va changer le monde

La méthode de distribution de clé quantique utilisée par Quantum Xchange fonctionne en envoyant un message codé en bits classiques, tandis que les clés pour le décoder sont envoyées sous forme de bits quantiques, ou qubits. Ce sont généralement des photons, qui se déplacent facilement le long de câbles à fibres optiques. La beauté de cette approche réside dans le fait que toute tentative d’espionnage sur un qubit détruit immédiatement son état quantique délicat, en effaçant les informations qu’il contient et en laissant un signe révélateur d’une intrusion.

La première étape du réseau, reliant la ville de New York au New Jersey, permettra aux banques et aux autres entreprises d’exporter des informations entre leurs bureaux situés à Manhattan, leurs centres de données et d’autres lieux situés en dehors de la ville.

Cependant, l’envoi de clés quantiques sur de longues distances nécessite des «nœuds de confiance», similaires aux répéteurs qui amplifient les signaux d’un câble de données standard. Quantum Xchange dit qu’il en aura 13 le long de son réseau complet. Au niveau des nœuds, les clés sont déchiffrées en bits classiques, puis renvoyées à un état quantique pour une transmission ultérieure. En théorie, un pirate informatique pourrait les voler alors qu’ils sont brièvement vulnérables.

La Chine a dévoilé le premier réseau informatique infalsifiable au monde

La téléportation quantique élimine ce risque en exploitant un phénomène appelé enchevêtrement. Cela implique la création d’une paire de qubits – encore une fois, généralement des photons – dans un seul état quantique. Un changement dans un photon influence immédiatement l’état du photon lié, même s’ils sont très éloignés les uns des autres. En théorie, la transmission de données basée sur ce phénomène est inattaquable, car la falsification de l’un des qubits détruit leur état quantique. (Pour une description plus détaillée de la téléportation quantique, voir « Au cœur de l’Europe: construire un Internet quantique inattaquable ».)

La mise en pratique de ce travail est un défi de taille et l’approche reste confinée aux laboratoires scientifiques. “Envoyer un photon dans un morceau de fibre n’est pas une grosse affaire”, déclare David Awschalom, professeur à l’Université de Chicago, “mais créer et maintenir un enchevêtrement est un véritable défi.” C’est particulièrement vrai pour les réseaux câblés longue distance.

Awschalom dirige l’initiative impliquant impliquant l’université et les laboratoires nationaux. L’objectif, dit-il, est de faire en sorte que le banc d’essai permette une approche «plug-and-play» qui permettra aux chercheurs d’évaluer diverses techniques pour emmêler et envoyer des qubits.

Le banc d’essai, sera construit avec plusieurs millions de dollars par le US Department of Energy et qui utilisera un câble de fibre optique de 30 miles parcourant les laboratoires, sera exploité par des membres du Chicago Quantum Exchange, qui réunit 70 scientifiques et ingénieurs des trois institutions.

L’Europe et la Chine expérimentent également des réseaux de communication quantiques. Awschalom pense qu’il est bon d’avoir une concurrence saine sur le terrain. «D’autres pays ont poussé de l’avant pour construire des infrastructures [quantiques]», a-t-il déclaré. “Maintenant, nous allons faire la même chose.”

MIT Technology Review

> Les Machines pour le Big Data : Vers une Informatique Quantique et Cognitive (PDF)

La cryptographie dans un monde post-quantique

La cryptographie post-quantique est une branche de la cryptographie visant à garantir la sécurité de l’information face à un attaquant disposant d’un calculateur quantique. Cette discipline est distincte de la cryptographie quantique, qui vise à construire des algorithmes cryptographiques utilisant des propriétés physiques (plutôt que mathématiques) pour garantir la sécurité.

Rapport de recherche

– De nombreuses entreprises parlent d’informatique quantique, mais peu d’entre elles se penchent sur l’impact considérable possible sur les méthodes cryptographiques existantes qu’elles utilisent.
– L’informatique quantique la capacité des entreprises à opérer dans le futur car elles ne pourront pas garantir la confidentialité, l’intégrité et la disponibilité des transactions commerciales.
– Les projections suggèrent que l’informatique quantique sera viable d’ici 10-15 ans, mais Accenture pense que le point de basculement sera beaucoup plus tôt, à l’horizon 2025.
– Les entreprises doivent commencer à se préparer dès maintenant, car l’évaluation et la mise à jour des schémas cryptographiques sur l’infrastructure, les systèmes, les applications et les tiers prendront beaucoup de temps.

L’informatique quantique va changer le monde

Le monde quantique arrive… votre fonction de sécurité est-elle prête ?

Les entreprises utilisent actuellement le cryptage à clé publique, les signatures numériques et les échanges de clés pour protéger le commerce, les communications, l’identité et les données des entreprises. Ces schémas cryptographiques reposent sur un ensemble d’algorithmes vérifiés et le niveau de protection est basé sur la force des calculs sous-jacents et sur la difficulté des calculs.

L’informatique quantique fournit le matériel de traitement nécessaire pour exécuter l’algorithme de Shor à grande échelle et résoudre très efficacement les problèmes mathématiques sous-jacents les plus difficiles. Quantum offre également le pouvoir d’identifier les clés cryptographiques secrètes de manière extrêmement efficace. Cela pourrait potentiellement exposer les entreprises à une menace pour les acteurs du monde entier et simultanément.

Cette perturbation éclipse la planification diligente et les investissements considérables qui ont été consacrés aux préparatifs de Y2K (passage informatique à l’an 2000). Il s’agit d’un événement immense et à fort impact qui remplacera les méthodes de cryptographie existantes et rendra les protections actuelles de l’infrastructure et des applications inutiles.

Le timing est critique car les entreprises n’auront pas huit ans jusqu’en 2025 pour réduire les risques. La mise en œuvre de cet énorme effort de gestion du changement prendra au moins deux à quatre ans une fois qu’un algorithme éprouvé et viable aura été annoncé quelque part entre 2022 et 2024.

Voir le rapport complet

Timeline for future standardization events (copyright Accenture)

Tirer le meilleur parti de l’intelligence artificielle

L’intelligence artificielle pourrait aider l’humanité à surmonter bon nombre des graves problèmes sociaux auxquels elle est confrontée, mais elle lance en même temps une série de défis complexes, notamment sur le plan de l’éthique, des droits de l’homme et de la sécurité. Or, aucun cadre éthique international, s’appliquant à l’ensemble des développements et des applications de l’intelligence artificielle, n’existe à l’heure actuelle. Un instrument normatif international est indispensable.

Audrey Azoulay, Directrice générale de l’UNESCO, répond aux questions de Jasmina Šopova

Pourquoi l’UNESCO s’intéresse-t-elle à l’intelligence artificielle ?

Les experts sont unanimes : l’humanité est au seuil d’une nouvelle ère ; l’intelligence artificielle va transformer nos existences dans une mesure que nous ne pouvons imaginer. Cette transformation a déjà commencé et elle affecte tous les secteurs de notre vie. L’ intelligence artificielle connaît de nombreuses applications dans des domaines aussi variés que la santé, l’éducation, la culture, la sécurité, la défense… La recherche a pris un essor considérable ces dernières années : les géants du web (GAFAM), mais aussi de nombreux pays investissent désormais massivement dans l’intelligence artificielle et se font les acteurs de cette « quatrième révolution industrielle ».

L’UNESCO a un vrai rôle à jouer à l’heure de ces mutations. D’abord, parce que les applications de l’intelligence artificielle touchent directement ses domaines de compétence. L’éducation sera profondément transformée par l’intelligence artificielle.

Les outils d’enseignement, les manières d’apprendre, d’accéder à la connaissance, de former les enseignants vont être révolutionnés. La question des compétences à développer pour évoluer dans un monde toujours plus automatisé va devenir de plus en plus centrale.

Dans le domaine de la culture, l’intelligence artificielle est déjà largement sollicitée, par exemple dans l’imagerie 3D utilisée pour la reconstruction du patrimoine, comme nous allons le faire pour la vieille ville de Mossoul en Iraq. Dans les sciences également, notamment dans nos programmes environnementaux et dans la recherche subaquatique, par exemple pour le classement des images de plancton ou la détection et le recensement automatiques des cétacés et des oiseaux marins.

« L’UNESCO a un vrai rôle à jouer à l’heure de ces mutations. Les applications de l’intelligence artificielle touchent directement ses domaines de compétence »

La communication et l’information sont aussi bien sûr directement tributaires des avancées réalisées dans le domaine de l’intelligence artificielle. L’UNESCO doit mener cette réflexion sur les bénéfices et les risques de l’intelligence artificielle pour l’éducation, la culture, la science, la communication et l’information.

Quels en sont les risques selon vous ?

De manière générale, l’intelligence artificielle peut être une chance fantastique pour la réalisation des objectifs posés par l’Agenda 2030, mais cela suppose de traiter sans plus attendre les questions éthiques qu’elle pose. Une chance, car ses applications aident à avancer plus rapidement vers la réalisation des Objectifs de développement durable – en autorisant une meilleure évaluation des risques, en permettant une meilleure prospective, un partage plus rapide des connaissances, en proposant des solutions innovantes dans les domaines de l’éducation, de la santé, de l’écologie, de l’urbanisme, des industries créatives, en améliorant le niveau de vie et le bien-être quotidien.

Mais c’est aussi une menace, car l’automatisation et la numérisation créent de nouveaux déséquilibres, peuvent diminuer la diversité dans les industries culturelles, bouleversent le marché du travail, engendrent de la précarité, accroissent les disparités entre ceux qui ont accès à ces nouvelles technologies et ceux en sont privés.

C’est là que l’UNESCO a également un rôle à jouer : en tentant de réduire, par le soutien qu’elle apporte à ses États membres, les inégalités dans l’accès au savoir et à la recherche. La fracture technologique risque d’avoir un effet démultiplicateur sur les inégalités sociales. L’UNESCO doit être en mesure d’aider ses États membres à s’adapter aux nouvelles réalités et à accéder au savoir technologique.

Tirer le meilleur parti des avantages sociétaux et économiques de l’IA

Comment l’UNESCO peut-elle concrètement apporter ce soutien ?

L’un des enjeux, pour les États membres, est de pouvoir disposer de matériaux d’ingénierie sophistiqués, à la pointe de l’innovation, ainsi que de compétences humaines suffisantes – des scientifiques et des ingénieurs. Grâce à ses Centres d’éducation et de formation dans le domaine de la science, de la technologie et de l’innovation (STI), son Observatoire mondial des instruments de politique de la science, de la technologie et de l’innovation (GO-SPIN) ou encore son Programme international relatif aux sciences fondamentales (PISF), l’UNESCO est en mesure de fournir un tel soutien – et d’aider à réduire les disparités entre pays.

Quels sont les défis que pose l’intelligence artificielle en matière d’éducation ? Comment l’UNESCO compte-t-elle y répondre ?

C’est un domaine bien sûr essentiel pour l’Organisation. Là encore, la révolution qui s’amorce génère des effets à la fois positifs et négatifs. Des logiciels pédagogiques fondés sur l’intelligence artificielle sont déjà utilisés pour décentraliser l’enseignement, le personnaliser, fournir aux étudiants des conseils sur les curricula ou encore des certifications.

Mais ces technologies sont coûteuses, donc inaccessibles au plus grand nombre : le fossé entre riches et pauvres risque de se creuser encore davantage.

Du fait de son rôle de coordination du Comité directeur ODD – Éducation 2030, chargé de suivre la réalisation de l’Objectif de développement durable 4, dédié à l’éducation, l’UNESCO est en excellente position pour conduire ce travail, en identifiant les possibles contributions de l’intelligence artificielle à une éducation ouverte à tous et en évaluant son impact potentiel sur l’avenir de l’apprentissage.

La promotion d’outils d’IA libres d’accès, qui favoriseront les innovations locales, sera l’une de nos priorités.

Pour préparer les nouvelles générations au nouveau paysage du travail que l’intelligence artificielle est en train de dessiner, il faudra également repenser les programmes éducatifs, en mettant l’accent sur l’enseignement des sciences, de la technologie, de l’ingénierie et des mathématiques, mais aussi en accordant une place de premier ordre aux humanités, aux compétences en matière de philosophie et d’éthique.

Quel est le rapport entre l’intelligence artificielle et la philosophie ou l’éthique ?

Dans leur vie d’adultes, les écoliers et étudiants d’aujourd’hui devront sans doute affronter des problèmes dont la nature nous échappe à l’heure actuelle. Il est difficile de prévoir toutes les évolutions possibles de ces machines de plus en plus sophistiquées qui gagnent chaque jour un peu plus en autonomie, au point de défier, déjà, dans une certaine mesure, l’identité humaine. C’est la raison pour laquelle, des compétences en matière d’éthique, mais aussi dans les sciences sociales et humaines en général, seront tout aussi importantes que celles dans les sciences formelles. Il peut y avoir aussi des biais embarqués dans les systèmes d’IA – notamment des biais de genre – qui requièrent plus de transparence de la part de ces systèmes et de solides principes éthiques pour les corriger.

Pourquoi est-il difficile de prévoir les futures évolutions de l’intelligence artificielle ?

La recherche dans le domaine de l’intelligence artificielle avance à très grande vitesse, tandis que les environnements juridiques, sociaux et éthiques qui devraient l’encadrer évoluent très lentement. Jusqu’où peut aller l’autonomie d’une machine et son pouvoir de décision ? En cas d’accident, qui porte la responsabilité ? Et qui décide des valeurs inculquées aux machines durant ce qu’on appelle leur « apprentissage » ? Ces questions, parmi bien d’autres, restent aujourd’hui sans réponse.

On a constaté, par exemple, que des algorithmes formés au langage humain ordinaire avaient acquis des préjugés fondés sur des stéréotypes à partir de données textuelles présentes dans notre culture de tous les jours. Comment ne pas s’inquiéter du danger de voir apparaître des machines au comportement discriminatoire, raciste ou hostile ?

Il y a des raisons de s’inquiéter à bien d’autre égards aussi : protection de la vie privée et publicité ciblée sur l’Internet ; liberté d’expression et algorithmes de censure ; journalisme automatisé et monopole de l’information…

Même si la recherche fondamentale en la matière est, dans l’ensemble, motivée par le bien-être, des dérives involontaires, mais volontaires aussi, sont toujours possibles. C’est la raison pour laquelle il est impératif de s’assurer que cette technologie se développe suivant des normes éthiques rigoureusement établies.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Que peut faire l’UNESCO sur ce plan?

Si nous voulons tirer le meilleur parti des possibilités offertes par l’intelligence artificielle pour le monde entier, nous devons veiller à ce qu’elle soit au service de l’humanité, dans le respect de la dignité et des droits de l’homme.

Or, aucun cadre éthique international, s’appliquant à l’ensemble des développements et des applications de l’intelligence artificielle, n’existe à l’heure actuelle.

L’UNESCO est ce forum universel unique qui dispose d’une expérience de plus de vingt ans dans l’élaboration d’instruments internationaux relatifs à la bioéthique et à l’éthique des sciences et des technologies. Elle peut également s’appuyer sur deux organes consultatifs d’experts qui travaillent activement sur ces questions : la Commission mondiale d’éthique des connaissances scientifiques et des technologies (COMEST) et le Comité international de bioéthique (CIB).

Il est de notre responsabilité de mener un débat universel et éclairé – pas un débat technique mais bien éthique – afin d’entrer dans cette nouvelle ère les yeux grands ouverts, sans sacrifier les valeurs qui sont les nôtres et permettre, si les États membres le souhaitent, d’aboutir à un socle commun de principes éthiques.

À qui appartient la prise de décision ?

Décisions humaines : réflexions sur l’intelligence artificielle, 2018

Le phénomène des données de masse (big data) et le tournant des systèmes d’apprentissage profond ont fait de l’intelligence artificielle l’une des tendances technologiques les plus débattues du moment, du fait de ses répercussions sur les individus et les cultures.

Les aspects techniques de l’intelligence artificielle ont de quoi fasciner, mais certains craignent qu’elle ne finisse par éclipser l’intelligence humaine. Même en acceptant l’idée qu’elle puisse faire progresser l’humanité, il nous faut anticiper les dangers d’une IA devenue incontrôlable, et prendre conscience de ses implications éthiques.

Vaste sujet, intéressant à la fois la philosophie, les mathématiques, les sciences, l’informatique et l’ingénierie, que Netexplo, un observatoire indépendant partenaire de l’UNESCO, scrute avec attention. En 2015, l’UNESCO et Netexplo ont créé un conseil consultatif commun, l’UNAB. Ce réseau de professeurs, conférenciers et chercheurs venus des plus grandes universités du monde a pour mission d’analyser les tendances de la technologie numérique et en particulier l’intelligence artificielle.

En 2018, l’UNAB a publié Human Decisions : Thoughts on AI [Décisions humaines : réflexions sur l’intelligence artificielle], un recueil d’analyses qui a pour objectif de susciter une réflexion sur les défis les plus cruciaux en matière d’IA et d’en saisir les ressorts sous-jacents. Les humains confient-t-il délibérément à l’intelligence artificielle leurs pouvoirs de décision ?  L’ intelligence artificielle est-elle vue en tant que substitut de l’homme ? Quelle mesures potentielles de protection contre les dérives de l’intelligence artificielle?  Voici quelques-unes des questions examinées dans cet ouvrage. Elle s’ajoutent aux points de vue développés par Netexplo, qui mettent en regard différents scénarios.

Par-delà les points de vue, une question revient de façon lancinante : celle de la prise de décision. Avons-nous déjà renoncé à l’autorité que nous confère la maîtrise de la machine ?  Et si l’intelligence artificielle finissait par contrôler le comportement des hommes sans leur participation ? Dans ce cas, qui (ou quoi) participera à la prise de décision ?

Si certains experts craignent que l’emprise de l’intelligence artificielle ne nous conduise à un système interconnecté qui verrait notre intelligence subordonnée à celle des machines, d’autres restent persuadés que nos connaissances informatiques actuelles sont encore trop limitées pour justifier une telle peur de l’inconnu. Selon eux, il n’est pas question de compétition, mais de coopération entre intelligence artificielle et genre humain.

Le Courrier de l’UNESCO • juillet-septembre 2018

La cybersécurité face au défi de la confiance

ISBN-2738143679

85% des dirigeants interrogés à travers le monde déclarent ne pas connaître précisément la façon dont leur entreprise est organisée pour faire face à la menace cyber. Un constat pour le moins surprenant à l’heure où de nombreuses attaques sont recensées et qui sert de point de départ à Philippe Trouchaud, expert en cybersécurité pour son second ouvrage « La cybersécurité face au défi de la confiance ». Ce dernier apporte un nouvel éclairage sur l’enjeu crucial qu’est aujourd’hui la cybersécurité. Si Philippe Trouchaud pointe l’immaturité des entreprises face au cyber-risque, il apporte, au gré d’exemples connus de tous et nourris par l’actualité, des réponses concrètes aux entreprises afin de relever ce défi. Surtout, l’auteur plaide en faveur d’une cybersécurité collective, raisonnée, résolument centrée sur l’humain.

Qui aurait imaginé qu’en quelques heures les géants de l’Internet puissent perdre l’équivalent de 220 milliards de dollars de leur capitalisation boursière ? Des interrogations sur la sécurité de l’un d’entre eux et sur l’utilisation des données personnelles de ses clients en étaient la cause.

Cet épisode survenu en mars 2018 rappelle combien l’entreprise doit savoir gérer sa cybersécurité pour préserver son capital de marque. Or on assiste aujourd’hui à l’explosion d’une délinquance cyberorganisée, inventive et sans frontières. Résultat : les incidents se multiplient et engendrent une perte massive de confiance des consommateurs.

La confiance, voilà donc la clé pour avancer sereinement dans le cybermonde. Celle-ci dépend, notamment, de la capacité des États et des entreprises à renforcer leur collaboration et à rendre attractive cette filière pour les meilleurs talents. Comment gérer les crises ? Comment valoriser les professionnels ? Comment édicter des règles communes ? Comment choisir ses partenaires ?

Autant de questions auxquelles ce livre répond concrètement.

Philippe Trouchaud est associé au sein du cabinet PwC où il est responsable des activités de cybersécurité pour la France et membre du comité de direction mondial dédié à cette activité. À ce titre, il conseille les directions de groupes internationaux et des entreprises du CAC40. Son précédent ouvrage La Cybersécurité au-delà de la technologie a reçu le prix du Forum international de la cybersécurité 2017.

Pascal Andrei, directeur de la sécurité du groupe Airbus, signe la préface de l’ouvrage.

Les droits de ce livre sont reversés à H’Up entrepreneurs qui accompagne les entrepreneurs en situation de handicap.

La Maison Blanche lance un groupe de travail sur l’intelligence artificielle

Le Comité spécial sur l’intelligence artificielle, un effort du National Science and Technology Council, a été annoncé le 10 mai lors d’un événement de la Maison-Blanche qui a accueilli des représentants de géants de la technologie tels que Google, Amazon et Facebook. L’annonce de Michael Kratsios, directeur adjoint de la technologie à la Maison Blanche, était pleine d’aspiration, décrivant comment les efforts de robotique qui ont vu le succès pourraient être utilisés comme modèles pour stimuler la croissance de l’emploi pour les travailleurs touchés par l’automatisation.

Un communiqué de presse de la Maison Blanche sur “l’intelligence artificielle pour le peuple américain” note les efforts déjà faits par l’administration Trump pour renforcer l’industrie de l’intelligence artificielle et donner la priorité à la recherche et au développement, ainsi que prendre des mesures pour s’assurer que les travailleurs américains sont prêts pour la révolution de l’automatisation. Kratsios reconnaît que les pertes d’emplois résultant de l’IA sont maintenant une priorité pour l’administration. “Dans une certaine mesure, le déplacement de l’emploi est inévitable”, a-t-il déclaré. “Mais nous ne pouvons pas rester inactifs, espérant que le marché finira par régler le problème. Nous devons faire ce que les Américains ont toujours fait : s’adapter.”

“Nous sommes à la veille de nouvelles révolutions technologiques qui pourraient améliorer pratiquement tous les aspects de nos vies, créer de nouvelles richesses pour les travailleurs et les familles américaines et ouvrir de nouvelles frontières audacieuses dans les domaines de la science, de la médecine et de la communication”. Président Donald J. Trump

Kratsios a noté que le Bureau de la politique scientifique et technologique de la Maison Blanche allait bientôt publier un plan quinquennal pour améliorer l’éducation STEM (acronyme de science, technology, engineering, and mathematics), y compris des mesures pour augmenter le nombre d’étudiants travaillant dans la recherche sur l’intelligence artificielle.

Les États-Unis investissent déjà beaucoup dans l’intelligence artificielle; Selon le Washington Post, la Maison Blanche estime que le gouvernement américain a dépensé plus de 2 milliards de dollars en 2017 pour des programmes de développement d’intelligence artificielle non classifiés, ainsi qu’un montant inconnu sur l’intelligence artificielle pour des utilisations classifiées comme la défense ou la collecte de renseignements. En outre, les investisseurs privés dans le pays dépensent plus dans les startups de l’Intelligence Artificielle que toute autre industrie, dépensant environ 21 milliards de dollars en entreprises d’Intelligence Artificielle en 2016.

Comment éviter les pertes d’emplois technologiques

Kratsios a déclaré que l’administration actuelle poursuivra ces investissements : “Pour réaliser le plein potentiel de l’IA pour le peuple américain, il faudra les efforts combinés de l’industrie, du milieu universitaire et du gouvernement.”

Il suggère également que la recherche sur l’intelligence artificielle pourrait être améliorée en ouvrant l’accès aux vastes gisements de données financées par les contribuables du gouvernement d’une manière qui ne compromet pas la vie privée ou la sécurité. Les données financées par les contribuables constituent une catégorie assez vaste, englobant tout, de la recherche scientifique nationale aux infrastructures de la ville en passant par les dépenses de santé.

Comment faire de votre vision de l’Internet des Objets une réalité ?

Générer des résultats commerciaux est un élément clé d’un programme Internet des objets réussi, mais vous devez être flexible et prêt à vous adapter.

Une enquête récente de Cisco a révélé que près des trois quarts de tous les projets IoT (Internet of Things) échouent. Une telle performance médiocre dans les projets IoT est attribuée à ce qui suit :

• Les projets IoT prennent beaucoup de temps.
• La qualité des données collectées n’est pas bonne ou les données ne sont pas utilisées correctement.
• L’expertise de l’IoT fait défaut.
• Il existe des intégrations IoT incorrectes ou approximatives.
• Les projets IoT dépassent les budgets.

Malgré ces raisons, l’IoT présente un énorme potentiel pour les entreprises, et les dirigeants avisés cherchent à en tirer parti dès que possible. Outre la navigation de l’adoption de la technologie, il est également important d’identifier les avantages. Investir dans la pré-planification et obtenir les bons composants à bord est plus susceptible de voir le succès d’un projet IoT. En outre, il pourrait être judicieux de «penser gros, mais commencer petit», puis d’évoluer de façon itérative, mais rapidement.

Bien faire les choses dès le départ et rester sur la bonne voie sont deux des aspects les plus importants d’un projet IoT. Dans une étude mondiale réalisée en 2017 auprès de plus de 250 décideurs informatiques dirigés par HCL et le Massachusetts Institute of Technology, 81% des répondants ont déclaré avoir déjà commencé leur voyage IoT ou prévu de le faire dans les 12 prochains mois. Mais plus de 50% des répondants ont estimé qu’ils étaient déjà en retard pour exploiter pleinement les capacités de l’IoT, et 43% ont déclaré que cet échec avait eu un impact négatif sur la satisfaction des clients.

Il y aura 24 milliards périphériques IoT installés en 2020

Pour planifier dès le début, un responsable de programme devrait considérer trois aspects. Premièrement, il ou elle devrait obtenir les approbations CXO et l’alignement; La plupart des projets IoT seront interfonctionnels en termes d’impact et de résultat, de sorte qu’une approche axée sur le haut aidera à accélérer la prise de décision et l’adoption. De plus, pour un projet utilisant des technologies et des normes en constante évolution, il est essentiel d’obtenir l’adhésion et l’alignement des attentes des cadres. Sinon, le risque d’échec est élevé.

Deuxièmement, le chef de programme devrait s’assurer qu’il y a un alignement entre les opérations commerciales et la technologie de l’information (IT). L’IoT est un outil technologique visant à améliorer ou à transformer les opérations qui touchent l’infrastructure technologique existante. Par conséquent, travailler avec une planification minutieuse, le partage des responsabilités et la propriété, et avoir des objectifs communs à l’esprit sont essentiels.

Enfin, il ou elle devrait s’assurer que le bon système de collecte de données est en place. Cela comprendra la création d’un plan des données qui doivent être saisies, et l’établissement d’un canal de communication fiable et d’une plate-forme de données IoT qui crée de l’intelligence à partir des données. Une fois que les données sont capturées de la bonne manière, l’extraction d’informations exploitables pour conduire des décisions éclairées est la façon dont la valeur transformationnelle est créée.

Voici quelques bonnes pratiques pour les projets IoT :

– Assurez-vous que le projet a défini des résultats tangibles. Cela aide à atteindre la feuille de route souhaitée.
– Soyez réaliste dans la planification de votre projet IoT. Surtout si vous êtes un adoptant précoce de l’IoT, sachez que les capacités de votre organisation seront limitées et qu’il y aura beaucoup d’apprentissage requis à mesure que votre projet prend forme.
– La transformation de l’entreprise pilotée par l’IoT nécessitera également une gestion du changement organisationnelle approfondie, qui doit être effectuée avec compétence. S’adapter à de nouvelles façons de travailler, de nouveaux processus et de nouvelles politiques doivent se faire en boucle pour atteindre les objectifs finaux souhaités.
– Des projets IoT significatifs peuvent affecter plusieurs équipes au sein d’une organisation. Il est important que vous impliquiez ces équipes dès le début, et que vous établissiez une culture de propriété partagée pour assurer le succès du projet. Identifier et sécuriser l’engagement des principaux leaders d’entreprise pour s’assurer que les projets IoT reçoivent l’attention et le soutien nécessaires de tous les secteurs de l’organisation.
– Assurez-vous de créer les partenariats nécessaires, avec des équipes au sein de votre organisation, ainsi qu’en externe avec les fournisseurs de technologie IoT, les experts et les consultants, afin de vous assurer que vos capacités IoT sont bien augmentées.

Générer des résultats commerciaux est un élément clé d’un programme IoT réussi. Cependant, pour que votre vision de l’Internet des objets devienne une réalité, vous devez être flexible et disposé à vous adapter. En approchant de tels projets avec des niveaux significatifs de contrôles et de notions préconçues ne fera que conduire à la déception. Une approche ouverte a de meilleures chances de succès.

RFID Journal