Microsoft Cloud peut héberger des données classifiées du Pentagone

Microsoft a annoncé mardi que le département de la Défense peut héberger des données classifiées secrètes dans son cloud.

L’annonce signifie que le Département de la Défense, les services militaires, les agences de renseignement et leurs partenaires de l’industrie travaillant dans des enclaves secrètes peuvent héberger des données classifiées dans le cloud Azure Government Secret de Microsoft, où ils auront accès à de nouvelles technologies comme l’apprentissage automatique.

« Il s’agit d’un cloud hyper-évolutif avec les mêmes innovations et la même sécurité que vous pouvez espérer, avec des innovations dans des domaines tels que l’intelligence artificielle, les data, l’apprentissage automatique et bien sûr la sécurité », a déclaré Tom Keane, responsable Global Infrastructure chez Microsoft Azure.

Le gouvernement des États-Unis désigne les informations classifiées secrètes comme des données qui causeraient des « dommages sérieux » à la sécurité nationale si elles étaient accessibles au public et exige une habilitation de sécurité du niveau secret pour la visualisation.

Le Département de la défense des États-Unis développe un système d’authentification multifactorielle

Les données secrètes sont traditionnellement distribuées par l’intermédiaire d’un système de réseaux informatiques gérés par la Défense et les services de l’État, appelé Secret Internet Protocol Router Network ou SIPRNet. Le cloud Azure Government Secret de Microsoft peut désormais héberger des données SIPRNet, a déclaré Keane.

« SIPR est la plate-forme avec laquelle les États-Unis et les partenaires de la coalition vont à la guerre », a déclaré Keane. « Ce dont SIPR est un exemple, c’est une enclave secrète, c’est juste très, très large. Si vous pensez au FBI, au ministère de la Justice et au département de la Sécurité intérieure, toutes ces organisations ont des réseaux de niveau secret », a déclaré Keane. « Donc, ce que nous annonçons avec Azure Secret, c’est la capacité de tous ces réseaux secrets à se connecter. »

Keane a décrit le Secret Cloud de Microsoft comme une infrastructure physiquement isolée située dans une installation sécurisée fonctionnant sous personnel autorisé.

Microsoft est l’une des nombreuses entreprises, dont IBM et Amazon Web Services, qui renforcent la sécurité de leurs plates-formes cloud pour attirer les entreprises du département de la Défense, qui dépensent près de 50 milliards de dollars chaque année en technologies de l’information.

L’année dernière, Microsoft est devenu le premier fournisseur de cloud à accueillir les données non classifiées les plus sensibles de l’armée. Le cloud est même en train de gagner du terrain dans la communauté du renseignement. La NSA-National Security Agency gère son propre cloud privé et la CIA exploite un cloud hébergé par Amazon.

Nextgov, Microsoft Azure

Intelligence artificielle : Fujitsu investit 50 millions en France

Du haut de ses 40 milliards de dollars de chiffre d’affaires annuel, Fujitsu, le 5è spécialiste des technologies de l’information et de la communication dans le monde, considère la France comme un marché stratégique. La firme va investir 50 millions d’euros dans l’Hexagone. Pourquoi cet intérêt ? Il s’agit de miser sur l’excellence mathématique et l’intelligence artificielle française, explique Benjamin Revcolevschi, directeur général de Fujitsu France. – Good Morning Business, du jeudi 9 mars 2017, présenté par Stéphane Soumier, sur BFM Business.

Inria est sur le point de signer un partenariat avec Fujitsu, troisième fournisseur mondial de services informatiques, sur un programme de recherche à long terme autour de l’intelligence artificielle et du traitement de données massives. Celui-ci pourra aboutir à la création d’un laboratoire commun.

Fujitsu

La ruée vers les datas

Depuis les couloirs du Parlement Européen, chronique de la difficile élaboration d’une nouvelle loi pour la protection des données personnelles, enjeu central opposant les citoyens aux intérêts privés.

Chaque fois que nous faisons nos courses sur Internet, interrogeons un moteur de recherche, activons la géolocalisation sur notre smartphone ou même utilisons notre carte de transport ou de crédit, nous laissons des traces : des masses d’informations personnelles sont collectées sur nos habitudes de consommation, nos goûts, nos déplacements ou nos opinions. Des informations hautement exploitables – et monnayables. Nombreux sont les observateurs à l’affirmer : les données seront le pétrole du XXIe siècle. Utilisée de manière judicieuse, cette manne offre la promesse de transformer nos vies en profondeur. Mais à quel prix ? Ces données personnelles échappent de plus en plus aux citoyens, au profit des entreprises. Comment nous protéger contre l’utilisation incontrôlée de nos données, garantir notre droit à l’autodétermination et sanctionner les contrevenants ? Selon les lobbies privés, une loi trop draconienne risquerait de faire fuir les entreprises du territoire européen. Mais faut-il pour autant sacrifier la vie privée des citoyens ?

Depuis plusieurs années, l’Union européenne travaille à réformer la loi sur la protection des données personnelles. Le jeune député vert européen Jan Philipp Albrecht a notamment pris ce combat à bras-le-corps, en se faisant le rapporteur du Parlement européen sur la réglementation de la protection des données. Ce documentaire suit le parcours complexe de la législation européenne en la matière, en interrogeant des acteurs aux intérêts souvent divergents : politiques, juristes, membres de la société civile ou du monde des affaires.

Arté tv

Vers une économie politique des données : le pouvoir à l’aune des data

Pre-print du chapitre publié dans D. Bourcier et P. De Filippi (dir.), Open Data & Big Data. Nouveaux défis pour la vie privée, Paris, Mare & Martin, 2016, p. 245-262.

Benjamin Loveluck, Télécom ParisTech et CERSA (CNRS/Paris 2)

L’extension de l’environnement numérique a entraîné une inflation de traces numériques produites par les individus autant que par les institutions – et, de plus en plus, par les objets eux-mêmes à travers la prolifération de capteurs, de compteurs et de dispositifs « intelligents ». L’afflux de données quantifiées atteint aujourd’hui les proportions d’un data deluge qu’il est devenu trivial de signaler (The Economist 2010). En tant qu’outils d’observation scientifique et de mise au jour de phénomènes inédits, mais aussi comme instruments d’étude de marché et d’intelligence économique, d’analyse et de gestion des risques, de prospective et d’aide à la décision etc., la collecte et l’analyse de ces données a acquis une place prépondérante dans tous les domaines de la vie sociale, économique et politique.

On parle aujourd’hui plus volontiers de « données » que d’« informations », mais cette évolution terminologique traduit avant tout le stade le plus récent d’un processus initié au début du XX e siècle lors du basculement vers une conception mathématique et scientifique de la notion d’information (Aspray, 1985 ; Segal, 2003). Alors qu’elle désignait jusqu’à lors avant tout un fait, une occurrence ou une « nouvelle » susceptible d’être communiquée, l’information devient un matériau universel capable d’être encodé et ainsi quantifié, traité et mis en circulation à l’aide des ressources de la logique mathématique et d’instruments techniques. Derrière cette évolution, l’on peut également identifier un idéal de libre circulation qui a animé toute l’histoire des réseaux informatiques, si bien que l’on peut parler à cet égard d’un « libéralisme informationnel » mu par l’idée que la numérisation et la mise en flux de l’information pourrait, en soi, servir de fondement au « pouvoir d’agir » (empowerment) des individus d’un côté et à l’auto-régulation socio-politique de l’autre (Loveluck, 2015). Ce faisant, de nouveaux rapports de force entre l’individu, la société civile et la puissance publique sont apparus, dont l’économie politique des données – leurs modes de production, d’appropriation, de partage – se présente comme un révélateur. En particulier, l’articulation entre la transparence et l’ouverture d’un côté et la protection des libertés individuelles – notamment la vie privée – de l’autre, qui est au cœur du libéralisme classique, se trouve posée à nouveaux frais.

Différents ordres de données peuvent être identifiés, que nous examinerons successivement dans ce chapitre. Il peut s’agir 1) de données « ouvertes », en particulier celles qui ont été produites ou collectées par des administrations publiques et qui sont mises à disposition du public (open data) ; il peut également être question 2) de données « massives », produites ou collectées avant tout par des entités privées, en particulier à travers les traces des actions et des interactions réalisées au sein d’un environnement de plus en plus susceptible d’en conserver des enregistrements (big data) ; mais il peut également s’agir 3) de données « fuitées », c’est-à-dire de données personnelles ou institutionnelles à caractère confidentiel qui ont été divulguées de manière involontaire ou illicite (leaked data). L’articulation entre ces trois ordres des données pose un certain nombre de questions nouvelles pour des catégories structurantes du politique, et sur les possibilités émancipatoires autant que les modalités du contrôle. Nous voudrions ici explorer quelques-unes de leurs implications, en revenant sur ce que ces trois ordres des données révèlent des dispositifs de savoir/pouvoir à l’œuvre – une question qui peut se résumer de la manière suivante : en matière de données, qui accède à quoi et avec quels effets ?

Lire la suite, télécharger le PDF

1. Ce que les pouvoirs publics dissimulent, ce qu’il doivent montrer : les dimensions de l’open data
2. Ce que les entreprises et les institutions peuvent voir, comment elles orientent le regard : big data, protection de la vie privée et politique des algorithmes
3. Ce que la société civile dévoile de force : l’irruption des leaked data
Conclusion

La politique doit aborder les répercussions de la technologie

par John M. Hein, The Sacramento Bee, 13 août 2016

Les progrès spectaculaires de la science et de la technologie nous conduisent vers un avenir inconnu avec peu de conscience des citoyens et un cadre de politique publique qui se trouve derrière le virage.

Les progrès vont bien au-delà de l’expansion du monde en ligne.

Mais commençons par le fait que la confidentialité et les questions de sécurité accompagnant le monde en ligne sont susceptibles de grossir et de prendre de nouvelles formes, car nous utilisons le Cloud pour stoker des données et accéder aux logiciels sur Internet plutôt que sur nos appareils informatiques.

Le Big Data (données volumineuses) est en pleine expansion, et une certaine entité dont vous n’êtes pas au courant, capture, récupère, regroupe, rassemble, avec le traitement d’un volume toujours plus élevé, plus rapide, et une variété des données à caractère personnel pour un but dont vous êtes inconscient.

Nous nous engagerons dans une conversation de fond avec notre logiciel (pensez à Siri sur les stéroïdes), tandis que les vitesses de calcul vont bien au-delà de notre imagination présente. Nos appareils, quels qu’ils soient, seront profondément immergés dans le nouvel « internet des objets ». Les dispositifs se parleront mutuellement aidés par les capteurs omniprésents et les systèmes dans nos ordinateurs, téléphones, maisons, voitures et nos communautés.

Les efforts du FBI pour forcer Apple à accéder aux données de l’iPhone d’un terroriste – et le refus d’Apple – sont apprivoisés par rapport aux enjeux à venir. Le FBI a fondé sa demande sur une loi de 1789, un cadre à peine actualisé et mis à jour pour les questions actuelles de la vie privée et de la sécurité.

La connectivité numérique mondiale encadre une question de politique publique que nous vivons, mais qu’on ne peut pas saisir et appréhender. Dans « L’ère du numérique, » Eric Schmidt et Jared Cohen écrivent : « La grande majorité d’entre nous et de plus en plus, se retrouvera vivant, travaillant et en étant régie dans deux mondes à la fois ». L’un sera virtuel, l’autre physique. « La technologie va bientôt être inextricablement liée à tous les défis dans le monde », écrivent-ils.

Le monde numérique se confond déjà avec les progrès dans d’autres domaines de la science et de technologie. En voici quelques-uns :

les techniques d’édition de gènes détiennent le potentiel pour refaire les espèces, y compris la nôtre. La question politique est, devrions-nous, nous ne pouvons pas ?

les progrès en robotique et intelligence artificielle toucheront tous les secteurs. Il y aura des conséquences sur le plan humain.

les nanotechnologies affecteront les éléments constitutifs de la matière à l’échelle moléculaire et soulèveront des questions éthiques, juridiques, environnementales, sur la santé, la sécurité et d’autres questions de politique sociale.

les drones et véhicules autonomes occupent le ciel, les voies maritimes et les autoroutes, mendiant pour attirer l’attention des politiques.

Nous devrions reconnaître ces avancées et admettre que ces développements auront de vastes répercussions sur les individus et les entreprises, ce qui justifie le débat et nécessite des choix de politique publique, et non pas du « micro bricolage ». Il nous faut des moyens plus efficaces pour construire un cadre de politique publique qui permettra de mieux informer et mobiliser, engager la participation des citoyens à la prise de décision.

Enregistrer

Fichier PNR : surveillance électronique de masse ou nouveau paradigme de la sécurité ?

Note du CREOGN n° 19, juillet 2016 → Télécharger le PDF, Rédacteur : Chef d’escadron Jérôme LAGASSE

Amérique, Europe et la libre circulation des données

Introduction :

Le 16 avril 2016, les Députés européens adoptaient par 463 voix contre 174 la directive dite « fichier PNR » (passenger name record) qui encadre la collecte et le partage des données à caractère personnel* des passagers du transport aérien. Le contenu de ce texte, par les débats qu’il a suscités, demeure encore très controversé en raison des enjeux touchant aux libertés publiques.

En effet, l’utilisation des données des dossiers passagers (DP) a pour finalité entre autre de faciliter la mise en œuvre de techniques dite de profilage à l’aide d’un système de traitement automatisé. À ce stade, nombre de détracteurs appellent à la vigilance, dénonçant l’avènement d’une société où la surveillance électronique de masse serait érigée en système. Les DP vont compléter la traçabilité du trajet réalisé par tout passager empruntant la voie aérienne. En effet, les compagnies aériennes collectent déjà des données dite API (advanced passenger information) qui comprennent les données d’identification des passagers ou des membres de l’équipage, provenant du passeport ou d’un autre document de voyage ainsi que des informations générales concernant le vol.

De manière plus spécifique au transport aérien, les fortes réserves émises dans l’usage des données des DP porteraient notamment sur l’existence d’un risque avéré d’erreur manifeste d’appréciation vis-à-vis du comportement d’un individu qui serait a priori suspect en raison des déplacements réalisés et du profil qu’il présente par au regard des résultats issus des données à caractère personnel transmis par une compagnie de transport aérien. La crainte d’une surveillance de masse et d’atteintes à la vie privée expliquent en grande partie que la directive PNR ait été bloquée au stade de la discussion depuis 2011 au Parlement européen.

Les attentats de Paris et de Bruxelles ont eu pour premier effet une demande accrue de sécurité de la part des opinions publiques choquées. Cette inquiétude des populations a pesé sur la nécessité de faire aboutir les débats de fond. Cependant, en l’absence de visibilité sur la période d’entrée en vigueur du projet de Directive PNR, des États européens, comme la France, avaient déjà fait le choix de légiférer en cette matière. Le gouvernement français a mis à profit l’adoption de la loi de programmation militaire 2014-2019 pour prévoir dans son article 17 que les transporteurs aériens puissent recueillir et transmettre les données d’enregistrement relatives aux passagers des vols à destination et en provenance du territoire national en excluant les vols internes.

La présente note commentera le contenu des dispositions de la directive en s’attachant à mettre en évidence l’architecture générale et le rôle des différents acteurs privés et publics intervenants dans le processus d’exploitation des données des dossiers passagers (DP). Cette présentation effectuée, nous nous attacherons de mettre en évidence que ce texte veille au maintien de grands équilibres indispensables dans toute société démocratique organisée autour du principe de l’État de droit. Quatre annexes, dont deux issues in extenso de la directive, apportent un éclairage concret sur la nature des DP, la liste des infractions à prévenir et/ou à détecter grâce à ceux-ci. Les deux dernières annexes récapitulent sous la forme de tableaux l’encadrement juridique du traitement des données PNR ainsi que les modalités de partage de celles-ci dans le cadre de la coopération entre les États.

* définit une donnée à caractère personnel comme : toute information se rapportant à une personne physique identifiée ou identifiable (ci-après dénommée « personne concernée ») ; est réputée être une « personne physique identifiable » une personne physique qui peut être identifiée, directement ou indirectement, notamment par référence à un identifiant, tel qu’un nom, un numéro d’identification, des données de localisation, un identifiant en ligne, ou à un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique, économique, culturelle ou sociale.

Un stockage de données 5D éternel pourrait préserver l’histoire de l’humanité pour 14 milliards d’années

Vous n’avez plus à vous soucier de ce qui va arriver à vos données, les chercheurs ont haussé le stockage et la durée de vie du verre de quartz. Vos données peuvent être stockées en toute sécurité pour 14 milliards d’années !

Pour rappel :

  • La terre est vieille de 4,534 milliards ans
  • L’univers est âgé de 13,82 milliards années

Dans cette optique, vos données sont sécurisées pour toujours.

Des chercheurs de l’Université de Southamton au Royaume-Uni ont mis au point une technique de stockage de données numériques à l’aide de la lumière laser. 360 téraoctets d’informations peuvent tenir sur une lamelle de quartz nanostructurés. Avec cette technologie, nous pouvons stocker littéralement toute l’histoire humaine.

La technique utilise des impulsions de laser femtoseconde pour écrire des données dans la structure 3D de quartz à l’échelle nanométrique. Les impulsions créent trois couches de points nanostructurés, séparés les un des autres d’une distance de 5 microns seulement.

C’est considéré comme un périphérique de stockage 5D. Ceux-ci incluent les trois dimensions de l’espace, qui sont responsables de la description de l’emplacement physique du point et deux dimensions supplémentaires qui sont codées par la polarité et l’intensité du faisceau qui crée le point.

Le système de stockage, en plus d’être de longue durée, est également assez sûr — le quartz peut supporter jusqu’à 157 degrés Celsius (350 degrés Fahrenheit).

De la même manière que la Plaque de Pioneer est censée être un outil de communication entre nous et toute vie extraterrestre, ces systèmes de stockage minuscule pourraient un jour informer d’autres êtres (peut-être nos descendants très lointains) à propos de la terre et de l’humanité après que nous ayons disparu depuis longtemps.

L’équipe de recherche a écrit une série d’œuvres majeures sur les petits disques de verre. Ce sont des œuvres qui survivront des générations :

Universal Declaration of Human Rights recorded into 5D optical data

Cette nouvelle avancée dans le stockage donne un véritable moyen d’archiver de grandes quantités d’informations à perpétuité. Nous n’avons plus à craindre la perte associée à des tragédies comme la Bibliothèque d’Alexandrie.

source : Université de Southamton

Yandex ou l’intelligence artificielle au quotidien

Très à la mode dans les années 70 et 80 du siècle dernier, suscitant espoirs et inquiétudes, inspirant des scénarios d’anticipation, l’intelligence artificielle (IA) a pu sembler rejoindre la liste sans fin des engouements technologiques passagers. La création de machines pensantes reste néanmoins un des rêves les plus tenaces de l’humanité ; en ce début de 21ème siècle, il a simplement pris des formes plus modestes, concrètes, opérationnelles et, déjà, commercialisables. Les directions de l’IA actuellement en plein développement se trouvent à l’interface entre statistiques et informatique : science des données, apprentissage automatique, reconnaissance de formes…

On a parfois tendance à sous-estimer l’apport scientifique soviétique à l’IA. La brillante école mathématique de l’URSS a en fait été à l’origine de nombreux groupes de recherche en cybernétique, établissant une forte tradition de pratique de la programmation, d’ailleurs stimulée par un certain retard industriel dans le domaine des ordinateurs.

Libéralisation économique aidant, c’est sans doute dans une compagnie privée, Yandex, que l’on perçoit le mieux la vitalité actuelle de l’IA en Russie. Créée en 1997, elle a d’abord développé ce qui est devenu le premier moteur de recherche de la communauté russophone, ainsi que de nombreuses applications ; tout visiteur de la capitale russe comprendra aisément le succès de “Yandex Probki”, décrivant en temps réel l’état de la circulation automobile dans les rues de Moscou…

En une dizaine d’années, les équipes de Yandex ont su acquérir des compétences uniques et adaptables à des situations très diverses. Sa stratégie “B2B” se manifeste en particulier dans son projet de “Data Factory“, qui aide les entreprises à déceler des possibilités de développement dans les données massives créées par le suivi de leurs activités. Cette démarche illustre le potentiel économique de l’abstraction : les algorithmes de Yandex ignorent le contenu des données, pour se concentrer sur l’analyse de leurs corrélations éventuelles. Cela permet, avec une égale efficacité, de fournir à une agence de gestion d’un réseau routier des probabilités d’encombrement ou d’accident sur tel tronçon dans l’heure qui vient, ou bien de proposer à une banque de nouveaux produits financiers adaptés aux habitudes de ses clients.

Rappelons également que Yandex est l’une des sept entreprises privées participant à l’Open Lab du CERN, où elle contribue à l’analyse des données fournies par l’expérience LHCb (analysant l’asymétrie observée entre matière et antimatière). Interrogé sur le regard porté par ses dirigeants sur ces recherches concernant les fondements de notre univers physique, Andrey Ustyuzhanin, qui dirige l’équipe travaillant directement avec le CERN, répond : “Ils ont conscience qu’un certain niveau de culture est indispensable au développement de l’entreprise.”

Enfin, Yandex ne néglige pas le troisième sommet du “triangle de Lavrentiev” ou triangle de la connaissance dans sa version russe. Elle a créé sa propre École d’Analyse des Données en 2007, organise des concours et des écoles d’été de programmation pour lycéens, et accueille des enseignements universitaires en collaboration avec trois établissements prestigieux de Moscou dans le domaine scientifique : l’université Lomonossov, l’Institut Physico-Mathématique (FyzTekh) et l’Ecole des hautes études en sciences économiques.

pour en savoir plus

source