Les leaders technologiques disent que vous pourriez stocker des données dans votre ADN dans les 10 prochaines années

Les dirigeants de Microsoft ont révélé qu’ils visent à avoir un système de stockage de données ADN “proto-commercial” disponible en trois ans et espèrent avoir un modèle opérationnel dans une décennie. Le périphérique éventuel sera autour de la taille d’une imprimante Xerox datant des années 1970.

Le système actuel de Microsoft fonctionne en convertissant tout d’abord les données des zéros et des molécules ATCG, l’ADN est composé de marqueurs pour montrer comment la donnée originale a été composée. Ces séquences sont ensuite synthétisées en ADN réel, et regroupées avec les autres séquences créées.

Pour extraire et accéder aux fichiers, une réaction en chaîne par polymérase (PCR polymerase chain reaction) est utilisée pour sélectionner les séquences appropriées. Ceux-ci sont alors lus, et les molécules ATCG sont retournées dans les données. Les études de Microsoft et une expérience similaire menée par les membres d’Erlich Lab, Dina Zielinski et Yaniv Erlich (qui ont également prédit que le stockage de l’ADN serait utilisable dans une décennie environ) ont montré que le contenu extrait était sans erreur.

Alors que le processus a été affiné, le coût et le temps de la procédure entravent un développement ultérieur. Le processus chimique utilisé pour fabriquer des brins d’ADN est à la fois laborieux et coûteux : les 13 448 372 pièces d’ADN uniques utilisées dans l’étude de Microsoft coûteraient 800 000 $ sur le marché libre. Cette recherche – en cas de rupture record en quantité – n’a pas [montré] de progrès vers l’objectif d’augmenter la vitesse ou de diminuer les coûts, a déclaré Elrich dans une interview avec MIT Technology Review.

Elrich lui-même a proposé une nouvelle modification pour aborder le problème : remplacer le processus de 40 ans et le temps qu’il prend actuellement pour faire un ADN qui utilise des enzymes, comme le font nos propres corps.

Bien que ces obstacles doivent être surmontés, le stockage des données ADN pourrait être la solution à un monde qui nécessite de plus en plus de données stockées de plus en plus compactes. Victor Zhirnov, scientifique en chef de Semiconductor Research Corporation, a déclaré à MIT Technology Review : « Les efforts pour réduire la mémoire de l’ordinateur frappent les limites physiques », tandis que Louis Ceze, professeur agrégé à l’Université de Washington, a déclaré dans une vidéo de Microsoft que « nous stockons beaucoup de données, et les technologies de stockage actuelles ne peuvent pas faire face à cela. »

L’ADN offre une solution à ce problème et une possible révolution mondiale des données en raison de trois de ses propriétés : la densité, la longévité et la pertinence continue.

« L’ADN est le support de stockage connu le plus dense de l’univers, simplement basé sur les lois de la physique » a déclaré Zhirnov dans l’interview. Certaines des statistiques que les scientifiques citent sont étonnantes : tous les films jamais réalisés pourraient entrer dans un volume d’ADN plus petit qu’un cube de sucre; tout l’Internet accessible, estimé à un quintillon d’octets (ou un milliard de gigaoctets), ne remplirait plus qu’une boîte à chaussures; et toutes vos données pourraient être stockées dans une goutte d’ADN.

« Il est peu probable que l’humanité perd sa capacité à lire ces molécules. Si tel est le cas, nous aurons des problèmes beaucoup plus importants que le stockage de données. » a déclaré Elrich dans une interview avec Researchgate.

Au fur et à mesure que la population mondiale grandit et dépend de la technologie en constante évolution, elle produit de plus en plus de données, qui doivent être stockées en toute sécurité. Le stockage de données ADN pourrait être la solution qui permet au big data (qui a récemment été estimé par certains comme étant plus précieux que le pétrole) de continuer sans entraves.

MIT Technology Review

Des dispositifs implantables et des lentilles de contact pour communiquer avec les Smartphones

The energy savings from interscatter communication allows power-limited devices such as smart credit cards (left), implanted medical devices (middle) and smart contact lenses (right) to achieve Internet connectivity. (Credit: Mark Stone/University of Washington)

Les ingénieurs de l’Université de Washington ont créé un moyen de communication qui permet aux périphériques tels que des implants cérébraux et des lentilles de contact « parlent » aux objets du quotidien tels que les Smartphones et les montres.

Ils appellent cette méthode « communication interscatter », basée sur une technique appelée rétrodiffusion qui permet aux périphériques d’échanger des informations simplement en réfléchissant des signaux existants. Le terme « interscatter » vient du fait que cette technique permet une communication inter-technologie en utilisant des signaux Bluetooth pour transmettre une connexion Wi-Fi.

La communication interscatter utilise les radios Bluetooth, Wi-Fi ou ZigBee embarqués dans les appareils mobiles comme les smartphones, les montres, les ordinateurs portables, les tablettes et les casques d’écoute pour servir à la fois les sources et les récepteurs pour ces signaux reflétés.

L’utilisation de ces réflexions, un dispositif interscatter, comme une lentille de contact intelligente, transforme des signaux Bluetooth depuis un périphérique tel qu’un smartwatch dans les transmissions Wi-Fi qui peuvent être captées par un Smartphone.

Tatouage électronique provisoire DuoSkin transformant votre peau en une interface tactileSens artificiel : Un implant vous donnera un sixième sensUn implant de la taille d’un grain de poussière pourrait surveiller des nerfs en temps réelUne puce microfluidique reproduit la jonction neuromusculaire

« La connectivité sans fil pour les dispositifs implantés peuvent transformer notre manière de gérer les maladies chroniques, » a déclaré Vikram Iyer, doctorant en génie électrique. « Par exemple, une lentille de contact pourrait surveiller le niveau de sucre dans le sang des diabétiques avec les larmes et envoyer des notifications au téléphone lorsque le niveau de sucre dans le sang diminue. »

Un document sur le travail devrait être présenté la 22 août lors de la conférence annuelle de l’Association for Computing Machinery’s Special Interest Group on Data Communication (SIGCOMM 2016) au Brésil.

Pour en savoir plus “interscatter” ; University of Washington

Un puissant algorithme de reconnaissance faciale utilisé dans une application russe

5 juillet 2016 – FindFace est une puissante application russe de reconnaissance faciale, développée par N-Tech Lab, qui permet à un utilisateur mobile de photographier des personnes inconnues dans une foule et de trouver leur véritable identité en les connectant à leurs comptes de médias sociaux avec un taux de réussite de 70 % présumé.

D’après The Guardian, FindFace utilise une technologie de reconnaissance d’image pour comparer les visages avec des photos de profil sur le site populaire russe de réseautage social, Vkontakte, qui a plus de 200 millions d’utilisateurs.

FindFace est actuellement lancé sur le marché comme une application de rencontres, mais ses fondateurs visent à profiter libéralement de cette technologie en octroyant des licences de son algorithme à des entreprises de vente au détail et aux forces de l’ordre. L’application a déjà été utilisée par la police russe pour retrouver les personnes disparues, pour identifier les pyromanes à St. Petersbourg, et pour résoudre d’anciennes affaires non résolues en utilisant des images à partir de vieux enregistrements de surveillance.

Les cofondateurs de l’application, Artem Kukharenko et Alexander Kabakov, déclarent que leur algorithme peut rechercher et croiser plus d’un milliard de photographies en l’espace de quelques secondes sur un ordinateur normal. Kaspersky Labs, une société de sécurité informatique, a testé l’algorithme de FindFace en avril et a constaté que l’application est extrêmement précise. Elle est tellement précise qu’elle a été sélectionnée par le milliardaire Mikhail Fridman pour être utilisée pour identifier les fêtards à son festival de musique électronique Alfa Future People.

L’algorithme développé par N-Tech Lab, appelé FaceN, utilise un « modèle de deep learning [apprentissage profond] » qui reconnaît des caractéristiques faciales qui ne sont pas perceptibles par l’humain, pour reconnaitre les visages d’une façon plus rapide, plus précise et plus avancée que ne pourraient le faire des personnes.

L’approche est tellement exacte que FaceN déclare pouvoir identifier une personne en une « fraction de seconde » et trouver leur photo parmi des milliards d’autres portraits dans une base de données centrale. N-Tech Lab affirme que son système peut être utilisé à « l’échelle planétaire » grâce à son algorithme de recherche efficace, et en raison de leur technologie spécialement développée, ce qui permet aux données de caractéristiques extraites d’être stockées dans une base de données de façon compacte.

L’algorithme de N-Tech Lab a démontré sa forte précision au cours de la première phase du MegaFace Challenge menée par l’Université de Washington. Comme il a été précédemment rapporté par BiometricUpdate, le MegaFace Challenge est la première compétition mondiale visant à évaluer et à améliorer la performance des algorithmes de reconnaissance faciale à « l’échelle de millions de personnes ». Dans un grand nombre de tests, l’algorithme de FaceN s’est placé à la première place dans la précision et se rapprochait fortement de FaceNet, le système de reconnaissance faciale de Google basé sur le cloud.

Traduction Thomas Jousse

Biometric Update

Un médicament anti-vieillissement prometteur sera bientôt testé sur l’homme

Chemical structure of NMN (image: Edgar181)

Un composé appelé nicotinamide mono-nucléotides (NMN) s’est avéré de ralentir le processus de vieillissement et de prolonger la durée de vie des souris. Nous sommes sur le point de savoir si elle fait la même chose pour les humains.

Un essai clinique prévu, mis au point par des chercheurs de l’Université Washington à Saint-Louis et l’Université de Keio au Japon est fixé pour tester l’efficacité et l’innocuité du composé. À partir du mois prochain, environ 10 personnes en bonne santé se feront administrer du NMN pour voir s’il est possible d’améliorer la fonction physique et conjurer les effets du vieillissement. Si cela fonctionne, il deviendrait la première véritable intervention anti-âge disponible sur le marché.

NMN est une molécule organique, ou nucléotide, trouvé dans une variété de sources alimentaires, y compris le lait. Les études précédentes ont montré[1] qu’il contribue à ralentir le processus du vieillissement, et qu’il le fait en activant la sirtuine dans le corps – une classe de protéines dont les fonctions s’affaiblissent lorsque le corps vieillit.

Les recherches menées par Shinichiro Imai de l’Université de Washington, ont révélé que NMN active le gène responsable de la sirtuine. Dans une expérience, les souris nourries avec un régime stable de NMN ont connu des améliorations avec une diminution relative à l’âge dans le métabolisme et la vue. Dans d’autres expériences, le NMN a amélioré leurs profils d’intolérance au glucose et au lipide. Pour les souris, c’est comme un élixir de vie, mais nous n’avons encore aucune idée si cela fonctionnera de la même façon chez l’homme.

Les scientifiques ont de bonnes raisons de croire que ça ne sera pas le cas. Les études sur les souris, notamment celles portant sur le vieillissement, ne se traduisent pas bien pour les humains. Il est peu probable que le NMN fonctionnera aussi bien sûr l’homme.

Cela dit, le NMN pourrait avoir un effet positif sur la physiologie humaine et ce composé pourrait encore servir à améliorer la santé humaine.

Gizmodo Via The Japan News

[1] DOI: http://dx.doi.org/10.1016/j.cmet.2011.08.014 ; doi:10.1007/s00125-011-2288-0 ; DOI: http://dx.doi.org/10.1016/j.tcb.2014.04.002.

Les scientifiques décodent les pensées, lisent l’esprit des personnes en temps réel

La télépathie est souvent rejetée comme rien de plus qu’un truc de charlatan, mais les scientifiques et les chercheurs tentent de changer ce « décodage du cerveau » de quack-science en sciences dures.

En effet, des progrès importants ont déjà été faits dans ce domaine. Et maintenant, les scientifiques de l’Université de Washington ont mis au point une technologie qui permet à un périphérique de lire efficacement dans votre esprit.

Avec une combinaison d’implants cérébraux et de logiciels sophistiqués, l’équipe a été en mesure d’interpréter les pensées de leurs sujets et d’extrapoler ce que leurs sujets voyaient. Grâce à cette étude, les scientifiques ont pu mieux comprendre comment les gens sont capables de traduire l’information sensorielle à partir d’une image en quelque chose que notre esprit ne peut comprendre.

Dans leurs travaux, publiés dans PLOS Computational Biology, les chercheurs ont implanté des électrodes pendant une semaine chez sept patients épileptiques. Les électrodes ont été initialement implantées pour déterminer où les saisies étaient originaires, mais les scientifiques ont vu une occasion de les utiliser pour recueillir des données de recherche (avec la permission des patients, bien sûr).

« Nous avons essayé de comprendre, tout d’abord, comment le cerveau humain perçoit les objets dans le lobe temporal, et deuxièmement, comment on pourrait utiliser un ordinateur pour extraire et prévoir ce que quelqu’un voit en temps réel ? » explique Rajesh Rao, l’un des principaux auteurs, dans leur communiqué de presse.

Comprendre vos pensées

Source : 10.1371/journal.pcbi.1004660

Avec des électrodes dans le cerveau, les patients ont montré une séquence aléatoire d’images allant de visages humains, de maisons et des écrans gris vides en 400 millisecondes d’intervalles. Les patients ont été invités à regarder dehors pour une image d’une maison à l’envers.

Les données ont été recueillies au cours de cette période depuis les électrodes. Ces données reflètent ce qu’on appelle « potentiels relatifs d’événement » l’afflux massif des neurones éclairant après avoir vu l’image et les « modifications spectrales à large bande, » persistante des signaux après que l’image a été vue.

Un ordinateur échantillonne et numérise les données entrantes à un taux de 1 000 fois par seconde, ce qui lui a permis de comprendre la corrélation entre les images vues par les patients et l’emplacement de l’électrode. En utilisant ces données, il était capable de distinguer quel endroit est plus sensible à l’image d’un visage et celui d’une maison. Ces données ont été utilisées pour former le logiciel.

Une autre série d’images, les deux contenants des maisons et des visages, qui n’ont pas été montrés dans les séquences précédentes a été ensuite montrée aux patients. L’ordinateur a été en mesure d’interpréter les signaux du cerveau entrants dans les données et déterminer quelle image le sujet regardait avec une précision de 96 % — en dépit du manque d’une exposition antérieure à ces nouvelles photos.

Il accomplit tout cela en 20 millisecondes depuis l’arrivée des données ou presque à la vitesse de perception elle-même.

Ce qui est plus intéressant, est que le logiciel pouvait seulement accomplir ceci quand il a analysé les signaux utilisant des potentiels liés à l’événement et des changements spectraux à bande large, suggérant que les impulsions dans toute la région (et pas seulement les neurones en question) sont un facteur important de la façon dont une personne perçoit un objet.

Cette recherche est importante, car les scientifiques cherchent actuellement à cartographier notre cerveau. En fin de compte, la cartographie du cerveau pourrait identifier comment différents neurones et leurs emplacements, se rapportent à la façon dont nous traitons nos informations et, finalement, améliorer notre compréhension de la façon dont les maladies neurologiques nous affectent.

source : NewsBeat University of Washington Health Sciences

 

Une étude pilote de communication directe cerveau-à-cerveau chez l’homme

Une étude pilote de communication directe cerveau-à-cerveau chez l’homme menée par Rajesh Rao, Andrea Stocco, et ses collègues de l’Université de Washington, Seattle.

pour en savoir plus, téléchargez le PDF

(A) Schematic diagram of set-up. Brain signals from one participant (the “Sender”) were recorded using EEG. When imagined hand movements were detected by the computer, a “Fire” command was transmitted over the internet to the TMS machine, which caused an upward movement of the right hand of a second participant (the “Receiver”), resulting in a press by the hand on a touchpad. This press triggered the firing of the cannon in the game seen by the Sender. Red lines mark the part of the architecture that corresponds to the direct brain-to-brain interface. (B) Screen shot from the game. In 50% of the trials, the pirate ship on the right side (skull-and-bones) shoots a rocket (top center) towards a city on the left. The Sender engages in motor imagery to move the white cursor on the left to hit the blue circular target in order to fire the cannon (bottom center) and destroy the rocket before it reaches the city. In the other 50% of the trials, a supply airplane moves from the right to the left side of the screen (not shown). The Sender rests in this case and refrains from imagery in order to avoid hitting the target.

voir l’article : Le cerveau humain commandé à distance, Le Figaro