Préférence système, une BD de Ugo Bienvenu

Préférence système, une BD de Ugo Bienvenu
Denoël Graphic

En 2055, le data de l’humanité est devenu si volumineux qu’il faut commencer à supprimer des données. Toute archive frappée d’un visa d’élimination par le corps des « Prophètes », chargé de ces choix drastiques, doit être détruite. Yves, archiviste humaniste du Bureau des Essentiels, ne peut s’y résoudre. Pour les sauver de l’oubli, il sauvegarde clandestinement certaines données condamnées, plus poétiques que politiques, et les rapporte chez lui pour les stocker dans la mémoire de Mikki, son robot domestique. Une infraction grave aux règles de sa profession. Une forme de résistance au transhumanisme dominant.

Les progrès de l’intelligence artificielle ayant par ailleurs permis de confier la charge de la gestation pour autrui aux machines, Mikki porte l’enfant d’Yves et Emy, son épouse. Cependant, au Bureau des Essentiels, les fuites de données sont décelées, une vaste enquête est lancée parmi le personnel. Se sentant soupçonné, Yves décide de s’enfuir avec Emy, Mikki et l’enfant à naître pour rejoindre une bastide oubliée de tous, sur un causse désert.

En route, traqué par les autorités, il perd le contrôle de son véhicule. Seul Mikki parvient à s’extraire de l’habitacle avec sa précieuse cargaison. Le choc déclenche l’accouchement. Une petite fille naît à quelques pas de la voiture en feu dans laquelle se consument les corps de ses parents biologiques.

Une fuite éperdue dans la nature revenue à l’état sauvage conduit le bot et son fardeau de chair jusqu’à la vieille bastide. Caché du monde, au milieu de nulle part, Mikki entreprend au fil des saisons de transmettre à celle qu’il a baptisée Isi tous les fragments de savoir entreposés dans ses mémoires. Parviendra-t-il à faire de sa pupille l’Ève future avant que les autorités toutes-puissantes n’arrivent à les localiser et que le dénouement inévitable ne survienne ?

“Chaque homme dans sa vie assiste à la fin d’un monde.”

Ugo Bienvenu commence sa formation artistique à l’école Estienne en DMA illustration, avant d’intégrer la section cinéma d’animation à Gobelins l’école de l’image dans laquelle il co-réalise son premier court-métrage en équipe, “Jelly Sunday”, pour le festival international du film d’animation d’Annecy, ainsi que “Jean-luc”. En 2010, durant son séjour à la Californian Institute of the Arts (Los angeles), il s’oriente vers l’animation expérimentale et réalise son premier court-métrage “Je t’aime” ainsi que le clip “Fragments” pour le musicien Chris Adams du label zotrecords. De retour en France, il intègre Miyu Productions en tant que réalisateur. Il réalise le clip du titre “Voyage chromatique” pour Renart, du label Dawn Records, avec Kevin Manach entamant par la même une étroite collaboration. Étudiant-chercheur dans le programme Image Temps Réel de l’École des Arts Décoratifs (Paris), il réalise en parallèle le court métrage d’ouverture du Festival International de Mexico city “Une île” puis le clip “Singing” pour Agoria du label in finé. Ses recherches oscillent entre réalisme domestique et dérives surréalistes inquiétantes.

Utérus artificiel : l’avenir de la procréation humaine ?

Qui gagne la course à l’IA : la Chine, l’Union européenne ou les États-Unis ?

Les États-Unis mènent la course à l’IA, la Chine fermant rapidement la marche et l’UE à la traîne

Alors que les États-Unis ont actuellement un avantage dans la course au développement de l’intelligence artificielle, la Chine gagne rapidement du terrain en raison du retard pris par l’Europe, selon un rapport publié par le Center for Data Innovation.

L’étude débute par un vaste débat sur le territoire qui a acquis le leadership en matière d’intelligence artificielle et sur les implications pour les technologies de pointe, telles que les véhicules autonomes et d’autres formes d’automatisation. Les vainqueurs d’une course aux armements de l’IA pourraient détenir un avantage économique important dans les décennies à venir.

Les entreprises du secteur de la technologie et les décideurs américains craignent de plus en plus que l’initiative de la Chine de dominer l’IA d’ici 2030 ne lui permette de dicter ce domaine crucial. La capacité de son gouvernement central à permettre la collecte de données de grande envergure et à désigner des champions officiels pour mener cette charge semble avoir donné un élan significatif à ses efforts.

La Chine, prochaine superpuissance de l’intelligence artificielle?

Toutefois, le rapport brosse un tableau complexe montrant que les trois territoires disposent d’atouts potentiels importants, ainsi que des risques susceptibles de nuire à leurs efforts en matière d’IA. Des trois, l’UE pourrait être confrontée aux plus grands défis parce qu’elle n’est en tête dans aucune des six catégories mesurées.

“L’IA est la prochaine vague d’innovation et ne pas saisir cette opportunité constituera une menace pour la sécurité économique et nationale d’un territoire”, a déclaré Daniel Castro, directeur du Center for Data Innovation, dans un communiqué. “L’UE dispose d’un important bassin de talents et d’une communauté de recherche active, mais si elle ne renforce pas ses initiatives actuelles en matière d’IA, elle ne suivra pas le rythme de la Chine et des États-Unis.”

Le centre a choisi de se concentrer sur six catégories : talent, recherche, développement, adoption, data et hardware. Sur une échelle de 100 points, les chercheurs ont constaté que les États-Unis étaient en tête avec 44,2 points, la Chine était deuxième avec 32,3 et l’Union européenne troisième avec 23,5.

L’étude a révélé que les États-Unis font preuve d’un leadership clair dans quatre des six catégories : talent, recherche, développement et hardware. La Chine est en tête en matière d’adoption et de data.

Les résultats semblent inquiétants pour l’UE, qui a beaucoup mis l’accent sur ses efforts en matière d’IA ces dernières années. Mais l’UE se classe au deuxième rang dans quatre catégories : le talent, la recherche, le développement et l’adoption. De ces dernières, elle est particulièrement forte dans la catégorie de la recherche.

“L’UE possède le talent nécessaire pour rivaliser avec la Chine et les États-Unis en matière d’intelligence artificielle, mais il existe un fossé évident entre la quantité de talents en matière d’IA, son développement et son adoption”, a déclaré Eline Chivot, analyste politique principale du Center for Data Innovation, dans une déclaration. “L’UE devrait donner la priorité aux politiques visant à retenir les talents, à transformer les succès de la recherche en applications commerciales, à développer des entreprises plus grandes et plus compétitives sur le marché mondial et à réformer la réglementation pour permettre une meilleure utilisation des données pour l’IA”.

La Chine pourrait devenir le leader mondial des recherches sur l’IA

Selon l’étude, la Chine manque cruellement de talents par rapport à l’UE et aux États-Unis. Les auteurs recommandent à la Chine d’accroître massivement ses investissements dans l’enseignement de l’IA au niveau universitaire. Dans le même temps, le pays a acquis un avantage considérable en termes de données disponibles pour le développement et l’adoption de l’IA.

Les États-Unis sont devenus l’un des premiers chefs de file de l’IA, en grande partie grâce à la force des géants technologiques en place qui ont beaucoup investi dans ce domaine. Mais le rapport indique que le pays doit faire davantage pour continuer à élargir sa base de talents s’il veut conserver cette avance, notamment en veillant à ce que les talents étrangers puissent facilement immigrer aux États-Unis, tout en augmentant les investissements dans la recherche sur l’IA.

Venturebeat, Center for Data Innovation

Ginni Rometty sur l’avenir du travail et de l’IA

L’intelligence artificielle d’IBM permet de prédire avec une précision de 95 % quels travailleurs sont sur le point de quitter leur emploi.

IBM reçoit plus de 8.000 CV par jour. Mais, ce n’est pas la seule façon pour IBM, qui emploie environ 350 000 personnes, de savoir qui cherche actuellement un nouveau poste. La technologie d’intelligence artificielle d’IBM est maintenant précise à 95 % pour prédire les salariés qui comptent quitter leurs emplois, a déclaré Ginni Rometty.

Depuis les sept années où Rometty occupe le poste de PDG, IBM a amélioré son travail d’intelligence artificielle consacré à la fidélisation de ses employés.

“Le meilleur moment pour récupérer un employé, c’est avant qu’il ne parte”, a-t-elle déclaré.

IBM HR dispose d’un brevet pour son “programme d’attrition prédictive” qui a été développé avec Watson pour prédire le risque de fuite des employés et préconiser des actions pour que les managers engagent des employés.

Rometty ne peut pas expliquer ce qui a permis à l’IA de travailler si efficacement dans l’identification des travailleurs sur le point de partir. Elle se contente de dire que son succès passe par l’analyse de nombreux points de données. L’IA a jusqu’à présent permis à IBM d’économiser près de 300 millions de dollars en coûts de rétention, a-t-elle affirmé.

L’outil de rétention de l’IA fait partie d’une suite de produits IBM conçus pour améliorer l’approche traditionnelle de la gestion des ressources humaines. Rometty a décrit le modèle classique des ressources humaines comme ayant besoin d’une refonte, et a dit que c’est l’une des professions où les humains ont besoin de l’IA pour améliorer leur travail.

Rometty a déclaré que depuis qu’IBM a déployé la technologie sur une plus grande échelle, y compris les services cloud et d’autres modernisations, le géant de la technologie a réduit la taille de son département mondial des ressources humaines de 30 %. Mais elle a ajouté que les postes restants sont mieux rémunérés et capables d’effectuer un travail de plus grande valeur.

Un cheminement de carrière plus clair est nécessaire pour de nombreuses personnes

Parmi les tâches pour lesquelles les DRH et les responsables d’entreprise n’ont pas toujours fait la preuve de leur efficacité et pour lesquelles l’intelligence artificielle jouera un rôle plus important à l’avenir, figurent le maintien des employés sur un parcours professionnel clair et l’identification de leurs compétences.

Rometty a déclaré que la transparence avec les employés au sujet de leur cheminement de carrière est un problème dans lequel de nombreuses entreprises échouent encore. Et cela va devenir plus critique. “Je m’attends à ce que l’IA change 100 % des emplois au cours des 5 à 10 prochaines années “, a déclaré la PDG d’IBM.

Être transparent avec les employés signifie être honnête au sujet des compétences nécessaires, surtout lorsque les travailleurs ne les possèdent pas. Les dirigeants d’IBM parlent aux employés des compétences rares ou abondantes sur le marché.

“Si vous avez une compétence qui n’est pas nécessaire pour l’avenir, qui est abondante sur le marché et qui ne correspond pas à une stratégie dont mon entreprise a besoin, vous n’êtes pas fait pour rester à l’intérieur de mon entreprise”, a déclaré Rometty. “Je crois vraiment qu’il faut être transparent sur l’emplacement des compétences. Je crois vraiment qu’il faut être transparent pour savoir où sont les compétences.”

En comprenant mieux les modèles de données et les compétences adjacentes, l’IA d’IBM peut se concentrer sur les forces d’un individu. En retour, cela peut permettre à un manager d’orienter un employé vers des opportunités futures qu’il n’a peut-être pas vues à l’aide des méthodes traditionnelles.

“Nous avons constaté que les sondages auprès des managers n’étaient pas exacts”, a déclaré Rometty, faisant référence aux évaluations formelles des compétences. “Les managers sont subjectifs en matière d’évaluation. Nous pouvons déduire et être plus précis à partir des données.”

La technologie IBM permet de visualiser les tâches accomplies par les employés, les cours qu’ils ont suivis et les résultats qu’ils ont obtenus. Grâce à ces points de données, l’inférence de compétences en IA et les responsables des ressources humaines peuvent mieux comprendre l’ensemble des compétences d’un employé qu’ils ne le feraient en évaluant le retour d’information provenant des enquêtes auprès des responsables.

IBM a également abandonné un autre élément fondamental des ressources humaines classiques : l’évaluation annuelle des performances, où Rometty a résisté au début, mais la persévérance des responsables des ressources humaines lui a prouvé sa nécessité. La société évalue la croissance des compétences des employés dans le cadre de leurs vérifications trimestrielles avec la direction.

L’IA parvient de mieux en mieux à informer les employés sur leur carrière. L’assistant virtuel MYCA (My Career Advisor) d’IBM utilise Watson pour aider les employés à identifier les domaines où ils ont besoin d’améliorer leurs compétences. La technologie Blue Match, offre des possibilités d’emploi aux employés en fonction de leurs données sur les compétences acquises grâce à l’IA (les employés choisissent de participer au service). Rometty a déclaré que certains des 27 % des travailleurs d’IBM qui ont obtenu un nouvel emploi ou une promotion en 2018 ont été aidés par Blue Match.

“L’IA changera tous les emplois une fois qu’elle sera dans le flux de travail, et c’est la forme la plus significative de l’IA. Oui, certains emplois seront remplacés, mais c’est un faux-fuyant”, affirme Rometty. “Il s’agit de faire travailler les gens à l’intersection de tout ça.”

Elle a ajouté : “Tout cela est un jeu d’habileté et de personnes ayant les bonnes compétences, et le travail de chacun est en train de changer.”

Se débarrasser du système RH actuel

Les départements traditionnels des ressources humaines, où les entreprises “sous-investissent généralement”, ont été divisés entre un système libre-service, où les employés sont forcés d’être leurs propres gestionnaires de carrière, et un système défensif pour faire face aux mauvais résultats.

“Nous devons amener l’IA partout et nous débarrasser du système de libre-service [existant]”, a déclaré Rometty. Les employés d’IBM n’ont plus besoin de déchiffrer quels programmes les aideront à améliorer leurs compétences ; l’IA suggère à chaque employé ce qu’il devrait apprendre afin de progresser dans sa carrière.

Dans le même temps, les mauvaises performances, quant à elles, ne seront pas un problème qui sera traité uniquement par les managers, les RH, le juridique et les finances, mais par les groupes de solutions – IBM utilise des centres de solutions “pop-up” pour aider les managers à rechercher les meilleures performances de leurs employés.

De nombreuses entreprises se sont appuyées sur des centres d’excellence – des groupes spécialisés ou des entités de collaboration créés pour se concentrer sur des domaines où il y a un manque de connaissances ou de compétences au sein d’une organisation ou d’une communauté. “Nous devons passer des centres d’excellence aux centres de solutions”, a-t-elle dit.

Le pari d’IBM est que l’avenir du travail est un avenir dans lequel une machine comprend l’individu mieux que l’individu RH ne peut le comprendre seul. Pour être clair, les observations du PDG d’IBM n’ont pas été présentées comme une attaque contre la profession des RH. En fait, elle a commencé ses remarques en décrivant les RH comme un “travail de passion” et en ajoutant qu’elle était “une grande fan de cette profession”.

Mais la nouvelle ère des ressources humaines centrées sur l’intelligence artificielle s’améliorera par rapport à quelque chose que beaucoup d’équipes de ressources humaines ne peuvent pas gérer aussi efficacement qu’une machine, qui peut créer des millions de points de données et apprendre de nouvelles choses. Il faut reconnaître le véritable potentiel des ressources des individus et servir de moteur de croissance pour les entreprises.

“C’est au niveau individuel. Vous devez connaître l’individu. Les compétences sont votre atout renouvelable, et vous devez les traiter comme ça”, a conclu Rometty.

L’avenir de la médecine

Comment la technologie façonnera les soins aux patients et améliorera les résultats

L’adoption généralisée de la technologie modifie le fonctionnement de la médecine, des techniques de soins de santé à l’expérience du patient.

Au fur et à mesure que la technologie médicale devient plus centrée sur le patient, les résultats sont susceptibles de s’améliorer. Les experts nous expliquent ce à quoi nous pouvons nous attendre à l’avenir.

Parfois, il semble que les soins de santé ne se sont guère améliorés depuis l’époque de nos parents : Nous rencontrons encore de longues attentes pour voir un médecin, de brefs rendez-vous, des tests incessants et un ennui qui conduit les patients à ne pas se sentir concernés par leurs propres soins. Mais la dernière génération de technologie médicale promet une expérience plus saine.

Les médecins, les infirmières et les patients verront une implication accrue dans les soins médicaux, auront moins de frais généraux non médicaux et obtiendront de meilleurs résultats en matière de santé et, espérons-le, une réduction des coûts pour les patients. On s’attend à ce que les améliorations apportées aux technologies de soins médicaux apportent des avantages significatifs aux patients, leur permettant de mieux contrôler leur capacité à diriger eux-mêmes leurs soins.

Les progrès aideront également les professionnels de la santé qui sont sous pression à obtenir des résultats qui sauveront des vies tout en s’occupant de toute la paperasserie de conformité exigée aujourd’hui. De plus, les professionnels de la santé seront en mesure de mieux adapter les procédures médicales aux besoins des patients et d’établir des diagnostics plus précis et personnalisés pour orienter les traitements.

En tout cas, c’est l’intention d’un grand nombre de personnes intelligentes qui travaillent à améliorer l’expérience.

Ce que vous devez savoir

Beaucoup de choses changent, rapidement. Ce rapport de 57 pages vous donne un aperçu des technologies qui auront un impact sur les soins médicaux, dans un avenir proche et un peu plus lointain. Vous trouverez des informations sur :

– Une technologie qui améliore tous les aspects des soins aux patients
– Une réduction des coûts pour les patients
– L’amélioration de la sécurité des informations et des dispositifs
– Des espaces médicaux intelligents
– Des prescriptions qui comprennent des aliments
– L’intégration d’appareils personnels dans les soins de santé

Les soins médicaux connaissent des changements rapides à mesure que la technologie s’intègre aux processus, aux dossiers des patients, aux diagnostics et même à l’alimentation des gens. L’utilisation de l’avantage technologique et de la quantité rapidement croissante de données qui peuvent être découvertes, analysées et appliquées change le fonctionnement quotidien de la médecine.

Le présent rapport couvre les domaines suivants :

La médecine dépend de la technologie pour améliorer l’avenir : La technologie améliore tous les aspects des soins aux patients, grâce à des outils spécialisés et à des analyses plus efficaces et plus rapides, ce qui réduit la charge de travail et améliore les résultats.

L’analytique ouvre la voie à la réduction des coûts : Des améliorations allant d’une meilleure gestion des installations à des opérations plus efficaces de la chaîne d’approvisionnement entraînent une réduction des coûts pour les patients.

Les nouvelles technologies exigent une nouvelle sécurité : alors que l’IoT médical est devenu monnaie courante, le modèle de la sécurité avant tout devient primordial. Un modèle de sécurité entièrement intégré doit être déployé. Un lit d’hôpital moyen héberge aujourd’hui plus d’une douzaine de dispositifs IoT.

Les installations médicales deviennent plus intelligentes : l’intégration numérique en temps réel, les intelligences artificielles à l’échelle de l’hôpital et les installations médicales intelligentes travaillent ensemble pour améliorer les résultats des patients.

Vous êtes ce que vous mangez : Les médicaments sur ordonnance combinés à des appareils personnels intégrés auront un impact important sur les soins de santé des patients.

L’avenir des soins de santé est numérique : Les nouvelles technologies intégreront les dispositifs portables (wearable) dans les soins de santé des patients, rationaliseront et amélioreront les processus et réduiront le gaspillage – réduction des coûts, amélioration des soins rendront les patients plus heureux et en meilleure santé.

Google, Apple, Facebook : les nouveaux maitres du monde

Ils s’appellent Bill Gates, Mark Zuckerberg, Sergey Brin ou encore Larry Page : ces Américains, dont certains n’ont pas encore 40 ans, comptent parmi les hommes les plus riches et les plus puissants de la planète. Leurs points communs ? Ils ont créé le monde d’aujourd’hui grâce à une révolution technologique sans précédent : Internet et les réseaux sociaux. Anciens ados visionnaires devenus les dirigeants des plus grandes entreprises du secteur – Google, Facebook, Apple, Microsoft –, ils possèdent aujourd’hui un pouvoir d’un genre nouveau. Celui de contrôler les communications de toute la planète et de stocker les informations privées de tout un chacun. Un pouvoir très convoité, qui a pu les entraîner parfois dans des liaisons dangereuses avec les services secrets ou les gouvernements, notamment américains.

Ce documentaire raconte l’épopée de ces hommes souvent en marge de leurs contemporains mais qui ont réussi à changer le monde à grands coups de projets dignes de la science-fiction et qui, aujourd’hui, sont devenus plus forts que les États. Jusqu’où va le pouvoir des géants du numérique ?


Big data : les algorithmes sont-ils les maitres de notre futur ?

Des données collectées, puis traitées par des algorithmes, permettent d’émettre certaines prédictions. Les champs d’application des algorithmes sont nombreux, par exemple dans la lutte contre la criminalité.

Prédire les crimes

Google et Facebook engloutissent les câbles sous-marins de l’Internet

Google, Facebook et Microsoft ne contrôlent pas seulement toutes nos données, ils contrôlent désormais les câbles sous-marins qui traversent les océans et les mers du monde entier.

Plus de 5 700 kilomètres de l’océan Atlantique séparent les côtes de la France et de la Virginie. Mais en 2020, ils seront directement connectés pour la première fois par le câble sous-marin Dunant, ce qui renforcera la capacité Internet entre l’Europe et la côte est des États-Unis.

Lorsque Dunant deviendra opérationnel, il rejoindra plus de 428 câbles sous-marins, couvrant des milliers de kilomètres, constituant l’épine dorsale d’Internet. Mais ce câble ne ressemble à aucun autre.

Nommé en l’honneur de Henry Dunant, fondateur de la Croix-Rouge et lauréat du premier prix Nobel de la paix, le câble appartient à Google. Il s’agit du premier câble sous-marin transatlantique financé par des fonds privés et déployé par l’une des grandes entreprises de technologie.

Dunant est peut-être le premier câble sous-marin appartenant à l’une des grandes entreprises de technologie à traverser l’océan Atlantique, mais il ne s’agit pas du premier câble privé de la société. En janvier 2016, Google a également annoncé le câble Curie qui relierait le Chili à Los Angeles. Ces dernières années, Google, Microsoft et Facebook ont tous investi dans des câbles sous-marins pour répondre à la demande croissante.

Auparavant, les grandes entreprises technologiques dépensaient des millions de dollars en câbles dans le cadre de consortiums. En contrepartie de leur investissement, chaque entreprise a son mot à dire sur son parcours et, ce qui est crucial, une part de sa capacité. Mais la Big Tech n’aime pas partager.

Les consortiums sont parfaits pour le partage des coûts, mais il faut un certain temps pour parvenir à un consensus“, a déclaré Urs Hülzle, vice-président directeur de l’infrastructure technique de la division Cloud de Google. Hülzle a déclaré que les consortiums pouvaient ralentir le processus de construction de nouveaux câbles et que c’est pourquoi Google a décidé de faire cavalier seul. “Aujourd’hui, si vous regardez le marché, la majorité des câbles sont principalement alimentés par les sociétés Internet.”

Le vice-président de l’ingénierie réseau de Facebook, Najam Ahmad, explique que la création d’un nouveau câble peut prendre trois ans, ce qui signifie que les entreprises et les consortiums sont planifiés jusqu’à dix ans à l’avance.

En septembre 2017, Microsoft, Facebook et Telxius ont achevé le câble transatlantique MAREA de 6 600 km. Il a commencé à fonctionner en février 2018 et peut transmettre des données à 160 terabits par seconde.

D’autres câbles de consortium récents impliquant la Big Tech ont relié Singapour, l’Australie, le Japon et les États-Unis. Au total, Facebook a participé à au moins six consortiums de câbles sous-marins et Google détient des intérêts dans au moins 13 câbles, qui remontent à 2010.

Alan Mauldin, directeur de la recherche chez TeleGeography, une entreprise de données télécoms qui suit et cartographie les câbles sous-marins, a déclaré que, malgré les investissements de Google dans les câbles privés, il ne vendrait pas de capacité à d’autres entreprises. « Il ne le ferait jamais, car il deviendrait alors un transporteur et serait assujettis à une licence de transporteur », explique-t-il. « Nous ne voulons pas être un fournisseur de services en tant que fournisseur de services Internet », ajoute Hlzle, de Google.

« Les câbles ne seront finalement pas utilisés uniquement pour le trafic Google. Ce qui a tendance à se produire, c’est qu’ils vont échanger de la capacité sur ce câble avec des parties ayant de la capacité sur d’autres câbles », explique Mauldin. « En réalité, vous constaterez peut-être que Google a construit un câble sur une route donnée, mais ils peuvent en tirer parti en utilisant ce moyen d’échange. »

Qui a besoin de la démocratie quand on a des données ?

Tous les câbles sous-marins sont légèrement différents – dans la capacité qu’ils peuvent transporter et les technologies utilisées pour les construire – mais fonctionnent généralement de la même manière. Ils mesurent plusieurs pouces d’épaisseur et sont composés d’un tube en plastique qui protège un boîtier en cuivre contenant des fibres optiques.

Les données sont acheminées à travers les câbles à l’aide de voyants et de répéteurs répartis le long du fond à des distances d’environ 80 km, garantissant que les données se déplacent à une vitesse constante. L’analyse de Telegeography estime que plus d’un million de kilomètres de câbles sous-marins sont utilisés aujourd’hui. L’un des plus longs est le câble Asia America Gateway qui s’étend sur environ 20 000 km.

Initialement, les câbles sous-marins – les premiers posés outre-Atlantique dans les années 1850 – étaient utilisés pour les télégraphes, puis pour les données nécessaires aux appels téléphoniques mobiles. Les câbles peuvent durer environ 25 ans et s’ils sont cassés (généralement par les ancres des navires ou les tremblements de terre sous-marins), ils peuvent être réparés à l’aide de robots submersibles.

Ahmad a déclaré que l’intérêt de Facebook pour les câbles sous-marins venait d’un manque de capacité disponible. Il ajoute qu’il existe deux types de trafic sur Facebook : machine à machine et machine à utilisateur. Le premier d’entre eux, qui implique la sauvegarde de photos, de publications et d’autres éléments sur les réseaux sociaux des centres de données, est six à sept fois plus volumineux que le trafic de machine à utilisateur.

Wired

IA : A notre service, et non à nos dépens

Nous nous dirigeons inexorablement vers un futur automatisé et une intelligence artificielle aux possibilités quasi illimitées. Il nous faut impérativement peser toutes les implications éthiques de cette nouvelle technologie et nous attaquer aux défis légaux et sociaux sans précédent qui risquent d’apparaître.

Les nouvelles technologies nous obligent parfois à nous interroger sur ce qui fait l’homme. C’est en tout cas vrai pour l’intelligence artificielle, dont les implications potentielles sont si considérables qu’elles appellent un effort de réflexion. Voilà des décennies qu’elle hantait notre imagination collective, aujourd’hui elle fait irruption dans nos vies.

Les récents progrès de l’intelligence artificielle, notamment en matière d’apprentissage machine (machine learning) et d’apprentissage profond (deep learning), montrent que ces systèmes peuvent surpasser les hommes dans de nombreux domaines, y compris les tâches exigeant une certaine dose de raisonnement cognitif. L’intelligence artificielle peut donc être une source formidable de progrès et de bienfaits pour l’humanité, mais elle pourrait aussi ébranler les fondements socio-économiques et politiques de la société humaine.

Avant de s’interroger sur les implications éthiques de l’intelligence artificielle, il faut d’abord préciser en quoi elle consiste, aujourd’hui. Lorsqu’on parle d’intelligence artificielle, on entend généralement « l’intelligence artificielle restreinte », ou « l’intelligence artificielle faible », conçue pour accomplir une tâche spécifique : analyser et fluidifier la circulation, recommander des produits en ligne à partir d’achats antérieurs, par exemple. Cette IA faible existe déjà, mais elle va se complexifier et imprégner davantage notre vie quotidienne.

Nous ne parlons pas ici de ce qu’on appelle l’« IA forte » ou l’« IA générale », telle que la dépeignent tant de romans et de films de science-fiction. Elle serait supposément capable d’accomplir toute la gamme des activités cognitives humaines, et même, selon certains experts, d’accéder à un relatif degré de « conscience ». Nous sommes encore loin d’un consensus quant à la faisabilité et aux perspectives de mise en œuvre d’une telle intelligence artificielle.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Une collecte sans fin de données

L’apprentissage machine et l’apprentissage profond exigent une grande quantité de données historiques et de données recueillies en temps réel, si l’on veut que le système d’intelligence artificielle puisse « apprendre » sur la base de son « expérience ». Leur développement a aussi besoin d’infrastructures permettant à l’intelligence artificielle de réaliser ses tâches ou objectifs à partir de ce qu’elle aura appris. Notre réflexion sur les implications éthiques de l’intelligence artificielle doit tenir compte de l’environnement technologique complexe dont elle a besoin pour fonctionner et qui englobe la collecte permanente des données de masse (big data) issues de l’Internet des objets, leur stockage dans le nuage informatique (cloud), leur utilisation par l’intelligence artificielle pour alimenter son processus d’« apprentissage » et la mise en œuvre des analyses ou des activités de l’intelligence artificielle dans les villes intelligentes, les véhicules autonomes, les robots, etc.

Plus le développement technologique devient complexe, plus les questions éthiques qu’il soulève se complexifient. Et si les principes éthiques restent immuables, notre manière de les aborder pourrait changer radicalement, au risque, sciemment ou non, de les remettre gravement en question.

Notre conception de la vie privée, de la confidentialité et de l’autonomie, par exemple, pourrait se trouver totalement transformée. Grâce à des applications ou dispositifs appelés smart (intelligents, malins) qui sont devenus des instruments de la communication des réseaux sociaux comme Facebook ou Twitter, nous divulguons « librement » et volontairement nos informations personnelles, sans pleinement cerner quels usages pourront être faits de ces données, et par qui. Elles sont ensuite transmises à des systèmes d’IA essentiellement développés par le secteur privé.

Ces données restent nominales, si bien que les informations concernant nos préférences et habitudes peuvent être utilisées pour créer des modèles de comportement permettant à l’intelligence artificielle de nous adresser des messages à caractère politique, par exemple, ou de nous vendre des applications commerciales ou encore de stocker des informations concernant notre suivi médical.

Qui a besoin de la démocratie quand on a des données ?

Le meilleur et le pire

Serait-ce la fin de notre vie privée ? Quid de la sécurité et de la vulnérabilité des données aux actions de piratage ? L’État ne pourrait-il pas s’en emparer pour contrôler la population, au probable détriment des droits humains individuels ? Un environnement d’intelligence artificielle qui, à toute heure, surveille nos préférences et s’en sert pour nous proposer différentes options, ne risque-t-il pas de limiter notre liberté de choix et notre créativité ?

Autre question importante : les données utilisées par l’intelligence artificielle pour apprendre ne risquent-elles pas d’être pétries d’idées reçues et de préjugés, pouvant éventuellement entraîner des décisions discriminatoires ou stigmatisantes ? Cela rendrait vulnérables notamment les systèmes d’intelligence artificielle chargés de relations avec le public ou de la distribution de services sociaux. Nous devons être conscients que certaines données, comme celles qui sont produites sur l’Internet, contiennent des informations qui sont le reflet du meilleur comme du pire de l’humanité. Par conséquent, on ne peut pas se fier uniquement à l’intelligence artificielle pour tirer des leçons à partir de ces données sans courir des risques sur le plan éthique. Une intervention humaine directe est indispensable.

De la fin de la vie privée au transhumanisme, le monde selon Google

Peut-on enseigner à l’intelligence artificielle un comportement éthique ? Pour certains philosophes, il est des expériences – notamment d’ordre esthétique et éthique – qui sont inhérentes à l’être humain et, par conséquent, non programmables. D’autres estiment que si la morale peut être rationnelle, c’est qu’elle peut être programmée, mais qu’il convient de respecter la liberté de choisir.

« L’État ne pourrait‑il pas s’emparer des données pour contrôler la population, au probable détriment des droits humains individuels ? »

Actuellement, il n’y a pas consensus sur la question de savoir si l’éthique et la morale peuvent être enseignées aux hommes en s’appuyant uniquement sur la raison. Dès lors, comment y en aurait-il un quand il s’agit de les enseigner à l’intelligence artificielle ! Et en imaginant qu’une intelligence artificielle puisse être un jour programmée pour être éthique, de quelle éthique s’agirait-il ? Celle des développeurs ? Le développement de l’intelligence artificielle est essentiellement entre les mains du secteur privé dont les idées sur l’éthique peuvent ne pas être conformes à celles qui prévalent dans la société.

Pour que l’intelligence artificielle puisse travailler à notre service, et non à nos dépens, nous devons engager un débat de fond qui prenne en compte les points de vue éthiques de tous ceux qui sont concernés. Et, face aux bouleversements qu’elle pourrait provoquer dans la société, veiller à ce que le cadre éthique dans lequel s’inscrira son développement futur prenne en compte aussi la question plus large de la responsabilité sociale.

Spécialiste du programme au sein de la section Bioéthique et éthique des sciences à l’UNESCO, Tee Wee Ang (Malaisie) a travaillé en ingénierie de la conception et en ingénierie de gestion, avant de rejoindre l’Organisation en 2005.

Docteur en psychologie et bioéthique, Dafna Feinholz (Mexique) dirige la section Bioéthique et éthique des sciences à l’UNESCO. Elle a été secrétaire générale de la Commission nationale mexicaine de bioéthique.

Le Courrier de l’UNESCO • juillet-septembre 2018

Quels risques éthiques ?

Marc-Antoine Dilhac répond aux questions de Régis Meyran

L’intelligence artificielle permet d’accroître l’efficacité de certaines mesures discriminatoires qui existent déjà : profilage racial, prédiction de comportement, voire repérage de l’orientation sexuelle des personnes. Les questions éthiques qu’elle soulève ainsi requièrent la mise en place d’une législation capable d’assurer un développement responsable de l’intelligence artificielle.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Quels problèmes posent les logiciels d’analyse du comportement à partir d’images filmées ?

L’intelligence artificielle contribue à améliorer l’usage préventif des systèmes de vidéosurveillance dans les espaces publics. Désormais les images sont analysées en continu par des logiciels qui détectent les actes d’agression et peuvent rapidement donner l’alerte. Ce nouveau système est expérimenté par exemple dans les couloirs du métro parisien, à la station Châtelet. Si l’on accepte le principe de la vidéosurveillance, le seul problème que pose l’usage de l’intelligence artificielle est le risque d’erreur, et ce risque n’est pas très élevé, puisque ce sont des humains qui doivent prendre la décision finale d’intervenir ou non.

Néanmoins, les erreurs dans la reconnaissance faciale sont très fréquentes. Il suffit d’une perturbation dans l’image pour que l’intelligence artificielle voie un grille-pain au lieu d’un visage ! Le sentiment d’une surveillance abusive et la multiplication des erreurs peuvent devenir particulièrement anxiogènes.

Par ailleurs, il y a lieu de s’inquiéter des dérives qui risquent de découler de ces systèmes intelligents et des méthodes de profilage (racial, social) qu’ils pourraient solliciter.

À quel type de dérives faites-vous allusion ?

Je pense notamment aux programmes, appliqués dans plusieurs pays, visant à identifier les « comportements terroristes » ou le « caractère criminel » de certaines personnes, par le biais de la reconnaissance faciale. Leurs traits de visage dénonceraient donc leur criminalité intrinsèque !

Alarmés par cette résurgence de la physiognomonie, Michal Kosinski et Yilun Wang de l’université de Stanford (États-Unis) ont voulu montrer les dangers de cette théorie pseudoscientifique que l’on croyait reléguée à l’histoire et qui consiste à étudier le caractère d’une personne à partir des traits et des expressions de son visage. Pour attirer l’attention sur les risques d’atteinte à la vie privée, ils ont créé en 2017 le « gaydar », un programme qui vise à identifier les personnes homosexuelles d’après leur photographie ! Selon les auteurs, la marge d’erreur du programme n’est que de 20 %. Outre l’effet de stigmatisation, l’application de cette technologie violerait le droit de chacun à ne pas révéler son orientation sexuelle.

Toute recherche scientifique sans repères philosophiques et sans boussole sociologique ou juridique est susceptible de poser des problèmes éthiques. Ces quelques exemples que je viens d’évoquer montrent qu’il est urgent d’imposer un cadre éthique à la recherche en IA.

Qu’en est-t-il des dérives eugénistes ?

À mon sens, l’intelligence artificielle ne constitue pas a priori un facteur d’eugénisme. Certains prédisent l’avènement d’un monde où l’être humain pourrait être amélioré grâce à l’utilisation de l’intelligence artificielle : puces qui augmentent la mémoire ou perfectionnent la reconnaissance faciale, etc. Si la robotique intelligente peut apporter des solutions médicales à des situations de handicap (rendre la mobilité grâce à des prothèses sophistiquées), l’hypothèse transhumaniste de l’homme augmenté reste quant à elle de l’ordre de la science-fiction.

Professeur adjoint en éthique et philosophie politique à l’Université de Montréal, Marc-Antoine Dilhac (France) est titulaire de la Chaire de recherche du Canada en éthique publique et Co-directeur de l’axe éthique et politique du Centre de recherche en éthique (CRÉ).

Le Courrier de l’UNESCO • juillet-septembre 2018

Des robots et des hommes

Pour qu’un agent artificiel endosse un véritable rôle social et établisse une relation sensée avec un être humain, il devrait être doté d’un profil à la fois psychologique, culturel, social et émotionnel. Les méthodes actuelles d’apprentissage des machines ne permettent pas un tel développement. Les robots de demain seront nos humbles assistants, sans plus.

Nous vivons à une époque où des robots font le ménage, transportent des personnes, désamorcent des bombes, construisent des prothèses, secondent des chirurgiens, fabriquent des produits, nous divertissent, nous enseignent et nous surprennent. De même que la connectivité actuelle des smartphones et des médias sociaux dépasse notre imagination d’antan, on s’attend à ce que les futurs robots soient dotés de capacités physiques, et l’intelligence artificielle d’aptitudes cognitives, totalement impensables aujourd’hui, leur permettant de résoudre de graves problèmes comme le vieillissement de la société, les menaces écologiques et les conflits mondiaux.

À quoi ressembleront nos journées dans un avenir prochain ?

Nous vivrons sans doute plus longtemps, puisque des organes synthétiques viendront remplacer les parties défaillantes de notre corps, que les interventions médicales nanométriques cibleront les maladies et les gènes et que les véhicules autonomes limiteront les accidents de la circulation.

Nos emplois auront radicalement changé : certains auront disparu et d’autres seront créés, comme par exemple dans le domaine du développement d’applications destinées aux plateformes robotiques pour nos foyers. L’éducation, elle aussi, devra changer radicalement. Nos sens et nos cerveaux pourraient être artificiellement augmentés, et notre capacité de réfléchir aux perspectives offertes sera probablement améliorée par l’analyse automatisée de grandes quantités de données : tout cela exigera un autre traitement de l’information dans les écoles.

Mais qu’en sera-t-il de nos rapports humains ? Comment évoluera la façon dont nous nous rencontrons, vivons ensemble, élevons nos enfants ? Et dans quelle mesure la fusion entre robots et hommes aura-t-elle lieu ?

Nous sommes nombreux à nous demander si l’intelligence artificielle pourra un jour devenir brillante et experte en communication humaine, au point que plus rien ne permettrait de distinguer l’être humain de son jumeau artificiel.

S’il devenait possible de communiquer naturellement avec un agent artificiel, de se sentir épaulé au point de s’en remettre à lui et de nouer une relation sensée et durable, subsisterait-il une distinction entre nos relations interhumaines et nos relations avec la technologie ? Et quand nos corps et nos esprits auront été augmentés par l’intelligence artificielle et la robotique, quel sera le sens de l’humain ?

Astuces

Du point de vue de l’ingénierie, on est encore bien loin de telles avancées. Il nous faudra d’abord surmonter plusieurs obstacles sérieux. Le premier est lié au fait que la plupart des robots et ordinateurs sont reliés à des sources d’énergie : cela complique l’intégration d’éléments robotiques dans les tissus organiques humains. Un second écueil est la complexité de la communication humaine. S’il est envisageable qu’un robot puisse converser en langage naturel ponctuellement et dans une situation spécifique, c’est autre chose que de l’imaginer engager une communication à la fois verbale et non verbale au fil des conversations et des contextes.

Si, par exemple, vous appeliez un agent artificiel responsable des objets trouvés dans un aéroport, un échange satisfaisant serait possible : l’objet de l’appel est circonscrit, l’interaction structurée et les objectifs de l’appelant limités. Par contre, pour instaurer une relation plus poussée avec un robot animal de compagnie, le modèle à produire est bien plus complexe. Le robot doit avoir des objectifs internes, de grandes capacités de mémoire pouvant relier chaque expérience aux divers contextes, personnes, objets et animaux rencontrés, et il doit pouvoir développer de telles capacités dans le temps.

Un certain nombre d’« astuces » permettent à un robot de paraître plus intelligent et capable qu’il ne l’est réellement : par exemple en y introduisant des comportements aléatoires, qui rendent le robot animal de compagnie intéressant plus longtemps. À cela s’ajoute que nous autres humains avons une tendance à interpréter le comportement d’un robot comme celui d’un humain, tout comme nous le faisons avec les animaux, du reste.

Or, pour nouer avec lui une relation sensée, capable de s’intensifier et d’évoluer avec le temps dans le contexte varié de la vie quotidienne, comme le font entre eux les humains, il faut doter le robot d’une vie intérieure riche.

Science des données, Machine Learning et Deep Learning

Comment les machines apprennent-elles ?

La difficulté, pour créer cette vie intérieure artificielle, tient au mode d’apprentissage des machines.

L’apprentissage machine est basé sur l’exemple. On nourrit l’ordinateur d’exemples du phénomène qu’on souhaite qu’il comprenne, comme, par exemple, le bien-être chez l’être humain. Pour enseigner à la machine à reconnaître cet état de bien-être, on lui fournit des données personnelles connexes : images, vidéos, enregistrements de paroles, pulsations cardiaques, messages postés sur les médias sociaux, et autres types d’échantillons.

Lorsqu’on entre l’une de ces séquences vidéos dans un ordinateur, celle-ci se voit attribuer une mention indiquant si la personne filmée est ou non à son aise – cet étiquetage peut être réalisé par des experts en psychologie ou en culture locale.

Cet apprentissage permet ensuite à l’ordinateur de « raisonner » à partir de ces vidéos étiquetées, et d’identifier les principaux traits associés au sentiment de bien-être : posture corporelle, timbre de voix, rougeur de la peau. Lorsque la machine a identifié les traits associés au bien-être, l’algorithme ainsi créé, capable de les détecter sur une vidéo, peut être entraîné et perfectionné lorsqu’on lui fournit d’autres séries de séquences. L’algorithme devient finalement robuste et un ordinateur équipé d’une caméra peut, avec précision, distinguer une personne en situation de bien-être d’une autre qui ne l’est pas. Bien sûr, l’ordinateur n’est pas fiable à 100 % et commettra nécessairement des erreurs d’appréciation.

Maintenant que nous savons comment apprend une machine, qu’est-ce qui s’oppose à ce qu’on crée une vie intérieure convaincante permettant à un agent artificiel de s’intégrer harmonieusement dans la société humaine ?

Vers un profil synthétique complexe

Pour qu’un agent artificiel soit capable de nouer une relation réellement durable avec une personne, il faut qu’il soit doté d’une personnalité et de comportements convaincants, qu’il comprenne la personne, la situation dans laquelle tous deux se trouvent et l’histoire de leur communication. Il doit surtout être capable de poursuivre celle-ci sur des sujets divers et dans des situations variées.

Il est possible de créer un agent convaincant comme Alexa d’Amazon ou de Siri d’Apple, à qui on peut s’adresser en langage naturel et avec qui on peut avoir une interaction sensée dans le cadre précis de son utilisation : régler l’alarme d’un réveil, dresser une liste, commander un produit, baisser le chauffage.

Néanmoins, dès qu’on sort de ce contexte, la communication tourne court. Le robot trouvera des réponses acceptables à un large éventail de questions, mais sera incapable de poursuivre une conversation d’une heure sur un sujet complexe. Deux parents, par exemple, peuvent entamer de longues discussions pour décider de l’attitude à adopter face à un enfant qui n’est pas attentif à l’école. Cette conversation sera extrêmement riche, les parents y apportant non seulement leur compréhension de leur enfant, mais aussi tout ce qui constitue leur personnalité : émotions, psychologie, histoire personnelle, contexte socioéconomique, bagage culturel, bagage génétique, habitudes de comportement et compréhension du monde.

Si nous voulons qu’un agent artificiel endosse un rôle social aussi vaste et établisse une relation sensée avec un être humain, nous devons le doter d’un profil synthétique, construit à la fois du point de vue psychologique, culturel, social et émotionnel. Nous devons aussi le rendre capable d’apprendre avec le temps à « ressentir » et à réagir aux situations à partir de cette construction synthétique interne.

Cela exige une approche fondamentalement différente de l’apprentissage machine que l’on connaît actuellement. Il s’agirait de bâtir un système artificiellement intelligent qui se développerait à peu près comme un cerveau humain, en étant capable d’intérioriser la richesse des expériences humaines et d’avoir un raisonnement sur elles. La manière dont les gens communiquent entre eux et en viennent à comprendre le monde qui les entoure est un processus extraordinairement compliqué à synthétiser. Les modèles d’IA disponibles ou envisagés s’inspirent du cerveau humain ou d’une partie de son fonctionnement, mais ne constituent pas un modèle plausible de cerveau humain.

On voit l’intelligence artificielle accomplir d’incroyables exploits, lire tout l’Internet, gagner au jeu de go, diriger une usine entièrement automatisée. Mais, tout comme le physicien britannique Stephen Hawking (1942-2018) se sentait encore à mille lieues de comprendre l’univers, nous sommes à mille lieues de comprendre l’intelligence humaine.

Ce n’est pas pour demain

Les capacités exceptionnelles des robots et des systèmes artificiellement intelligents pourront faciliter et améliorer nos prises de décision, notre compréhension des situations et nos façons d’agir. Les robots pourront alléger le travail ou automatiser les tâches. Une fois les obstacles surmontés, la robotique sera peut-être physiquement intégrée au corps humain. Nous nouerons aussi avec des agents artificiels des relations comparables à celles que nous entretenons entre nous : nous pourrons ainsi communiquer avec eux en langage naturel, observer leurs comportements, comprendre leurs intentions. Mais aucune relation sensée comparable à celle des humains, avec ses conversations et ses rituels, son approfondissement et son évolution au fil du temps dans le cadre foisonnant de la vie quotidienne, n’est possible si l’on ne dote pas l’intelligence artificielle d’une vie intérieure conséquente.

Tant que nous saurons seulement en reproduire ou surpasser certaines fonctions, et non créer cette globalité de l’intelligence humaine placée dans le riche contexte du quotidien, on a peu de chances d’assister à la pleine intégration des hommes et des machines.

Spécialisée dans le développement des solutions robotiques, Vanessa Evers (Pays-Bas) est professeur titulaire en informatique au sein du groupe Human Media Interaction de l’université de Twente et directrice scientifique du DesignLab. Elle a publié près de 200 publications revues par les pairs et est rédactrice en chef à l’International Journal of Social Robotics et rédactrice associée au Journal of Human-Robot Interaction.

Le Courrier de l’UNESCO • juillet-septembre 2018