Hydroxychloroquine une centaine de scientifiques remettent en cause l’étude du Lancet

Dans une lettre ouverte intitulé : Les préoccupations concernant l’analyse statistique et l’intégrité des données, une centaine de scientifiques remettent en cause la dernière étude du Lancet du 22 mai 2020.

“L’étude rétrospective et observationnelle de 96.032 patients hospitalisés pour COVID-19 sur six continents a révélé une augmentation substantielle de la mortalité (~30% de surmortalité) et de la fréquence des arythmies cardiaques associées à l’utilisation de l’hydroxychloroquine (HCQ) et de la chloroquine (CQ) (famille des 4-aminoquinoléines). Ces résultats ont eu un impact considérable sur la pratique et la recherche en matière de santé publique.

L’OMS a interrompu le recrutement pour le bras hydroxychloroquine dans son essai SOLIDARITY. L’organisme de réglementation britannique, la MHRA, a demandé l’arrêt temporaire du recrutement dans tous les essais d’hydroxychloroquine au Royaume-Uni (traitement et prévention), et la France a modifié sa recommandation nationale pour l’utilisation de l’hydroxychloroquine dans le traitement COVID-19 et a également arrêté les essais.

Les gros titres des médias qui ont suivi ont suscité une grande inquiétude chez les participants et les patients inscrits à des essais contrôlés randomisés (ECR) cherchant à caractériser les avantages et les risques potentiels de ces médicaments dans le traitement et la prévention des infections par COVID-19. Tout le monde s’accorde à dire que des ECR bien menés sont nécessaires pour informer les politiques et les pratiques.

Cet impact a conduit de nombreux chercheurs dans le monde entier à examiner en détail la publication en question. Cet examen a soulevé des préoccupations tant sur le plan méthodologique que sur celui de l’intégrité des données. Les principales préoccupations sont énumérées ci-après :

1. L’ajustement pour les facteurs de confusion connus et mesurés (gravité de la maladie, effets temporels, effets de site, dose utilisée) était inadéquat.
2. Les auteurs n’ont pas respecté les pratiques standard de la communauté de l’apprentissage machine et des statistiques. Ils n’ont pas publié leurs codes ou leurs données. Il n’y a pas de déclaration de partage de données/codes et de disponibilité dans le document. The Lancet a été parmi les nombreux signataires de la déclaration de Wellcome sur le partage des données pour les études COVID-19.
3. Il n’y a pas eu d’évaluation éthique.
4. Aucune mention n’a été faite des pays ou des hôpitaux qui ont contribué à la source de données et aucune reconnaissance de leurs contributions. Une demande d’informations sur les centres contributeurs a été refusée aux auteurs.
5. Les données de l’Australie ne sont pas compatibles avec les rapports du gouvernement (trop de cas pour seulement cinq hôpitaux, plus de décès à l’hôpital que dans l’ensemble du pays pendant la période d’étude). Entre-temps, Surgisphere (la société de données) a déclaré qu’il s’agissait d’une erreur de classification d’un hôpital d’Asie. Cela indique la nécessité de procéder à une vérification supplémentaire des erreurs dans l’ensemble de la base de données.
6. Les données en provenance d’Afrique indiquent que près de 25 % de tous les cas de COVID-19 et 40 % de tous les décès sur le continent se sont produits dans des hôpitaux associés à des chirurgies qui disposaient d’un système électronique sophistiqué d’enregistrement des données des patients et d’un système de surveillance des patients capable de détecter et d’enregistrer “une tachycardie ventriculaire ou une fibrillation ventriculaire non soutenue [au moins 6 secondes] ou soutenue”. Le nombre de cas et de décès, ainsi que la collecte de données détaillées, semblent peu probables.
7. Des écarts inhabituellement faibles ont été signalés dans les variables de base, les interventions et les résultats entre les continents (tableau S3).
8. Doses quotidiennes moyennes d’hydroxychloroquine supérieures de 100 mg par rapport aux recommandations de la FDA, alors que 66% des données proviennent d’hôpitaux nord-américains.
9. Rapports invraisemblables entre l’utilisation de la chloroquine et de l’hydroxychloroquine sur certains continents
10. Les intervalles de confiance étroits de 95% signalés pour les rapports de danger sont peu probables. Par exemple, pour les données australiennes, il faudrait environ le double du nombre de décès enregistrés, comme indiqué dans le document.

Les données des patients ont été obtenues par le biais des dossiers électroniques des patients et sont détenues par la société américaine Surgisphere. En réponse à une demande de données, le professeur Mehra a répondu : “Nos accords de partage de données avec les différents gouvernements, pays et hôpitaux ne nous permettent malheureusement pas de partager les données”.

Dans un souci de transparence, nous demandons également à The Lancet de mettre à disposition les commentaires des pairs qui ont conduit à l’acceptation de ce manuscrit pour publication.

Cette lettre ouverte est signée par des cliniciens, des chercheurs médicaux, des statisticiens et des éthiciens du monde entier.”

Open Letter the statistical analysis and data integrity of Mehra et al_Final

Dans le même temps, plusieurs pays continuent d’utiliser le protocole du Pr Raoult et témoignent de l’efficacité de l’hydroxychloroquine :

– McGill poursuit son essai clinique sur l’efficacité de l’hydroxychloroquine : https://www.ledevoir.com/societe/science/579667/mcgill-poursuit-son-essai-clinique-sur-l-efficacite-de-l-hydroxychloroquine

– Les médecins italiens témoignent de l’efficacité de l’hydroxychloroquine, car il évite l’hospitalisation des patients : https://www.lastampa.it/alessandria/2020/05/27/news/i-medici-di-base-e-l-idrossiclorochina-il-farmaco-bocciato-da-lancet-ha-aiutato-molti-nostri-pazienti-1.38895204

– Aucun décès n’est lié à l’hydroxychloroquine au Sénégal : https://www.igfm.sn/aucun-deces-nest-lie-a-lhydroxychloroquine-au-senegal

– Le traitement avec l’hydroxychloroquine va continuer au Sénégal : https://www.igfm.sn/le-traitement-avec-lhydroxychloroquine-va-continuer-au-senegal

– Hydroxychloroquine et chloroquine: Le Maroc maintient son traitement : https://leconomiste.com/article/1062433-hydroxychloroquine-et-chloroquine-le-maroc-maintient-son-traitement#.Xs_k9o3l4ws.twitter

– L’Algérie ne compte pas renoncer à la chloroquine : https://www.ouest-france.fr/sante/virus/coronavirus/coronavirus-l-algerie-ne-compte-pas-renoncer-la-chloroquine-6847007

Cinq études dont deux essais cliniques contrôlés ont démontré une efficacité importante du traitement ambulatoire Hydroxychloroquine + azithromycine. Ces médicaments doivent être largement disponibles et promus immédiatement pour que les médecins puissent les prescrire en début de maladie ambulatoire. Ce professeur d’épidémiologie de Yale recommande la généralisation du traitement Raoult aux Etats-Unis : Early Outpatient Treatment of Symptomatic, High-Risk Covid-19 Patients that Should be Ramped-Up Immediately as Key to the Pandemic Crisis, American Journal of Epidemiology, https://doi.org/10.1093/aje/kwaa093

Raoult publie sa propre étude : Diagnostic précoce et prise en charge des patients COVID-19 : une étude de cohorte en situation réelle sur 3 737 patients, Marseille, France. Early diagnosis and management of COVID-19 patients: a real-life cohort study of 3,737 patients, Marseille, France : https://www.mediterranee-infection.com/early-diagnosis-and-management-of-covid-19-patients-a-real-life-cohort-study-of-3737-patients-marseille-france/

Chloroquine : Raoult contre-attaque sur le fond à l’étude du Lancet (et il n’est pas le seul) https://www.huffingtonpost.fr/entry/chloroquine-raoult-contre-attaque-sur-le-fond-a-letude-du-lancet-et-il-nest-pas-le-seul_fr_5ed0cd03c5b611c4a8df6249

Concernant l’article du Lancet, Raoult déclare qu’il n’est pas possible qu’il y ait une telle homogénéité entre des patients de 5 continents différents. Il y a manipulation préalable, non mentionnée dans le matériel et méthodes, ou ces données sont faussées.

Philippe Douste-Blazy dénonce l’étude anti-chloroquine et lance un (énorme) pavé dans la mare ! https://www.bvoltaire.fr/philippe-douste-blazy-denonce-letude-anti-chloroquine-et-lance-un-enorme-pave-la-mare/

#LancetGate Une enquête dé-vas-ta-tri-ce de JamesTodaroMD sur la société Surgisphere, qui a fourni les données pour l’article du Lancet. A Study Out of Thin Air https://www.medicineuncensored.com/a-study-out-of-thin-air

Les Espagnols (Agence Espagnole du Médicament, AEMPS) et les Britanniques (comité de surveillance de l’essai Recovery) ne sont pas, eux non plus, convaincus par l’étude publiée dans le Lancet par Mehra et al.

Pour finir, un aveu choquant de l’éditeur de The Lancet a été pratiquement ignoré par la grande presse et les médias dominants. Le Dr Richard Horton, rédacteur en chef de The Lancet, a récemment fait une annonce disant qu’un nombre scandaleux de publications d’études sont au mieux, peu fiables, quand elles ne sont pas complètement mensongères, en plus de frauduleuses.

Horton a déclaré :

« Une grande partie de la littérature scientifique, sans doute la moitié, pourrait être tout simplement fausse. Affligée d’études avec des échantillons réduits, d’effets infimes, d’analyses préliminaires invalides, et de conflits d’intérêts flagrants, avec l’obsession de suivre les tendances d’importance douteuse à la mode, la science a pris le mauvais tournant vers les ténèbres. » Faisant état des choses autrement, Horton dit carrément que les grandes compagnies pharmaceutiques falsifient ou truquent les tests sur la santé, la sécurité et l’efficacité de leurs divers médicaments, en prenant des échantillons trop petits pour être statistiquement significatifs, ou bien, pour les essais, embauchent des laboratoires ou des scientifiques ayant des conflits d’intérêt flagrants, ils doivent plaire à la compagnie pharmaceutique pour obtenir d’autres subventions. Au moins la moitié de tous ces tests ne valent rien ou sont pires, affirme-t-il. Les médicaments ayant un effet majeur sur la santé de millions de consommateurs, ce trucage équivaut à un manquement criminel et à de la malversation.

Ce dont parle Horton, le financement par l’industrie d’études thérapeutiques afin de mettre au point des médicaments ou des vaccins commerciaux, soi-disant pour aider les gens, sert à former le personnel médical, les étudiants en médecine et autres.

Horton a écrit ses commentaires choquants après avoir assisté à un symposium au Wellcome Trust de Londres, sur la reproductibilité et la fiabilité de la recherche biomédicale. Il a constaté la confidentialité, ou règles de « Chatham House », faisant que les participants ne doivent pas révéler les noms. « Beaucoup de ce qui est publié est incorrect. » Je ne suis pas autorisé à dire qui a fait cette remarque car nous avons été invités à observer les règles de Chatham House. Il nous a aussi été demandé de ne prendre ni photos, ni diapositives. » (source : https://criigen.org/un-aveu-choquant-de-lediteur-de-the-lancet/)

Renaud Muselier adoube Didier Raoult : « Nobélisable, génial et exceptionnel » « Renvoyer les patients chez eux, c’est de la folie pure »

« Si vous avez des symptômes, vous restez chez vous et vous prenez du doliprane, au XXIe siècle, c’est totalement indigne »! #Covid19: “Je n’ai plus confiance en ce gouvernement pour la gestion de la crise sanitaire”, Martine Wonner, députée LREM https://france3-regions.francetvinfo.fr/grand-est/bas-rhin/strasbourg-0/covid19-je-n-ai-plus-confiance-ce-gouvernement-gestion-crise-sanitaire-martine-wonner-deputee-lrem-1823770.html

Un document de la COREB à destination des médecins de ville, concernant la prise en charge de patient atteint d’infection respiratoire aigüe en contexte d’épidémie CoVID-19 indique pourtant : “Recherche de diagnostic alternatif possible : grippe ou autre virose respiratoire, pneumonie bactérienne, autres infections… : débuter un éventuel traitement anti-infectieux probabiliste, oseltamivir, et/ou antibiotique (co-infections possibles).

Fervent défenseur du traitement à l’hydroxychloroquine et à l’azithromycine, pour le Pr Christian Perronne la question de son efficacité ne se pose plus. Chef du service infectiologie de l’hôpital Raymond-Poincaré de Garches, il le constate tous les jours depuis le début de l’épidémie : le traitement du Pr Raoult soigne et réduit considérablement les passages en réanimation. Il nous raconte dans cette interview comment ses collègues et lui ont décidé d’appliquer ce protocole pour respecter leur serment d’Hippocrate, et il dresse un tableau stupéfiant de la situation politique et sanitaire que vit la France depuis plusieurs semaines.

Des robots et des hommes

Pour qu’un agent artificiel endosse un véritable rôle social et établisse une relation sensée avec un être humain, il devrait être doté d’un profil à la fois psychologique, culturel, social et émotionnel. Les méthodes actuelles d’apprentissage des machines ne permettent pas un tel développement. Les robots de demain seront nos humbles assistants, sans plus.

Nous vivons à une époque où des robots font le ménage, transportent des personnes, désamorcent des bombes, construisent des prothèses, secondent des chirurgiens, fabriquent des produits, nous divertissent, nous enseignent et nous surprennent. De même que la connectivité actuelle des smartphones et des médias sociaux dépasse notre imagination d’antan, on s’attend à ce que les futurs robots soient dotés de capacités physiques, et l’intelligence artificielle d’aptitudes cognitives, totalement impensables aujourd’hui, leur permettant de résoudre de graves problèmes comme le vieillissement de la société, les menaces écologiques et les conflits mondiaux.

À quoi ressembleront nos journées dans un avenir prochain ?

Nous vivrons sans doute plus longtemps, puisque des organes synthétiques viendront remplacer les parties défaillantes de notre corps, que les interventions médicales nanométriques cibleront les maladies et les gènes et que les véhicules autonomes limiteront les accidents de la circulation.

Nos emplois auront radicalement changé : certains auront disparu et d’autres seront créés, comme par exemple dans le domaine du développement d’applications destinées aux plateformes robotiques pour nos foyers. L’éducation, elle aussi, devra changer radicalement. Nos sens et nos cerveaux pourraient être artificiellement augmentés, et notre capacité de réfléchir aux perspectives offertes sera probablement améliorée par l’analyse automatisée de grandes quantités de données : tout cela exigera un autre traitement de l’information dans les écoles.

Mais qu’en sera-t-il de nos rapports humains ? Comment évoluera la façon dont nous nous rencontrons, vivons ensemble, élevons nos enfants ? Et dans quelle mesure la fusion entre robots et hommes aura-t-elle lieu ?

Nous sommes nombreux à nous demander si l’intelligence artificielle pourra un jour devenir brillante et experte en communication humaine, au point que plus rien ne permettrait de distinguer l’être humain de son jumeau artificiel.

S’il devenait possible de communiquer naturellement avec un agent artificiel, de se sentir épaulé au point de s’en remettre à lui et de nouer une relation sensée et durable, subsisterait-il une distinction entre nos relations interhumaines et nos relations avec la technologie ? Et quand nos corps et nos esprits auront été augmentés par l’intelligence artificielle et la robotique, quel sera le sens de l’humain ?

Astuces

Du point de vue de l’ingénierie, on est encore bien loin de telles avancées. Il nous faudra d’abord surmonter plusieurs obstacles sérieux. Le premier est lié au fait que la plupart des robots et ordinateurs sont reliés à des sources d’énergie : cela complique l’intégration d’éléments robotiques dans les tissus organiques humains. Un second écueil est la complexité de la communication humaine. S’il est envisageable qu’un robot puisse converser en langage naturel ponctuellement et dans une situation spécifique, c’est autre chose que de l’imaginer engager une communication à la fois verbale et non verbale au fil des conversations et des contextes.

Si, par exemple, vous appeliez un agent artificiel responsable des objets trouvés dans un aéroport, un échange satisfaisant serait possible : l’objet de l’appel est circonscrit, l’interaction structurée et les objectifs de l’appelant limités. Par contre, pour instaurer une relation plus poussée avec un robot animal de compagnie, le modèle à produire est bien plus complexe. Le robot doit avoir des objectifs internes, de grandes capacités de mémoire pouvant relier chaque expérience aux divers contextes, personnes, objets et animaux rencontrés, et il doit pouvoir développer de telles capacités dans le temps.

Un certain nombre d’« astuces » permettent à un robot de paraître plus intelligent et capable qu’il ne l’est réellement : par exemple en y introduisant des comportements aléatoires, qui rendent le robot animal de compagnie intéressant plus longtemps. À cela s’ajoute que nous autres humains avons une tendance à interpréter le comportement d’un robot comme celui d’un humain, tout comme nous le faisons avec les animaux, du reste.

Or, pour nouer avec lui une relation sensée, capable de s’intensifier et d’évoluer avec le temps dans le contexte varié de la vie quotidienne, comme le font entre eux les humains, il faut doter le robot d’une vie intérieure riche.

Science des données, Machine Learning et Deep Learning

Comment les machines apprennent-elles ?

La difficulté, pour créer cette vie intérieure artificielle, tient au mode d’apprentissage des machines.

L’apprentissage machine est basé sur l’exemple. On nourrit l’ordinateur d’exemples du phénomène qu’on souhaite qu’il comprenne, comme, par exemple, le bien-être chez l’être humain. Pour enseigner à la machine à reconnaître cet état de bien-être, on lui fournit des données personnelles connexes : images, vidéos, enregistrements de paroles, pulsations cardiaques, messages postés sur les médias sociaux, et autres types d’échantillons.

Lorsqu’on entre l’une de ces séquences vidéos dans un ordinateur, celle-ci se voit attribuer une mention indiquant si la personne filmée est ou non à son aise – cet étiquetage peut être réalisé par des experts en psychologie ou en culture locale.

Cet apprentissage permet ensuite à l’ordinateur de « raisonner » à partir de ces vidéos étiquetées, et d’identifier les principaux traits associés au sentiment de bien-être : posture corporelle, timbre de voix, rougeur de la peau. Lorsque la machine a identifié les traits associés au bien-être, l’algorithme ainsi créé, capable de les détecter sur une vidéo, peut être entraîné et perfectionné lorsqu’on lui fournit d’autres séries de séquences. L’algorithme devient finalement robuste et un ordinateur équipé d’une caméra peut, avec précision, distinguer une personne en situation de bien-être d’une autre qui ne l’est pas. Bien sûr, l’ordinateur n’est pas fiable à 100 % et commettra nécessairement des erreurs d’appréciation.

Maintenant que nous savons comment apprend une machine, qu’est-ce qui s’oppose à ce qu’on crée une vie intérieure convaincante permettant à un agent artificiel de s’intégrer harmonieusement dans la société humaine ?

Vers un profil synthétique complexe

Pour qu’un agent artificiel soit capable de nouer une relation réellement durable avec une personne, il faut qu’il soit doté d’une personnalité et de comportements convaincants, qu’il comprenne la personne, la situation dans laquelle tous deux se trouvent et l’histoire de leur communication. Il doit surtout être capable de poursuivre celle-ci sur des sujets divers et dans des situations variées.

Il est possible de créer un agent convaincant comme Alexa d’Amazon ou de Siri d’Apple, à qui on peut s’adresser en langage naturel et avec qui on peut avoir une interaction sensée dans le cadre précis de son utilisation : régler l’alarme d’un réveil, dresser une liste, commander un produit, baisser le chauffage.

Néanmoins, dès qu’on sort de ce contexte, la communication tourne court. Le robot trouvera des réponses acceptables à un large éventail de questions, mais sera incapable de poursuivre une conversation d’une heure sur un sujet complexe. Deux parents, par exemple, peuvent entamer de longues discussions pour décider de l’attitude à adopter face à un enfant qui n’est pas attentif à l’école. Cette conversation sera extrêmement riche, les parents y apportant non seulement leur compréhension de leur enfant, mais aussi tout ce qui constitue leur personnalité : émotions, psychologie, histoire personnelle, contexte socioéconomique, bagage culturel, bagage génétique, habitudes de comportement et compréhension du monde.

Si nous voulons qu’un agent artificiel endosse un rôle social aussi vaste et établisse une relation sensée avec un être humain, nous devons le doter d’un profil synthétique, construit à la fois du point de vue psychologique, culturel, social et émotionnel. Nous devons aussi le rendre capable d’apprendre avec le temps à « ressentir » et à réagir aux situations à partir de cette construction synthétique interne.

Cela exige une approche fondamentalement différente de l’apprentissage machine que l’on connaît actuellement. Il s’agirait de bâtir un système artificiellement intelligent qui se développerait à peu près comme un cerveau humain, en étant capable d’intérioriser la richesse des expériences humaines et d’avoir un raisonnement sur elles. La manière dont les gens communiquent entre eux et en viennent à comprendre le monde qui les entoure est un processus extraordinairement compliqué à synthétiser. Les modèles d’IA disponibles ou envisagés s’inspirent du cerveau humain ou d’une partie de son fonctionnement, mais ne constituent pas un modèle plausible de cerveau humain.

On voit l’intelligence artificielle accomplir d’incroyables exploits, lire tout l’Internet, gagner au jeu de go, diriger une usine entièrement automatisée. Mais, tout comme le physicien britannique Stephen Hawking (1942-2018) se sentait encore à mille lieues de comprendre l’univers, nous sommes à mille lieues de comprendre l’intelligence humaine.

Ce n’est pas pour demain

Les capacités exceptionnelles des robots et des systèmes artificiellement intelligents pourront faciliter et améliorer nos prises de décision, notre compréhension des situations et nos façons d’agir. Les robots pourront alléger le travail ou automatiser les tâches. Une fois les obstacles surmontés, la robotique sera peut-être physiquement intégrée au corps humain. Nous nouerons aussi avec des agents artificiels des relations comparables à celles que nous entretenons entre nous : nous pourrons ainsi communiquer avec eux en langage naturel, observer leurs comportements, comprendre leurs intentions. Mais aucune relation sensée comparable à celle des humains, avec ses conversations et ses rituels, son approfondissement et son évolution au fil du temps dans le cadre foisonnant de la vie quotidienne, n’est possible si l’on ne dote pas l’intelligence artificielle d’une vie intérieure conséquente.

Tant que nous saurons seulement en reproduire ou surpasser certaines fonctions, et non créer cette globalité de l’intelligence humaine placée dans le riche contexte du quotidien, on a peu de chances d’assister à la pleine intégration des hommes et des machines.

Spécialisée dans le développement des solutions robotiques, Vanessa Evers (Pays-Bas) est professeur titulaire en informatique au sein du groupe Human Media Interaction de l’université de Twente et directrice scientifique du DesignLab. Elle a publié près de 200 publications revues par les pairs et est rédactrice en chef à l’International Journal of Social Robotics et rédactrice associée au Journal of Human-Robot Interaction.

Le Courrier de l’UNESCO • juillet-septembre 2018

Intelligence artificielle : entre mythe et réalité

Les machines risquent-elles de devenir plus intelligentes que les hommes ?

Non, répond Jean-Gabriel Ganascia : il s’agit là d’un mythe inspiré par la science-fiction. Il rappelle les grandes étapes de ce domaine de recherche, les prouesses techniques actuelles et les questions éthiques qui requièrent des réponses de plus en plus urgentes.

L’intelligence artificielle est une discipline scientifique qui a vu officiellement le jour en 1956, au Dartmouth College, à Hanovre, aux États-Unis, lors d’une école d’été organisée par quatre chercheurs américains : John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon. Depuis, le terme « intelligence artificielle », qui à l’origine avait sans doute été inventé pour frapper les esprits, a fait fortune, puisqu’il est devenu très populaire au point qu’aujourd’hui plus personne ne l’ignore, que cette composante de l’informatique a pris de plus en plus d’ampleur au fil du temps et que les technologies qui en sont issues ont grandement contribué à changer le monde pendant les soixante dernières années.

Cependant, le succès du terme « intelligence artificielle » repose parfois sur un malentendu lorsqu’il désigne une entité artificielle douée d’intelligence et qui, de ce fait, rivaliserait avec les êtres humains.

Cette idée, qui renvoie à des mythes et des légendes anciennes, comme celle du Golem, a récemment été réactivée par des personnalités du monde contemporain comme le physicien britannique Stephen Hawking (1942-2018), l’entrepreneur américain Elon Musk, le futuriste américain Ray Kurzweil ou encore par les tenants de ce que l’on appelle aujourd’hui l’« IA forte » ou l’« IA générale ». Nous ne ferons toutefois pas plus état, ici, de cette acception seconde, car elle atteste uniquement d’un imaginaire foisonnant, inspiré plus par la science-fiction que par une réalité scientifique tangible confirmée par des expérimentations et des observations empiriques.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Pour John McCarthy et Marvin Minsky, comme pour les autres promoteurs de l’école d’été du Dartmouth College, l’intelligence artificielle visait initialement à la simulation, par des machines, de chacune des différentes facultés de l’intelligence, qu’il s’agisse de l’intelligence humaine, animale, végétale, sociale ou phylogénétique.

Plus précisément, cette discipline scientifique reposait sur la conjecture selon laquelle toutes les fonctions cognitives, en particulier l’apprentissage, le raisonnement, le calcul, la perception, la mémorisation, voire même la découverte scientifique ou la créativité artistique, peuvent être décrites, avec une précision telle qu’il serait possible de programmer un ordinateur pour les reproduire. Depuis plus de soixante ans que l’intelligence artificielle existe, rien n’a permis ni de démentir, ni de démontrer irréfutablement cette conjecture qui demeure à la fois ouverte et féconde.

Une histoire en dents de scie

Au cours de sa courte existence, l’intelligence artificielle a connu de nombreuses évolutions. On peut les résumer en six étapes.

Le temps des prophètes

Tout d’abord, dans l’euphorie des origines et des premiers succès, les chercheurs s’étaient laissé aller à des déclarations un peu inconsidérées qu’on leur a beaucoup reprochées par la suite.

C’est ainsi qu’en 1958, l’Américain Herbert Simon, qui deviendrait par la suite prix Nobel d’économie, avait déclaré que d’ici à dix ans les machines seraient championnes du monde aux échecs, si elles n’étaient pas exclues des compétitions internationales.

Les années sombres

Au milieu des années 1960, les progrès tardaient à se faire sentir. Un enfant de dix ans avait battu un ordinateur au jeu d’échecs en 1965 ; un rapport commandé par le Sénat américain faisait état, en 1966, des limitations intrinsèques de la traduction automatique. L’IA eut alors mauvaise presse pendant une dizaine d’années.

L’IA sémantique

Les travaux ne s’interrompirent pas pour autant, mais on axa les recherches dans de nouvelles directions. On s’intéressa à la psychologie de la mémoire, aux mécanismes de compréhension, que l’on chercha à simuler sur un ordinateur, et au rôle de la connaissance dans le raisonnement. C’est ce qui donna naissance aux techniques de représentation sémantique des connaissances, qui se développèrent considérablement dans le milieu des années 1970, et conduisit aussi à développer des systèmes dits experts, parce qu’ils recouraient au savoir d’hommes de métiers pour reproduire leurs raisonnements. Ces derniers suscitèrent d’énormes espoirs au début des années 1980 avec de multiples applications, par exemple pour le diagnostic médical.

Science des données, Machine Learning et Deep Learning

Néo-Connexionnisme et apprentissage machine

Le perfectionnement des techniques conduisit à l’élaboration d’algorithmes d’apprentissage machine (machine learning), qui permirent aux ordinateurs d’accumuler des connaissances et de se reprogrammer automatiquement à partir de leurs propres expériences.

Cela donna naissance à des applications industrielles (identification d’empreintes digitales, reconnaissance de la parole, etc.), où des techniques issues de l’intelligence artificielle, de l’informatique, de la vie artificielle et d’autres disciplines se côtoyaient pour donner des systèmes hybrides.

De l’intelligence artificielle aux interfaces homme-machine

À partir de la fin des années 1990, on coupla l’intelligence artificielle à la robotique et aux interfaces homme-machine, de façon à produire des agents intelligents qui suggèrent la présence d’affects et d’émotions. Cela donna naissance, entre autres, au calcul des émotions (affective computing), qui évalue les réactions d’un sujet ressentant des émotions et les reproduit sur une machine, et surtout au perfectionnement des agents conversationnels (chatbots).

Renaissance de l’intelligence artificielle

Depuis 2010, la puissance des machines permet d’exploiter des données de masse (big data) avec des techniques d’apprentissage profond (deep learning), qui se fondent sur le recours à des réseaux de neurones formels. Des applications très fructueuses dans de nombreux domaines (reconnaissance de la parole, des images, compréhension du langage naturel, voiture autonome, etc.) conduisent à parler d’une renaissance de l’intelligence artificielle.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Applications

Beaucoup de réalisations mettant à profit des techniques d’IA dépassent les facultés humaines : une machine a vaincu, au jeu d’échecs, le champion du monde en titre en 1997 et, plus récemment, en 2016, d’autres l’ont emporté sur l’un des meilleurs joueurs au monde au jeu de go et sur d’excellents joueurs de poker ; des ordinateurs démontrent ou aident à démontrer des théorèmes mathématiques ; on construit automatiquement des connaissances à partir de masses immenses de données dont le volume se compte en téraoctets (10 12 octets), voire en pétaoctets (10 15 octets), avec les techniques d’apprentissage machine.

Grâce à ces dernières, des automates reconnaissent la parole articulée et la transcrivent, comme les secrétaires dactylographes d’antan, et d’autres identifient avec précision des visages ou des empreintes digitales parmi des dizaines de millions et comprennent des textes écrits en langage naturel. Toujours grâce à ces techniques d’apprentissage machine, des voitures se conduisent seules ; des machines diagnostiquent mieux que des médecins dermatologues des mélanomes à partir de photographies de grains de beauté prises sur la peau avec des téléphones portables ; des robots font la guerre à la place des hommes  ; et des chaînes de fabrication dans les usines s’automatisent toujours plus.

Par ailleurs, les scientifiques utilisent ces techniques pour déterminer la fonction de certaines macromolécules biologiques, en particulier de protéines et de génomes, à partir de la séquence de leurs constituants – acides aminées pour les protéines, bases pour les génomes. Plus généralement, toutes les sciences subissent une rupture épistémologique majeure avec les expérimentations dites in silico, parce qu’elles s’effectuent à partir de données massives, grâce à des processeurs puissants dont le cœur est fait de silicium, et qu’elles s’opposent en cela aux expérimentations in vivo, sur le vivant, et, surtout, in vitro, c’est-à-dire dans des éprouvettes de verre.

Ces applications de l’intelligence artificielle affectent presque tous les domaines d’activités, en particulier dans les secteurs de l’industrie, de la banque, des assurances, de la santé, de la défense : en effet, de nombreuses tâches routinières sont désormais susceptibles d’être automatisées, ce qui transforme bien des métiers et éventuellement en supprime certains.

L’initiative mondiale de l’IEEE pour les considérations éthiques en Intelligence Artificielle et des Systèmes Autonomes

Quels risques éthiques ?

Avec l’intelligence artificielle, non seulement, la plupart des dimensions de l’intelligence – sauf peut-être l’humour – font l’objet d’analyses et de reconstructions rationnelles avec des ordinateurs, mais de plus les machines outrepassent nos facultés cognitives dans la plupart des domaines, ce qui fait craindre à certains des risques éthiques. Ces risques sont de trois ordres : la raréfaction du travail, qui serait exécuté par des machines à la place des hommes ; les conséquences pour l’autonomie de l’individu, en particulier pour sa liberté et sa sécurité ; le dépassement de l’humanité qui disparaîtrait au profit de machines plus « intelligentes ».

Or, un examen de détail montre que le travail ne disparaît pas, bien au contraire, mais qu’il se transforme et fait appel à de nouvelles compétences. De même, l’autonomie de l’individu et sa liberté ne sont pas inéluctablement remises en cause par le développement de l’intelligence artificielle, à condition toutefois de demeurer vigilants face aux intrusions de la technologie dans la vie privée.

Enfin, contrairement à ce que certains prétendent, les machines ne constituent aucunement un risque existentiel pour l’humanité, car leur autonomie n’est que d’ordre technique, en cela qu’elle ne correspond qu’à des chaînes de causalités matérielles qui vont de la prise d’information à la décision ; en revanche, les machines n’ont pas d’autonomie morale, car, même s’il arrive qu’elles nous déroutent et nous fourvoient dans le temps de l’action, elles n’ont pas de volonté propre et restent asservies aux objectifs que nous leur avons fixés.

Professeur d’informatique à Sorbonne Université, Jean-Gabriel Ganascia (France) est également chercheur au LIP6, EurAI fellow, membre de l’Institut Universitaire de France et président du comité d’éthique du CNRS. Ses activités de recherche portent actuellement sur l’apprentissage machine, la fusion symbolique de données, l’éthique computationnelle, l’éthique des ordinateurs et les humanités numériques.

Le Courrier de l’UNESCO • juillet-septembre 2018

Science des données, Machine Learning et Deep Learning

Au cours des dernières années, Internet a été inondé de milliers d’articles proclamant le nouvel âge des données et la façon dont il interagit avec l’intelligence artificielle. En conséquence, les trois termes science des données (data science), apprentissage automatique (machine learning) et apprentissage en profondeur (deep learning) sont passés pratiquement du jour au lendemain de mots à la mode au vocabulaire standard, et sont devenus synonymes de la direction dans laquelle évolue la société. Mais combien peuvent vraiment expliquer les différences entre ces termes sacrés ?

Data Science

Dans les temps anciens, cela s’appelait statistiques. Mais maintenant, il s’est métamorphosé et a grandi, jusqu’à devenir une science des données. Aujourd’hui, les universités de haut niveau offrent des diplômes et tout le monde l’appelle un cheminement de carrière qui n’échouera jamais.

Peter Nauer, un pionnier de l’informatique danois, a fait mention de la “science des données” pour la première fois à la White Hart Tavern en 1960, lorsqu’il l’a utilisé pour remplacer le terme “science informatique” (computer science). En fait, la partie de la White Hart Tavern n’est pas vraie, il était probablement dans son bureau en train de parler à un étudiant diplômé, mais cela fait quand même une belle histoire.

L’une des références les plus modernes à ce sujet a été faite par C. F. Jeff Wu lors de sa conférence de 1997 à l’Université du Michigan “Statistiques – Data Science ?”. Dans l’univers du Dr Wu, la science des données est passée un peu au-delà des statistiques traditionnelles, en utilisant le trio de collecte de données, la modélisation et l’analyse, et de manière significative, la prise de décision.

La même année, le journal Data Mining et Knowledge Discovery est lancé; le renversement de l’ordre des deux termes dans son titre reflétant l’ascendance du “data mining” (exploration de données) comme le moyen le plus populaire de désigner “l’extraction d’informations à partir de grandes bases de données”.

Le lauréat du prix Turing, Jim Gray, l’a considéré en 2007 comme un «quatrième paradigme de la science», en augmentant les méthodes scientifiques normales en incluant la dimension de “l’analyse axée sur les données”. Mais ce n’est qu’en 2012, lorsque Harvard Business Review a publié son article “Data Scientist : le travail le plus sexy du 21ème siècle” que les choses ont vraiment commencé à prendre leur essor.

En fin de compte, il est difficile de décrire de façon succincte et complète ce que fait un data scientist car il passe dans le domaine de l’intelligence artificielle, mais il commence certainement avec des concepts statistiques ardus et une connaissance très solide du langage de programmation Python qui possède de nombreuses fonctions facilitant l’analyse statistique.

En même temps, cela va au-delà des statistiques. Au lieu de simplement collecter et analyser des données à l’aide de méthodes statistiques éprouvées, les spécialistes des données posent la question primordiale : Et si ? – Et qu’est-ce qui se passerait si ?

Et si nous regardions les données sous un angle différent ? Et si nous étendions la modélisation que nos données de test nous ont donnée de plusieurs façons indépendantes ? Et si nous laissons une machine analyser les données sans règles pour la guider ? Qu’est-ce que cela va montrer en termes de relations ?

En fin de compte, c’est l’input généré par les data scientists qui alimentera les deux outils qu’ils utiliseront pour utiliser les données pour prendre des décisions; machine learning (apprentissage automatique) et deep learning (apprentissage profond).

Machine Learning

Wikipédia l’explique le mieux : «L’apprentissage automatique est un domaine de l’informatique qui utilise des techniques statistiques pour donner aux systèmes informatiques la capacité d’apprendre… sans être explicitement programmé.» C’est cette dernière clause qui est la clé; sans être explicitement programmé.

Une grande partie de l’intelligence de données fonctionne avant cette programmation étendue pour aider l’ordinateur à tenir compte de toutes les éventualités. Et, bien sûr, ces efforts ont été voués à l’échec dès le début car toutes les éventualités ne peuvent jamais être envisagées.

Le machine learning est différent. Dans ce cas, un cadre est mis en place qui alimente les informations statistiquement pertinentes dans l’ordinateur et lui permet de prendre des décisions, permet d’apprendre, à partir de ces données, plutôt que des instructions du programmeur. En d’autres termes, le machine learning permet à l’ordinateur de découvrir ce qui est probablement vrai et ce qui est probablement faux sur la base des données fournies.

Plus les données sont alimentées et plus la qualité de ces données est élevée, plus la machine apprendra. Et lorsque l’apprentissage est terminé, les données peuvent être introduites et les décisions prises par la machine.

Un exemple relativement simple d’un système d’apprentissage automatique est le filtre anti-spam attaché aux boîtes aux lettres électroniques. En regardant les différents mots qui composent le courriel, et en évaluant la probabilité d’un mot ou d’un groupe de mots donné d’être un danger, il est capable de prendre une décision quant à ce qui devrait être filtré et ce qui devrait être laissé.

Le machine learning est encore au stade primaire. C’est-à-dire, comme avec le filtre anti-spam, nous avons tous vu des cas où des emails légitimes sont marqués comme spam et les choses qui devraient l’être ne le sont pas. Mais la plupart du temps, il est assez proche de la cible. Et comme de plus en plus de filtres anti-spam commencent à utiliser le machine learning, cela devrait s’améliorer.

Deep Learning

De tous les mots rencontrés dans cet article, aucun n’est plus rébarbatif, plus chargé d’inconnu, que le deep learning. Est-ce bien ce qui va libérer SkyNet dans ce monde sans méfiance ? Il y a des gens qui affirmeraient que ça sera le cas. Mais ce ne sera pas le cas. Ou du moins pas avant quelques années.

Wikipedia l’explique encore une fois très bien : “fait partie d’une famille plus large de méthodes du machine learning basées sur l’apprentissage de représentations de données, par opposition à des algorithmes spécifiques à une tâche.”

Le deep learning fait partie du machine learning, mais il ignore tout ce qui est spécifique, c’est-à-dire axé sur la tâche. Il n’est pas utilisé pour définir un système qui dira quelle ville dans chaque état est la capitale. Ou la plus grande. Ou la plus amusante.

D’autres noms pour le deep learning sont les réseaux neuronaux profonds (deep neural networks), les réseaux de croyances profondes (deep belief networks) et les réseaux neuronaux récurrents (recurrent neural networks). Et il a été appliqué à des choses aussi bizarres que la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel, la reconnaissance audio, le filtrage des réseaux sociaux etc. De vastes choses pour une approche large.

Comme indiqué ci-dessus, le deep learning (apprentissage en profondeur) est un sous-ensemble du machine learning (apprentissage automatique), un sous-ensemble axé sur deux choses. La première est des modèles plutôt que des règles ou des faits. Les machines apprennent à rechercher des motifs ou même seulement des portions d’un motif. La seconde imite le comportement des neurones, en particulier ceux du néocortex du cerveau.

Quelle différence cela fait-il ? L’une des caractéristiques des neurones dans le cerveau humain est qu’aucun d’entre eux ne travaille seul. Il n’y a pas, par exemple, un neurone qui est responsable de la reconnaissance d’un chien par rapport à un chat. Au lieu de cela, de nombreux neurones vont travailler ensemble, chacun d’entre eux ne répondant peut-être qu’à une très petite partie des schémas que le cerveau a pour le «chien» et le «chat». Mais en travaillant ensemble, ils parviennent à un consensus sur la question de savoir si c’est un chien ou un chat.

C’est ce sur quoi travaille le deep learning. Il nécessite une puissance de calcul énorme, en plus d’une compréhension approfondie de la façon dont le cerveau fonctionne, de ce qui est encore à l’étude et d’une arène où la connaissance ne cesse de croître et de changer.

Conclusion

La science des données (data science) est basée sur les statistiques, mais les data scientists (spécialistes des données) vont au-delà des régressions linéaires. La nouvelle science des données va au-delà de l’analyse pour la prédiction, et pour regarder les données d’une manière que les techniques traditionnelles ne font pas. Et la raison principale de ceci n’est pas une percée dans les mathématiques mais l’adoption d’ordinateurs puissants pour exécuter rapidement une analyse qui aurait été peu pratique dans le passé.

Le machine learning consiste à utiliser des données pour permettre à l’ordinateur d’apprendre par lui-même. Parfois, cet apprentissage est dirigé, comme lorsque des règles sont incluses ou que d’autres paramètres sont définis qui guident la façon dont la machine prend ses décisions, ou non dirigé lorsque la machine creuse dans les données et voit ce qu’elle peut trouver. Il s’agit de séparer l’intelligence de la programmation. Dans le monde du machine learning, les données sont l’enseignant et non le codeur.

Le deep learning est un sous-ensemble du machine learning. Il est basé sur des données, mais il utilise un type d’algorithme particulier, qui agit de manière similaire aux neurones dans un cerveau humain. Cela va-t-il aboutir à un cerveau positronique et aux trois lois de la robotique ? Difficile à dire. Mais c’est l’avenir.

Forbes, Market Mogul