Des experts prédisent quand l’intelligence artificielle dépassera la performance humaine

Le transport routier sera informatisé bien avant la chirurgie, disent des chercheurs en informatique.

L’intelligence artificielle change le monde et le fait à une vitesse vertigineuse. La promesse est que les machines intelligentes seront en mesure de faire chaque tâche mieux et à moindre coût que les humains. À tort ou à raison, une industrie après l’autre tombe sous son charme, même si peu en ont considérablement profité jusqu’à présent.

Et cela soulève une question intéressante : quand l’intelligence artificielle dépassera-t-elle les performances humaines ? Plus précisément, quand est-ce qu’une machine fera-t-elle votre travail mieux que vous ?

Aujourd’hui, nous avons un début de réponse grâce au travail de Katja Grace de la Future of Humanity Institute de l’Université d’Oxford et à quelques confrères. Pour le savoir, ces personnes ont demandé aux experts. Ils ont interrogé les principaux chercheurs mondiaux en intelligence artificielle en leur demandant à quel moment ils pensent que les machines intelligentes dépasseront les humains dans un large éventail de tâches. Et la plupart des réponses sont assez surprenantes.

Les experts avec qui Grace et son équipe ont coopéré étaient des universitaires et des experts de l’industrie qui ont donné des communications à la conférence internationale sur le machine learning en juillet 2015 et la conférence Neural Information Processing Systems en décembre 2015. Ces deux événements étaient très importants pour les experts en intelligence artificielle, il était donc bon de parier que de nombreux experts mondiaux étaient sur cette liste.

Grace Katja et son équipe leur ont demandé à tous – les 1 634 d’entre eux – de compléter un sondage sur à quel moment l’intelligence artificielle deviendra-t-elle meilleure et moins chère que les humains dans un large éventail de tâches. Parmi ces experts, 352 ont répondu. Grave et son équipe ont ensuite calculé leurs réponses médianes.

Les experts prédisent que l’intelligence artificielle dépassera les humains au cours des 10 prochaines années dans des tâches telles que la traduction des langues (d’ici à 2024), la rédaction de manuels scolaires (d’ici à 2026) et la conduite de camions (d’ici 2027).

Cependant, beaucoup d’autres tâches prendront beaucoup plus de temps à maîtriser pour les machines. L’IA ne sera pas plus compétente que les humains pour travailler dans le commerce de détail jusqu’en 2031, capable d’écrire un best-seller jusqu’en 2049, ou capable de travailler en tant que chirurgien jusqu’en 2053.

Les experts sont loin d’être infaillibles. Ils avaient prédit que l’IA serait plus douée que les humains au Go qu’en 2027 (c’était en 2016, rappelez-vous). En fait, la filiale DeepMind de Google a déjà développé une intelligence artificielle capable de battre les meilleurs humains. Cela a pris deux ans au lieu de 12. Il est facile de penser que cela puisse permettre de démentir ces prédictions.

Les experts pensent avec une probabilité de 50 % que l’intelligence artificielle sera meilleure que les humains dans environ 45 ans.

C’est le genre de prédiction qui doit être prise avec des pincettes. L’horizon de prédiction à 40 ans devrait toujours être vu comme un signal d’alarme. Selon certains experts en énergie, une énergie de fusion rentable est à environ 40 ans, mais ça a toujours été le cas. C’était déjà à 40 ans lorsque les chercheurs ont exploré la fusion il y a plus de 50 ans. Mais c’est resté un rêve lointain parce que les défis se sont révélés plus importants que ce qu’on imaginait.

Quarante ans est un nombre important lorsque les humains font des prédictions parce que c’est la durée de la vie active de la plupart des gens. Ainsi, tout changement prédit allant plus loin que cela, signifie que le changement se produira au-delà de la durée de vie active de tous ceux qui travaillent aujourd’hui. En d’autres termes, cela ne peut se produire avec une technologie dont les experts d’aujourd’hui ont une expérience pratique. Cela suggère qu’il s’agit d’un nombre à traiter avec prudence.

Mais taquiner les chiffres montre quelque chose d’intéressant. Cette prédiction sur 45 ans est la figure médiane de tous les experts. Peut-être qu’un sous-ensemble de ce groupe est plus expert que les autres ?

Pour savoir si différents groupes ont fait des prédictions différentes, Grace Katja et ses confrères ont examiné comment les prédictions ont changé avec l’âge des chercheurs, le nombre de leurs rapports (c’est-à-dire leur expertise) et leur région d’origine.

Il s’avère que l’âge et l’expertise ne font aucune différence dans la prédiction, mais c’est le cas avec l’origine. Alors que les chercheurs nord-américains s’attendent à ce que l’IA surpasse tous les humains d’ici 74 ans, les chercheurs d’Asie s’y attendent d’ici seulement 30 ans.

C’est une grande différence qui est difficile à expliquer. Et cela soulève une question intéressante : qu’est-ce que les chercheurs asiatiques savent que les nord-américains ne savent pas (ou vice versa) ?

Ref: arxiv.org/abs/1705.08807 : When Will AI Exceed Human Performance? Evidence from AI Experts

traduction Thomas Jousse

MIT Technology Review

Le posthumain comme dessein (2nd partie)

Contre-argumentation

Face à l’éventualité du posthumain, ceux qualifiés de « bioconservateurs », opposent généralement la dégradation de l’humain, sa « déshumanisation » et l’affaiblissement, voire la disparition de la dignité humaine. Alors que le médecin et biochimiste américain Leon Kass met en avant son profond respect pour ce que la nature nous a donné1, Nick Boström lui réplique que certains dons de la nature sont empoisonnés, et que l’on ne devrait plus les accepter : cancer, paludisme, démence, vieillissement, famine, etc. Les spécificités même de notre espèce, comme notre vulnérabilité à la maladie, le racisme, le viol, la torture, le meurtre, le génocide sont aussi inacceptables2. Nick Boström réfute l’idée que l’on puisse encore relier la nature avec le désirable ou le normativement acceptable. Il a une formule :

« Had Mother Nature been a real parent, she would have been in jail for child abuse and murder3. »

Plutôt que de se référer à un ordre naturel, il préconise une réforme de notre nature en accord avec les valeurs humaines et nos aspirations personnelles4.

Nick Boström dénonce l’instrumentalisation qui est faite du roman dystopique d’Adlous Huxley Le meilleur des mondes (1932). Selon lui, si dans le monde dépeint par Huxley, les personnages sont déshumanisés et ont perdu leur dignité, ce ne sera pas le cas des posthumains. Le meilleur des mondes n’est pas, selon lui, un monde où les êtres sont augmentés, mais une tragédie, dans laquelle l’ingénierie technologique et sociale a été utilisée délibérément afin de réduire leurs potentialités, les affecter moralement et intellectuellement5. L’ouvrage d’Huxley décrit un eugénisme d’État dans lequel sont dissociées fécondation et sexualité mais aussi procréation et gestation corporelle. Tout commence par une mise en relation artificielle des gamètes mâles et femelles, puis une « bokanovskification », qui permet de faire bourgonner l’embryon pour produire au maximum 96 jumeaux identiques, et enfin une gestation extra-corporelle complète dans une couveuse, une sorte d’utérus artificiel6. Les « individus » « prédestinés » par une anoxie plus ou moins brève qui altère chez certains leur capacités physiques et cognitives sont ensuite ventilés en castes (alpha, bêta, gamma, epsilon, etc.).

« Plus la caste est basse […] moins on donne d’oxygène. Le premier organe affecté, c’est le cerveau. Ensuite le squelette7. »

À leur naissance, les enfants sont ensuite exposés à un conditionnement de type pavlovien qui oriente leur sensibilité – aux livres et aux fleurs par exemple.

En contrepoint, Nick Boström revendique la liberté morphologique et reproductive contre toute forme de contrôle gouvernemental8. Selon lui, il est moralement inacceptable d’imposer un standard : les gens doivent avoir la liberté de choisir le type d’augmentation qu’ils souhaitent9.

Le philosophe américain Francis Fukuyama considère qu’avec l’augmentation, une menace pèse sur la dignité humaine. L’égalité des chances, encore toute relative, fut l’histoire d’un long combat, l’augmentation ruinera cette conquête inscrite notamment dans la constitution des États-Unis10. En réponse, Nick Boström inscrit le posthumain dans une perspective historique d’émancipation progressive en considérant que de la même manière que les sociétés occidentales ont étendu la dignité aux hommes sans propriété et non nobles puis aux femmes et enfin aux personnes qui ne sont pas blanches, il faudrait selon lui étendre le cercle moral aux posthumains, aux grands primates et aux chimères homme-animal qui pourraient être créés11. La dignité est ici entendue au sens d’un droit inaliénable à être traité avec respect ; la qualité d’être honorable, digne12.

Nick Boström estime que nous devons travailler à une structure sociale ouverte inclusive, une reconnaissance morale et en droit pour ceux qui en ont besoin, qu’il soit homme ou femme, noir ou blanc, de chair ou de silicone13. Si l’on considère que la dignité peut comporter plusieurs degrés, non seulement le posthumain pourrait en avoir une, mais plus encore atteindre un niveau de moralité supérieur au nôtre14.

Valeurs transhumanistes Explorer le royaume posthumain

Pour le philosophe allemand Hans Jonas, l’eugénisme libéral individuel, qui consiste à choisir les traits de son enfant, est une tyrannie parentale qui de manière déterministe conditionne la dignité à venir de l’enfant et aliène ses choix de vie. Le choix de maintenant conditionne le futur. À ce déterminisme, Nick Boström rétorque que l’individu dont les parents auront choisi quelques gènes ou la totalité n’aura pas moins de choix dans la vie. Il réplique qu’entre avoir été sélectionné génétiquement et faire des choix dans sa vie il y a un monde et de manière générale être plus intelligent, en bonne santé, avoir une grande gamme de talents ouvrent plus de portes qu’il n’en ferme15. Ironiquement, il affirme que le posthumain aura les moyens technologiques de décider d’être moins intelligent16.

Soucieux, semble-t-il, de justice sociale, il imagine que certaines augmentations jugées bonnes pour les enfants pourraient être prise en charge par l’État comme cela existe déjà pour l’éducation, surtout si les parents ne peuvent pas se le permettre. Comme nous avons une scolarisation obligatoire, une couverture médicale pour les enfants, une augmentation pourrait être obligatoire, éventuellement contre l’avis même des parents17 .

L’ « explosion de l’intelligence »

Parmi les différentes voies devant conduire à une augmentation cognitive, une « explosion de l’intelligence », Nick Boström en évalue au moins deux comme prometteuses : l’augmentation cognitive par la sélection génétique et la digitalisation du cerveau et le téléchargement de l’esprit. L’augmentation cognitive par la sélection génétique accélérée est une méthode directe pour accéder au posthumain. Voici sa recette : choisir dans un premier temps des embryons dont le potentiel est souhaitable par un détournement du diagnostique préimplantatoire, extraire des cellules souches de ces embryons et les convertir en gamètes mâles et femelles jusqu’à maturation (six semaines) croiser le sperme et l’ovule pour donner un nouvel embryon, réitérer à l’infini puis implanter dans l’utérus (artificiel) et laisser incuber pendant neuf mois18.

Une autre voie consisterait à « plagier » la nature en digitalisant le cerveau. Dans un premier temps, il s’agirait de scanner finement post-mortem un cerveau biologique, stabilisé par vitrification, afin d’en modéliser la structure neuronale. Pour ce faire, il faudrait au préalable découper ce cerveau en fines lamelles. Les données extraites, issues du scan, alimenteraient ensuite un ordinateur, qui reconstruirait le réseau neuronal en trois dimensions, qui permet la cognition. In fine, la structure neurocomputationnelle serait implémentée dans un ordinateur puissant qui reproduirait l’intellect biologique. Avec cette méthode, il n’est pas nécessaire de comprendre l’activité neuronale, ni de savoir programmer l’intelligence artificielle19.

Vers une spéciation ?

Allons-nous vers une divergence si souvent décrite par la science fiction, une spéciation ? Une espèce se définit soit par la ressemblance morphologique soit, de manière génétique, par l’interfécondité. Il existe deux types de spéciation : l’anagénèse, une humanité unique deviendrait une posthumanité unique, ou la cladogénèse qui entraînerait une divergence. Deux moteurs favorisent la spéciation dans la biologie évolutionniste. Le premier est la dérive génétique, c’est-à-dire la transmission aléatoire de caractères qui apparaissent par mutation dans une population, sans fonction adaptive spécifique. Le second, est la sélection naturelle des caractères aléatoires en fonction de leur potentiel adaptatif à un environnement en changement. Dans notre cas, la sélection se ferait artificiellement, l’humanité prenant en charge sa propre évolution20.

Alors que la sélection naturelle se fait au hasard, au filtre de l’adaptation sur la très longue durée, avec le techno-évolutionisme l’évolution se ferait à un rythme rapide, pour des raisons fonctionnelles. L’idée que l’augmentation puisse mener à une spéciation par cladogénèse, relève, selon Nick Boström, d’un scénario de science-fiction :

« The assumption that inheritable genetic modifications or other human enhancement technologies would lead to two distinct and separate species should also be questioned. It seems much more likely that there would be a continuum of differently modified or enhanced individuals, which would overlap with the continuum of as-yet unenhanced humans21. »

De même, il évalue comme peu plausible l’idée qu’un jour le posthumain considérant l’homme « normal », comme inférieur, puisse le réduire en esclavage, voire l’exterminer22.

« The scenario in which ‘the enhanced’ form a pact and then attack ‘the naturals’ makes for exciting science fiction but is not necessarily the most plausible outcome23. »

Le devenir humain met au défi notre imaginaire. Nick Boström y voit l’espérance d’une émancipation biologique devant nous conduire à une extase permanente.

Néanmoins, cette désinhibition souffre d’une contradiction majeure : elle sous-tend des ruptures anthropologiques, qui par différents biais, et notamment le conformisme, s’imposeraient à tous.

1ère partie

Le posthumain comme dessein

Notes :

1 Nick Boström, « In defense of posthuman dignity », Bioethics, vol. 19, no 3, 2005, 2007, p. 5
2 Idem.
3 Ibid., p. 12
4 Idem.
5 Ibid., p. 6.
6 Aldous Huxley [1932], Le meilleur des mondes, Paris, Presses Pocket, 1977, voir chap 1, p. 21 à 36.
7 Ibid., p. 33.
8 Nick Boström, « In defense of posthuman dignity », op. cit., p. 6.
9 Ibid.
10 Francis Fukuyama, « The world’s most dangerous idea: transhumanism », Foreign Policy, 2004.
11 Nick Boström, « In defense of posthuman dignity », op. cit., p. 10.
12 Ibid., p. 9.
13 Idem.
14 Ibid., p. 11
15 Ibid., p. 12.
16 Idem.
17 Nick Boström, « Human genetic enhancements: a transhumanist perspective », op. cit.
18 Nick Boström, Superintelligence. Paths, dangers, strategies, Oxford, OUP, 2014, p. 38.
19 Ibid., p. 30.
20 Elaine Després et Hélène Machinal (dir.), Posthumains : frontières, évolutions, hybridités, Rennes, PUR, 2014, p. 2.
21 Nick Boström, « In defense of posthuman dignity », op. cit., p. 8.
22 Idem.
23 Idem.

Le posthumain comme dessein

« Nous [les transhumanistes] refusons de croire que nous sommes ce qu’il y a de mieux, que nous sommes une sorte d’aboutissement, une création indépassable1. » Nick Boström

Dans L’heure du crime et le temps de l’œuvre d’art, le philosophe allemand Peter Sloterdijk interroge un moderne : « Où étais-tu à l’heure du crime ? » Lequel répond « j’étais sur le lieu du crime »2. Selon le philosophe, nous commençons à percevoir les temps modernes comme une époque dans laquelle « des choses monstrueuses ont été provoquées par les acteurs humains ». L’ère du monstrueux au sens ambivalent de l’étonnant, de l’inouï, du condamnable, du dépravé, mais aussi du sublime3.

Si jusqu’au XVe siècle, le monstrueux était théologique, du fait de Dieu ou des dieux, il est maintenant anthropologique, du fait de l’homme4. Ce monstrueux prend différentes formes : nous allons ici nous intéresser aux modifications de l’humain, son artificialisation progressive, un devenir artefact.

Dans ce texte, il s’agit de mettre au jour les liens qui unissent augmentations, transhumain et posthumain. Clarifier ce dernier, comprendre ce qui anime le désir de le voir advenir, sonder l’« espace des possibles », encore purement spéculatif.

Pour ce faire, nous allons observer la manière dont le philosophe transhumaniste Nick Boström (université d’Oxford), un des penseurs les plus stimulants de cette nébuleuse, dessine les contours de son posthumain, mais aussi la manière dont il dénonce les faiblesses de l’argumentaire de ses détracteurs dits « bioconservateurs ».

Nick Boström présente le transhumanisme comme un mouvement qui tente de comprendre et évaluer les opportunités d’augmenter l’organisme humain et la condition humaine grâce au progrès technologique. La « nature humaine » est perçue comme quelque chose en devenir (work-in-progress), qui nous conduira, peut-être, vers un dépassement de l’Homo sapiens5. Cette perspective inclut d’éradiquer les maladies, éliminer la souffrance, accentuer les capacités intellectuelles, physiques et émotionnelles et étendre radicalement l’espérance de vie en bonne santé6. Son ambition : par le contrôle, atteindre « le meilleur », son idéal7, une extase existentielle permanente.

Valeurs transhumanistes Explorer le royaume posthumain

Qu’est-ce-que le posthumain ?

Nick Boström définit le posthumain comme un être qui possède au moins une capacité posthumaine c’est-à-dire une capacité qui excède le maximum qu’un être humain pourrait atteindre sans recours à la technologie. Conscient des limites de notre imaginaire pour l’envisager, il donne, pour exemple, trois capacités qui pourraient relever du posthumain. La première permettrait de rester longtemps en bonne santé, actif et productif mentalement et physiquement. La seconde porterait sur la mémoire, les raisonnements déductifs, analogiques et l’attention mais aussi les facultés pour comprendre et apprécier la musique, la spiritualité, les mathématiques, etc. La dernière accentuerait notre capacité à aimer la vie et répondre, de façon appropriée, aux situations du quotidien et aux attentes des autres8. Dans ce texte nous allons nous concentrer sur la capacité cognitive. Selon Nick Boström, nous avons tous à un moment espéré être un peu plus intelligent. Qui n’a rêvé un jour de se souvenir de tous les noms et des visages, d’être capable de résoudre rapidement des problèmes mathématiques complexes, de mieux distinguer des connections entre différents éléments9 ? Il clarifie ce point par un exemple à la hauteur des espérances folles du posthumain et qui lui est personnel : lire avec une parfaite compréhension et se souvenir de chaque livre de la bibliothèque du Congrès (qui comprend tout de même 23 millions d’ouvrages)10.

Selon le philosophe, l’amélioration (enhancement) ne forme pas un ensemble homogène. Il oppose ainsi deux catégories : les « améliorations » dites « positionnelles » et celles « intrinsèquement bénéfiques »11.

Les « améliorations positionnelles » et « intrinsèquement bénéfiques »

Les premières permettraient d’avoir un avantage comparatif comme une stature, un physique attractif. Pour illustrer, il recourt à un concept économico-juridique : l’ « externalisation », le transfert d’un coût/bénéfice d’une action à un tiers. L’externalité peut être négative dans le cas d’une pollution. Elle peut être positive dans le cas de quelqu’un qui agrémente son jardin et qui en fait ainsi bénéficier les passants12. Être plus grand, statistiquement, pour les hommes dans la société occidentale, permettrait de gagner plus d’argent, d’être plus attractif sexuellement. Seulement cette augmentation, qu’il qualifie de « positionnelle », n’offrira pas un bénéfice net pour la société, puisqu’elle implique que quelqu’un y perdra au change13.

« On ne peut fournir d’argument moral pour promouvoir ces améliorations positionnelles, car ce ne sont que des augmentations comparatives. Ce n’est peut-être pas là une raison de les bannir non plus, mais il n’est certainement pas nécessaire de consacrer une grande quantité de ressources pour les favoriser14. »

N’étant pas un bénéfice pour la société, elles devraient même, selon lui, être découragées politiquement et pourquoi pas par une taxe progressive. Lucide, il sait que ce sera difficilement envisageable15.

A contrario, celles qui procurent des « bienfaits intrinsèques » comme la santé, devraient être, selon lui, valorisées, encouragées, subventionnées même16, car elles seraient une externalisation positive pour la société17. Être en bonne santé, permettrait en effet de réduire les agents infectieux et favoriserait ainsi une meilleure santé globale (Nick Boström répugne à serrer les mains)18. Il est conscient que dans les faits, comme dans le cas de l’amélioration de l’intelligence, que l’augmentation positionnelle et l’augmentation intrinsèque se recouvrent19, ainsi l’amélioration de l’intelligence permettrait d’accéder à des meilleures écoles, au dépend de ceux qui disposent d’une intelligence « normale », mais aussi d’apprécier la littérature20.

Arguant qu’il n’oppose pas les améliorations « classiques » liées à l’éducation, qui consistent à stimuler la pensée critique et les autres moyens matériels, comme l’usage de drogues, qui doivent concourir à la même fin, il récuse l’étiquette de matérialiste radical qu’on lui accole21. Il avoue utiliser de la caféine à haute dose et même avoir pris du modafinil®, un psychostimulant utilisé comme traitement contre les narcolepsies/hypersomnie et détourné comme un puissant éveillant à des fins de « performance »22. Observons maintenant comment Nick Boström défend la cause du posthumain face à ses détracteurs.

À suivre…

Contre-argumentation

L’ « explosion de l’intelligence »

Vers une spéciation ?


Notes :

1 Nick Boström, « Entretien avec Nick Boström, le transhumaniste en chef », Argument, vol. 1, no 8, automne 2005-hiver 2006, n.p.
2 Peter Sloterdijk, L’heure du crime et le temps de l’oeuvre d’art, Paris, Calmann-Lévy, 2000, p. 10.
3 Ibid., p. 9.
4 Ibid., p. 9 à 12.
5 Nick Boström, « Transhumanist values. Ethical issues for the twenty-first century », Philosophy documentation center, 2005, p. 4.
6 Nick Boström, « Human genetic enhancements: A transhumanist perspective », Journal of value inquiry, vol. 37, no 4, 2003, n.p.
7 Nick Boström, « Entretien avec Nick Boström, le transhumaniste en chef », op. cit.
8 Nick Boström, « Why I want to be a posthuman when I grow up » in Bert Gordijn et Ruth Chadwick (eds), Medical Enhancement and posthumanity, Springer, 2008, [version en ligne n.p.].
9 Idem.
10 Nick Boström, « Transhuman values. Ethical issues for the twenty-first century », Philosophie documentation center, op. cit., p. 6.
11 Nick Boström, « Entretien avec Nick Boström, le transhumaniste en chef », op. cit.
12 Nick Boström, « Human genetic enhancements: a transhumanist perspective », op. cit.
13 Nick Boström, « Entretien avec Nick Boström, le transhumaniste en chef », op cit.
14 Idem.
15 Nick Boström, « Human genetic enhancements: a transhumanist perspective », op. cit.
16 Nick Boström, « Entretien avec Nick Boström, le transhumaniste en chef », op. cit
17 Nick Boström, « Human genetic enhancements: a transhumanist perspective », op. cit.
18 Raffi Khatchadourian, « The doomsday invention. Will artificial intelligence bring us utopia or destruction ? », New Yorker, 23 novembre 2015.
19 Nick Boström, « Entretien avec Nick Boström, le transhumaniste en chef », op. cit.
20 Idem.
21 Idem.
22 Raffi Khatchadourian, « The doomsday invention. Will artificial intelligence bring us utopia or destruction ? », op. cit.

 

Stephen Hawking : l’automatisation et l’IA vont décimer les emplois de la classe moyenne

L’intelligence artificielle et l’automatisation croissante vont décimer les emplois de la classe moyenne, aggravant les inégalités et risquant d’importants bouleversements politiques, a prévenu Stephen Hawking.

Dans une colonne de The Guardian, le célèbre physicien a écrit que « l’automatisation des usines a déjà décimé les emplois dans la fabrication traditionnelle, et la montée de l’intelligence artificielle est susceptible d’étendre cette destruction d’emplois profondément dans les classes moyennes. »

Il ajoute sa voix à un chœur croissant d’experts préoccupés par les effets que la technologie aura sur la main d’œuvre au cours des prochaines années et des décennies. La crainte est que, tandis que l’intelligence artificielle apportera une augmentation radicale de l’efficacité dans l’industrie, pour les gens ordinaires, cela se traduira par le chômage et l’incertitude, car leurs emplois humains seront remplacés par des machines.

La technologie a déjà supprimé de nombreux emplois manufacturiers et ouvriers traditionnels – mais elle est maintenant prête à faire des ravages similaires avec les classes moyennes.

Un rapport publié en février 2016 par Citibank en partenariat avec l’Université d’Oxford a prédit que 47 % des emplois aux États-Unis sont à risque d’automatisation. Au Royaume-Uni, 35 % le sont. En Chine, c’est un énorme 77 % – tandis que dans l’ensemble de l’OCDE, en moyenne 57 %.

Citi indique “des prévisions suggérant qu’il y aura 9,5 millions de nouveaux emplois et 98 millions d’emplois qui vont être remplacés par des machines intelligentes dans l’UE de 2013 à 2025. L’analyse montre que la moitié des emplois disponibles dans l’UE aurait besoin de travailleurs hautement qualifiés.

Oui, l’automatisation et la robotique apporteront des progrès et des avantages aux gens – mais seulement à quelques-uns. Les actionnaires, les principaux bénéficiaires et les personnes bien formées, bénéficieront de la plupart des avantages découlant de la productivité accrue des entreprises et de la demande de rôles techniques et hautement qualifiés.

Pendant ce temps, la majorité de la société – les classes moyennes et, en particulier, les pauvres – connaîtront un bouleversement important et peu de potentiel. Ils seront forcés de se recycler et de déménager puisque leurs anciens emplois seront remplacés par des machines intelligentes.

Rapport de l’ONU : les robots vont remplacer les deux tiers des emplois dans les pays en développement
850 000 emplois supplémentaires vont être automatisés d’ici 2030 au Royaume-Uni
L’intelligence artificielle et l’automatisation : seulement 1,5 % des emplois perdus pourraient être remplacés par les emplois créés
ING Focus Belgique – les emplois les plus « robotisables » (PDF)
L’évolution de l’intelligence artificielle pourrait sonner le glas de nombreuses professions
La Banque d’Angleterre et Bank of America Merrill Lynch annoncent une apocalypse de l’emploi

Le Forum économique mondial, prévoit une « quatrième révolution industrielle » caractérisée par des développements sans précédent dans la génétique, l’ intelligence artificielle, la robotique, la nanotechnologie, l’ impression 3D, et biotechnologie.

Trois des dix plus grands employeurs au monde remplacent maintenant leurs travailleurs par des robots.

L’automatisation va, “à son tour accélérer l’inégalité économique déjà grandissante dans le monde”, a écrit Hawking. “L’Internet et les plates-formes permettent à de très petits groupes d’individus de réaliser d’énormes profits tout en employant très peu de personnes. C’est inévitable, c’est le progrès, mais c’est aussi socialement destructeur.”

Il calcule cette inquiétude économique comme une raison de la montée de la politique populiste de droite en Occident : « Nous vivons dans un monde d’inégalités financières croissantes et non décroissantes, dans lesquelles beaucoup de gens ne voient pas seulement leur niveau de vie disparaître, mais aussi leur capacité à gagner leur vie.

Il n’est pas étonnant alors qu’ils cherchent une nouvelle donne, que Trump et le Brexit auraient pu sembler représenter. Il ne fait aucun doute dans l’esprit des commentateurs que ce fut un cri de colère par des personnes qui estimaient qu’ils avaient été abandonnés par leurs dirigeants. Les préoccupations sous-jacentes à ces votes sur les conséquences économiques de la mondialisation et de l’accélération du changement technologique sont absolument compréhensibles.

Combinée avec d’autres questions – la surpopulation, le changement climatique, la maladie – Hawking avertit de manière inquiétante : « Nous sommes au moment le plus dangereux du développement de l’humanité. L’humanité doit se rassembler si nous voulons surmonter ces défis. »

«Nous pouvons surmonter ces défis. Je dis cela car j’ai toujours été optimiste. Mais il faudra pour cela que les élites, qu’elles soient à Londres ou à Harvard, à Cambridge ou à Hollywood, tirent les leçons de l’année qui vient de s’écouler et apprennent à retrouver une once d’humanité», fait savoir Stephen Hawking.

Stephen Hawking avait déjà exprimé ses préoccupations au sujet de l’intelligence artificielle pour une autre raison – qu’elle pourrait dépasser et remplacer les humains. “Le développement de l’intelligence artificielle pourrait signifier la fin de l’espèce humaine”, a-t-il déclaré fin 2014. “Elle prendrait son envol et se restructurait à un rythme toujours croissant. Les humains, qui, sont limités par l’évolution biologique lente, ne pourraient pas concurrencer, et seraient remplacés”.

Business Insider

TECHNOLOGY AT WORK v2.0 – The Future Is Not What It Used to Be

[su_document url=”https://iatranshumanisme.com/wp-content/uploads/2016/12/Citi_GPS_Technology_Work_2.pdf” width=”640″]

Les scientifiques d’Oxford ont une IA qui peut lire vos lèvres

Des scientifiques de l’Université d’Oxford ont décrit un système d’intelligence artificielle, appelé LipNet, qui peut lire avec précision les lèvres. Le système emploie l’apprentissage profond pour se former en utilisant 29 000 vidéos de trois secondes de long étiquetées avec des légendes.

LipNet, d’autre part, travaille sur des phrases entières à la fois, atteignant une précision de 93,4 %. En comparaison avec les lecteurs de lèvres humains qui ont obtenu une précision de 52,3 %, LipNet était 1,78 fois plus précis que lui en traduisant les mêmes phrases.

Bien que la précision du système soit impressionnante, elle n’est toujours pas parfaite. Cependant, la technologie se révèle prometteuse, et les scientifiques cherchent des applications pour cette technologie. Par exemple, elle pourrait être utilisée comme un outil pour les malentendants et pourrait révolutionner la reconnaissance vocale.

soutien financier : Google DeepMind, ICRA, et NVIDIA

Quartz, Oxford University

Catastrophe globale et transhumanisme

Les transhumanistes ne sont pas tous techno-optimistes

« Only a singleton could control evolution1 »

Nick Bostrom

En 2008, le philosophe transhumaniste Nick Bostrom (université d’Oxford) publiait un article au titre singulier : « Où sont-ils ? Pourquoi j’espère que la quête de la vie extraterrestre ne donnera rien2. » Tandis que la sonde spatiale américaine Phoenix poursuivait ses investigations sur Mars, il développait l’idée que si nous trouvions une trace de vie intelligente, ce serait un mauvais présage pour l’humanité.

Inspiré du paradoxe du physicien Enrico Fermi, son raisonnement procède de la sorte : alors que nous sondons l’univers depuis plus de 60 ans (notamment dans le cadre du projet SETI – Search for extraterrestrial intelligence)3, que la Voie lactée recèle plus de 200 milliards d’étoiles et l’univers observable entre 100 et 200 milliards de galaxies, pourquoi n’avons-nous pas trouvé de traces tangibles de vie extraterrestre ? En d’autres termes, alors que la probabilité de la vie semble si grande, pourquoi aucune intelligence extraterrestre n’a encore entrepris l’exploration de l’univers ? Comment expliquer ce paradoxe ? Reprenant le concept de l’économiste américain Robin Hanson4, Nick Bostrom s’interroge : existe-t-il « un grand filtre »5, un obstacle, un goulot d’étranglement, une étape critique, au saut évolutionniste nécessaire à l’expansion de la vie et l’essaimage d’une l’intelligence dans l’univers, la civilisation galactique ? Partant de là, il distingue deux possibilités. Soit le « grand filtre » se situe dans notre passé et nous l’avons franchi : au seuil de notre expansion dans l’univers, il est vrai encore timide, cela revient à dire que la vie est rare, peut-être unique, et qu’elle nécessite d’improbables coïncidences pour émerger, sinon d’autres intelligences seraient venues nous rendre visite. La vie étant peu répandue et l’univers immense, on peut aussi imaginer qu’elle a pu émerger loin de nous, dans ce cas les deux intelligences resteront peut-être pour toujours étrangères l’une à l’autre. Dans l’autre hypothèse, le « grand filtre » se situe devant nous, dans le futur, cela signifierait qu’il y a dans le développement technologique de la civilisation un stade critique, qui expliquerait que quelque chose a empêché l’essaimage de l’intelligence. Dans ce cas c’est le risque anthropique, lié à l’homme lui-même, qu’il faut redouter.

Ces considérations liminaires mettent en relief le primat de l’intelligence et le risque anthropique existentiel, qui pourrait nuire à l’étape prochaine de l’évolution désirée par certains transhumanistes, un mouvement philosophique, scientifique et politique, qui s’est cristallisé notamment en Californie dans les années 1960 et qui a pour ambition de prendre en main l’évolution humaine, jugée imparfaite, par la technologie.

Souvent présentés comme techno-fétichistes, il s’agit ici d’explorer un aspect moins connu des transhumanistes : les liens qui unissent certains d’entre eux à l’idée de catastrophe globale6 et comprendre les ressorts de cette inquiétude. Après quelques éléments biographiques sur Nick Bostrom et une définition du risque anthropique existentiel, nous développeront l’exemple de l’« explosion de l’intelligence ».

Nick Bostrom

Niklas Bostrom est né en Suède. Mû par une curiosité intellectuelle intense, adolescent, il décide de faire sa propre éducation7. Au début des années 1990, il réussi le tour de force d’être diplômé de l’université de Göteborg en philosophie, en logique mathématique et en intelligence artificielle. Il poursuit ensuite sa formation à Stockholm où il étudie la philosophie et les mathématiques puis au King’s College de Londres où il s’initie à l’astrophysique et aux neurosciences8.

Acteur transhumaniste historique, il fonde, en 1998, avec le philosophe anglais David Pearce, le World Transhumanist Association (maintenant Humanity +), une institution qui a pour ambition de donner corps au transhumanisme mais aussi lui donner du crédit afin de stimuler des recherches académiques9. La même année, il participe à la rédaction de La déclaration transhumaniste ainsi qu’à la création du Journal of Transhumanism (devenu Journal of Evolution & Technology).

Son doctorat de philosophie obtenu à la London School of Economics porte sur le paradoxe de l’Apocalypse (Doomsday argument), un raisonnement probabiliste sur le risque d’extinction de l’humanité inspiré par l’astrophysicien Brandon Carter que, selon Nick Bostrom, l’on sous-estime trop souvent, notamment dans sa dimension anthropique10. En 2005, il donne naissance, au sein d’Oxford Martin School11, au laboratoire Future of Humanity Institute (FHI)12. Son objectif : générer des outils pluridisciplinaires pour appréhender les risques technologiques émergents mais aussi les opportunités civilisationnelles associées afin de clarifier les choix qui façonnent le futur de l’humanité sur le long terme, en tirer le meilleur profit. En 2014, son livre, Superintelligence, paths, dangers, strategies, a eu un grand retentissement13. En écho à cette publication, qui alimente l’inquiétude autour de l’intelligence artificielle, Elon Musk (Tesla Motors, PayPal, SpaceX, SolarCity) a doté le FHI d’une somme d’un million de dollars14. Récemment on a pu voir Nick Bostrom témoigner sur le risque existentiel à l’ONU au côté du cosmologiste Max Tegmark (MIT)15 fondateur du Future of Life Institute16.

Le risque existentiel

Nick Bostrom définit le risque existentiel comme un risque qui menace prématurément l’extinction de l’intelligence née sur Terre avant qu’elle ne puisse atteindre sa maturité, l’expression de sa plénitude17.

Depuis 500 millions d’années, 15 extinctions de masse auraient eu lieu dont 5 ont failli faire disparaître la vie sur Terre. Une en particulier, au Permien-Trias, il y a 250 millions d’années, aurait éliminé 90 % des espèces18. Dans un passé plus récent, la chute d’un astéroïde comme celui du Yucatán (Mexique), il y a 65 millions d’années, mais aussi l’impact du supervolcan Toba (Indonésie) sont à l’origine d’extinctions massives, directement et indirectement par l’absence de luminosité et le refroidissement induit.

Cependant, si l’humanité a survécu aux risques naturels depuis des centaines de milliers d’années, Nick Bostrom est moins optimiste quant aux menaces nouvelles introduites par celle-ci, depuis peu : c’est le risque existentiel anthropique19. Outre le réchauffement climatique global, l’usage de l’arme nucléaire, d’autres risques sont mis en avant comme une pandémie anthropogène liée au bioterrorisme, l’altération du climat par la géo-ingénierie et l’avènement d’une superintelligence artificielle hostile.

Nick Bostrom fait aussi état du risque nanotechnologique, pas seulement le très fantasmé gray goo20, une écophagie environnementale liée à la perte de contrôle d’un assembleur moléculaire popularisée par Eric Drexler (FHI)21, mais aussi l’usage d’armes nanométriques22. Il ajoute quelque chose d’imprévisible23. Focalisons-nous sur le risque inhérent à l’émergence de la superintelligence artificielle.

« 10 scénarios pour la fin de l’homme (avec Nick Bostrom) :

Partie 2

L’ « explosion de l’intelligence »

Le statisticien Irving John Good (1916-2009) serait le premier à l’avoir exposée officiellement en 1965 :

« Supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. […] cette machine pourrait à son tour créer des machines meilleures qu’elle-même ; cela aurait sans nul doute pour effet une réaction en chaîne du développement de l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en résulte que la machine ultra-intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir. Il est curieux que ce point soit si rarement abordé en dehors de la science-fiction. Il faudrait parfois prendre la science-fiction au sérieux24. »

Cette ultra-intelligence devient singularité technologique sous la plume du mathématicien et auteur de science fiction Vernor Vinge en 1993.

« Within thirty years, we will have the technological means to create superhuman intelligence. Shortly after, the human era will be ended25. »

En 2008, Robin Hanson (FHI) et Eliezer Yudkowsky (Machine Intelligence Research Institute) ont débattu à ce propos, l’un considérant que le « décollage » (takeoff) sera lent, qu’il prendra des années, des décennies et l’autre, au contraire, fulgurant26. Nick Bostrom pense aussi que le décollage sera explosif27.

L’ « explosion de l’intelligence » peut être résumée de cette manière : lorsque la machine aura atteint le stade de l’intelligence humaine, elle pourrait se reprogrammer, puis à nouveau se reprogrammer à partir de cette nouvelle programmation et ainsi de suite jusqu’à produire une évolution exponentielle.

Les techno-optimistes de la Silicon Valley comme Peter Diamandis et Ray Kurzweil utilisent ce concept de singularité technologique pour illustrer l’émergence de la superintelligence28. Nous serions au seuil d’une « accélération technologique », objectivement impensable, qui passé un point d’inflexion deviendra explosive et profondément transformatrice. Cette singularité technologie échappe à nos catégories de pensée car nous pensons de façon linéaire, alors que l’évolution technologique se fait de manière exponentielle. Peter Diamandis utilise cette métaphore : si 30 pas linéaires (1, 2, 3, etc.) amènent approximativement à 30 mètres, 30 pas exponentiels (1, 2, 4, 8, 16, etc.) nous feraient parcourir 26 fois le tour de la planète29. Dans le cadre de cette accélération, Ray Kurzweil prophétise l’émergence de la super-intelligence autoréplicante pour 204530. Nous sommes dans un compte à rebours quasi messianique, espéré auto-réalisateur, comme l’a été la loi de Moore31. C’est le retour en grâce du fantasme de l’intelligence artificielle « forte » stimulé par le l’augmentation des capacités de stockage de l’information et des puissances de calcul.

Pour Nick Bostrom, parmi les leviers devant conduire à une augmentation cognitive, si la digitalisation du cerveau (whole brain emulation) semble la voie la plus prometteuse, la méthode la plus rapide à mettre en œuvre serait le couplage avec la superintelligence artificielle32. Seulement, cette méthode qui conditionne un devenir hybride, cyborg, comporte un risque existentiel ; nous sommes revenus au « grand filtre ».

Nick Bostrom considère que l’évolution ne sera pas toujours nécessairement avantageuse pour l’humanité33. Contrairement aux libertariens de la Silicon Valley, il n’est pas techno-optimiste, il redoute les risques existentiels qui pourraient nuire à l’humanité toute entière.

Plus précisément, ces risques menacent de façon prématurée l’extinction, selon lui, non pas de l’humanité au sens de l’Homo sapiens, une incarnation transitoire, mais de l’ « intelligence d’origine terrestre » et sa « maturité technologique », c’est-à-dire le maximum de ses potentialités : le posthumain et ses promesses comme la colonisation de l’espace, etc34.

Selon Nick Bostrom, nous sous-estimons le risque anthropique existentiel et notamment celui inhérent à la superintelligence artificielle.

Comment se prémunir contre cette catastrophe ? Une manière d’éviter le désastre consisterait à prendre en main l’évolution de l’humanité, aussi suggère-t-il de développer ce qu’il appelle un singleton (en mathématiques, un ensemble formé d’un seul élément), un ordre mondial présidé par une entité indépendante qui nous permettrait d’éviter les risques existentiels35. Ce singleton pourrait être un gouvernement mondial démocratique, une dictature  ou… une superintelligence, une sorte de gouvernement pastoral machinique36.

Finalement, la création d’un singleton, quelque soit sa nature, pourrait anticiper et ainsi réduire certains risques. Il pourrait aussi en faire advenir d’autres comme un régime oppressif global et permanent37.

Notes

1 Nick Bostrom, « The future of human evolution », in Charles Tanguy (ed), Death and anti-death: two hundred years after Kant, fifty years after Turing, Palo Alto, rup, 2004, 2009, [version en ligne], p. 16.

2 Nick Bostrom, « Where are they. Why I hope the search for extraterrestrial Life Finds Nothing », MIT Technology review, mai/juin, 2008, p. 72-77.

3 SETI Institute Home.

4 Robin Hanson, « The great filter – Are we almost in the past ? », 15 septembre 1998.

5 Ce concept est utilisé en exobiologie (ou astrobiologie). Lire Aditya Chopra et Charles H. Lineweaver, « The case for a Gaian bottleneck. The biology of habitability », Astrobiology, vol. 16, no 1, 2016.

6 Le rapport de la fondation Global challenges définit la catastrophe globale comme un événement qui tuerait au moins 10 % de l’humanité, soit actuellement 750 millions de personnes. Lire Global Challenges Foundation/Global Priorities Project (Future of Humanity Institute), Global Catastrophic Risks, 2016, p. 6.

7 Raffi Khatchadourian, « The doomsday invention. Will artificial intelligence bring us utopia or destruction ? », The New Yorker, no 23, novembre 2015.

8 Curriculum vitae de Nick Bostrom.

9 Nick Bostrom, « A history of transhumanist thought », Journal of Evolution & Technology, vol. 14, no 1, avril 2005, p. 15.

10 Cet argument est discuté par John A. Leslie dans The end of the world. The science and ethics of human extinction, London, Routeldge, 1996

11 Fondé en 2005 par James Martin, un spécialiste des technologies de l’information, Oxford Martin School, est un centre de recherche pluridisciplinaire qui porte sur les enjeux  globaux pour le XXIe siècle.

13 Nick Bostrom, Superintelligence, paths, dangers, strategies, Oxford, OUP, 2014.

14 Ideas into action, 10 years of groundbreaking research, Oxford Martin School/University of Oxford, 2015, p. 9.

15 Prof. Max Tegmark and Nick Bostrom speak to the UN about the threat of AI.

17 Nick Bostrom, « Existential risk prevention as global priority », Global Policy, vol. 4, no 1, 2013, p. 15.

18 Nick Bostrom et Milan M. Ćirković, « Introduction », Global Catastrophic Risks, Oxford, OUP, 2008, p. 8.

19 Nick Bostrom, « The future of humanity », in Jan-Kyrre Berg Olsen, Evan Selinger et Soren Riis (eds),  New Wages in philosophy of technology, NY, Palgrave McMilla, 2009 [version en ligne], p. 10-11.

20 Nick Bostrom, Existential risks: Analyzing human, extinction scenarios and related hazards, Journal of Evolution and Technology, vol. 9, mars 2009, p. 8.

21 Eric K. Drexler, Engins de création : l’avènement des nanotechnologies, Paris, Vuilbert, 2005 [Engines and creation. The coming era of nanotechnology, 1986].

22 Nick Bostrom, « The future of humanity », op. cit., p. 10-11.

23 Nick Bostrom, Existential risks : Analyzing human, extinction scenarios and related hazards, op.cit., p. 8.

24 Irving J. Good, « Speculations concerning the first ultraintelligent machine », in F. Alt et M. Ruminoff (eds.), Advances in computers, vol. 6, 1965, p. 33.

25 Venor Vinge, « The coming technological singularity: How to survive in the post-human era », Vision-21, Interdisciplinary science and engineering in the era of cyberspace. Proceedings of a symposium cosponsored by the NASA Lewis Research Center and the Ohio Aerospace Institute and held in Westlake, Ohio March 30-31, 1993, p. 11.

26 Robin Hanson et Eliezer Yudkowsky, The Hanson-Yudkowsky AI foom debate, Berkeley, CA, Machine Intelligence Research Institute, 2013.

27 Nick Bostrom, Superintelligence, paths, dangers, strategies, op. cit., p. 64-65.

28 Voir Ray Kurzweil, The singularity is near. When humans transcend biology, London, Penguin Books, 2005.

29 Peter Diamandis et Steven Kotler, Bold. How to go big, create wealth and impact the world, NY, Simon and Schuster Books, 2014, p. 16.

30 Peter Diamandis, « Ray Kurzweil’s mind-boggling predictions for the next 25 years », Singularity Hub, 20 janvier 2015.

31 Walter Isaacson, Les innovateurs. Comment un groupe de génies, hackers et geeks a fait la révolution numérique, Paris, JC Lattès, 2015, p. 247.

32 Nick Bostrom, Superintelligence, paths, dangers, strategies, op. cit.

33 Nick Bostrom, « The future of human evolution », op. cit., p. 1-2.

34 Nick Bostrom, « Existential risk prevention as global priority », op. cit., p. 15-31.

35 Nick Bostrom, « The future of human evolution », op. cit., p. 16-18.

36 Nick Bostrom, « What is a Singleton », Linguistic and Philosophical Investigations, vol. 5, no 2, 2006, p. 48-54.

37 Nick Bostrom, « The future of human evolution », op. cit. p. 18.

850 000 emplois supplémentaires vont être automatisés d’ici 2030 au Royaume-Uni

  • 850 000 emplois du secteur public au Royaume-Uni sont menacés de disparaître à l’horizon 2030 en raison de l’automatisation, et plus de 1,3 millions emplois administratifs dans le secteur public ont une probabilité de 77 % d’être automatisés.

  • Il s’agit de bonnes nouvelles pour les décideurs politiques fiscaux qui souhaitent réduire leurs coûts, le gouvernement pourrait économiser jusqu’à £ 12 milliards sur les salaires du secteur public en 2030.

Des moments difficiles attendent les travailleurs humains. Avec l’avènement de l’automatisation, vient un marché de l’emploi beaucoup plus faible avec une force de travail en diminution constante. Les emplois traditionnellement occupés par des humains sont maintenant pris en charge par des robots et des logiciels. Maintenant, un autre secteur de l’emploi est menacé par l’automation : le secteur public.

Une étude réalisée par l’Université d’Oxford et Deloitte, a constaté que 850 000 emplois du secteur public au Royaume-Uni sont menacés de disparaître à l’horizon 2030 en raison de l’automatisation. Le rapport mentionne également la façon dont plus de 1,3 millions emplois administratifs dans le secteur public ont une probabilité de 77 % d’être automatisés. Ces emplois incluent des emplois hautement répétitifs tels que le travail de bureau et le transport.

Ce rapport intervient au moment où les responsables politiques fiscaux souhaitent réduire leurs coûts. Il montre que le gouvernement peut économiser jusqu’à £ 12 milliards sur les salaires du secteur public en 2030.

Un rapport précédent soutient que, au cours des 140 dernières années, l’automatisation a créé plus d’emplois qu’il n’en a détruits. Le présent rapport mentionne également un grand nombre d’emplois qui ont une faible probabilité d’être automatisés : les praticiens de soins médicaux et les travailleurs sociaux, qui font face à une possibilité d’automatisation de 23%. En outre, les chefs d’entreprise, les directeurs financiers et les autres rôles nécessitant une « réflexion stratégique et de raisonnement complexe » ont une probabilité d’être automatisés à seulement 14%.

ING Focus Belgique – les emplois les plus « robotisables » (PDF)

Parallèlement, une étude menée par Davos, le mois dernier, est beaucoup moins optimiste sur la soi-disant nouvelle vague de création de nouveaux emplois. Elle indique que 7 millions d’emplois en France seront éliminés en raison de l’automatisation d’ici à 2020. Il est possible d’estimer la création d’au moins 210 752 nouveaux emplois d’ici 2020 en lien avec l’IA et l’automatisation : 39 % des employeurs dans le domaine de l’intelligence artificielle et l’automatisation sont à la recherche de diplômés ayant un Bac+5. Malgré l’effervescence qu’engendre le développement de l’IA et l’automatisation, le secteur reste très spécifique et les opportunités d’emploi demeurent réservées à un bassin de candidats limité. Ainsi, l’arrivée de la vague d’emplois en lien avec l’informatique représente un maigre 1,5 % des sept millions de postes qui seront supprimés à cause de ces mêmes secteurs.

The Guardian, Deloitte

Pour aller plus loin :

L’évolution de l’intelligence artificielle pourrait sonner le glas de nombreuses professions
La Banque d’Angleterre et Bank of America Merrill Lynch annoncent une apocalypse de l’emploi

 

IA et automatisation : seulement 1,5 % des emplois perdus pourraient être remplacés par les emplois créés

Joblift étudie les effets de l’intelligence artificielle et de l’automatisation sur le marché de l’emploi

Hambourg / Berlin, le 23 septembre 2016 – Le rythme du développement de l’industrie de l’intelligence artificielle (IA) et de l’automatisation en France s’impose comme un grand défi sur plusieurs secteurs d’emplois. Les postes de livreurs, facteurs et réceptionnistes comptent parmi les nombreux emplois à risque en raison de la place grandissante qu’occupe l’IA et l’automatisation. Selon une étude menée par Davos, sept millions d’emplois en France seront éliminés en raison de l’automatisation d’ici à 2020. Par contre, l’arrivée de l’automatisation promet tout de même certaines débouchées. En effet, le méta-moteur de recherche d’emploi Joblift estime une demande de plus de 210 752 emplois dans les secteurs de l’IA et l’automatisation d’ici les quatre prochaines années. Malgré l’effervescence qu’engendre le développement de l’IA et l’automatisation, le secteur reste très spécifique et les opportunités d’emploi demeurent réservées à un bassin de candidats limité. Ainsi, l’arrivée de la vague d’emplois en lien avec l’informatique représente un maigre 1,5 % des sept millions de postes qui sont amenés à disparaître à cause de ces même secteurs.

L’embauche dans les industries de l’intelligence artificielle et de l’automatisation est en pleine croissance, soit de 37 % de plus en moyenne au cours de la dernière année

Joblift affiche plus de 5 296 offres actives dans le domaine de l’IA, incluant les emplois dans le secteur de l’automatisation. Selon l’étude, au cours des 12 derniers mois, le marché démontre une croissance de 37 % dans les secteurs de l’IA et de l’automatisation. En se fiant sur la croissance notée par l’étude, il est possible d’estimer la création d’au moins 210 752 nouveaux emplois d’ici 2020 en lien avec l’IA et l’automatisation. Il est important de préciser que cette information prend pour acquis une croissance fixe, et ne prend pas en compte l’arrivée de nouveaux emplois à ce jour. En comparaison avec les statistiques de l’étude du cabinet Davos, cela ne représente que 1,5 % des sept millions d’emplois qui seront supprimés dû aux avancements technologiques.

39 % des employeurs dans le domaine de l’intelligence artificielle et l’automatisation sont à la recherche de diplômés ayant un Bac+5

Selon l’étude, 50 % des emplois dans le secteur de l’IA et de l’automatisation exigent une formation académique d’un minimum de Bac+4. Parmi ces 50 %, plus des trois quarts des employeurs recherchent un Bac+5. Du coup, le marché d’emploi étroit se réserve à un bassin de candidats hyper-qualifiés. Une grande partie des formations académiques exigées sont directement en lien avec des études en informatique. Par contre, ce sont les diplômés en génie qui dominent. La banque de données démontre que 18 % des emplois dans ce secteur affichent le titre d’ingénieur, 11 % ont des titres de développeur, ainsi que 9 % sont des emplois de technicien. Ces emplois représentent 39 % de la totalité des offres affichés du secteur de l’IA et de l’automatisation.

Les développeurs de Pokemon Go et FAIR (Facebook Artificial Intelligence Research) recrutent en France

Le plus grand recruteur dans l’industrie de l’IA et de l’automatisation en France est l’entreprise de jeux vidéo Niantic. Connue comme étant le développeur du jeu de réalité augmentée Pokemon Go, Niantic affiche plus de 160 offres d’emplois sur Joblift. La majorité des emplois de Niantic se trouve à Paris. La banque de données dévoile que 25 % de tous les postes reliés à l’IA et l’automatisation sont situés de fait à Paris. La capitale accueille notamment FAIR, la branche de IA de Facebook. À la tête des opérations de FAIR se trouve Yan Le Cun. L’importante présence d’Inria, le centre de recherche dédié au numérique, ainsi que l’arrivée prestigieuse de Facebook, donne lieu à un positionnement à la France comme étant le centre du développement de l’AI et l’automatisation en Europe.

source : http://joblift.fr

A propos de Joblift:

Joblift est un meta moteur de recherche mettant actuellement en ligne plus de 1.000.000 d’offres d’emplois en Allemagne et travaille avec une centaine de sites partenaires. La technologie et l’accompagnement des candidats restent une des priorités. Créé en 2015 par Lukas Erlebach et Malte Widenka, Joblift emploie une vingtaine de personnes réparties à Hambourg et Berlin.

ING Focus Belgique – les emplois les plus « robotisables » (PDF)
L’évolution de l’intelligence artificielle pourrait sonner le glas de nombreuses professions
La Banque d’Angleterre et Bank of America Merrill Lynch annoncent une apocalypse de l’emploi

Enregistrer

L’histoire de la superintelligence et la question de l’éthique des machines

Publié in Marianne Celka et Fabio La Rocca (dir.), Transmutations, Esprit Critique, Revue internationale de sociologie et sciences sociales, vol. 24, n° 1, été 2016, p. 43-57. Par Vincent Guérin, Docteur en histoire contemporaine.

Résumé : Ce texte a pour objet d’analyser, chez les transhumanistes, le couplage de l’éthique des machines avec les risques inhérents à la superintelligence. La première favorisant l’émergence de la seconde. Par ce biais, nous observons une accentuation du rapprochement de l’homme et de la machine, initié par le paradigme informationnel ; un renversement même avec une machine considérée comme « smarter than us ».

Introduction

En 2014, l’informaticien et cofondateur de Skype Jaan Tallinn a créé The Future of Life Institute (FLI) avec entre autres les cosmologistes Anthony Aguirre (Université de Californie) et Max Tegmark (MIT). Dans le comité scientifique se trouve une constellation de personnalités célèbres comme Stephen Hawking, des auteurs à succès comme Erik Brynjolfsson (MIT Center for Digital Business), mais aussi l’acteur Morgan Freeman (film Transcendance de Wally Pfister, 2015) et l’inventeur et chef d’entreprise Elon Musk. Jaan Tallinn était déjà à l’initiative du Centre For The Study Of Existential Risk (CSER) ou Terminator studies en 2012 à l’Université de Cambridge avec le cosmologiste Martin Rees. Ces deux institutions ont pour ambition, entre autres, d’anticiper les risques majeurs qui menacent l’humanité, notamment ceux inhérents à l’intelligence artificielle (IA).

Dernièrement, Bill Gates, fondateur de Microsoft, lui-même, se dit préoccupé par l’IA. Ces deux institutions et Bill Gates ont un dénominateur commun : Nick Boström. l’auteur de Superintelligence, Paths, Dangers, Strategies (2014), qui a impressionné Bill Gates, est membre du comité scientifique de la FLE et du CSER. Il est professeur à la faculté de philosophie de la prestigieuse Université d’Oxford et fondateur de la Future of humanity Institute (FHI) qui a pour objet d’anticiper les risques majeurs qui menacent l’humanité (existential risks). Ses recherches portent sur l’augmentation de l’homme, le transhumanisme, les risques anthropiques et spécifiquement celui de la superintelligence. En 2008, il a codirigé avec Milan M. Ćirković Global Catastrophic Risks (Boström, Ćirković, 2008). Cet ouvrage dénombre dix risques catastrophiques au sens d’un bouleversement radical qui menacerait l’humanité (anthropiques ou non) 1 . Parmi les risques anthropiques recensés, Eliezer S. Yudkowsky (1979-), chercheur au Machine Intelligence Research Institute à Berkeley (MIRI), développe le chapitre sur l’IA (Yudkowsky, 2008).

Nick Boström et Eliezer Yudkowsky sont transhumanistes, un courant de pensée qui conçoit l’humain, l’humanité comme imparfaits et prône une prise en main de leur évolution par la technologie. En 1998, Nick Boström a fondé avec David Pearce la World Transhumanist Association (WTA) et l’Institute for Ethics & Emerging Technologies (IEET) avec James Hughes.

Plusieurs objectifs irriguent le transhumanisme, dont le devenir postbiologique (posthumain), la superintelligence et l’amortalité (une immortalité relative). Parmi les NBIC, deux technologies ont leur faveur. La première, la nanotechnologie (une construction à partir du bas à l’échelle du nanomètre soit un milliardième de mètre) est en devenir, et la seconde, l’intelligence artificielle générale (IAG) reste un fantasme. Nick Boström et Eliezer Yudkowsky pensent que l’IA favorisera la nanotechnologie, elle-même porteuse d’inquiétude (Drexler, 1986). Eric Drexler, transhumaniste et membre du FHI, a créé en 1986, le Foresight Institute afin de prévenir les risques technologiques et favoriser un usage bénéfique de la nanotechnologie. Qu’est-ce-que la (super) intelligence artificielle ? Quelles sont les corrélations entre le transhumanisme et cette inquiétude montante vis-à-vis de l’IA, ou plus exactement la superintelligence ? Comment et quand pourrait-elle émerger ? Comment s‟articule le complexe dit de Frankenstein et l’éthique des machines ?

pour lire la suite, télécharger le PDF


Sommaire :

Introduction
La (super) intelligence artificielle
Le complexe dit de Frankenstein et l’éthique des machines
Épilogue
Références bibliographiques