Les fondements, avantages et la possible menace existentielle de l’IA

Au cours des derniers siècles, la condition humaine a été profondément modifiée par les révolutions agricole et industrielle. Avec la création et le développement continu de l’intelligence artificielle, nous sommes en plein essor d’une révolution de l’intelligence qui pourrait s’avérer bien plus transformatrice que les deux précédentes. Comment en sommes-nous arrivés là, et quels étaient les fondements intellectuels nécessaires à la création de l’intelligence artificielle ? Quels avantages pouvons-nous tirer de l’alignement des systèmes d’intelligence artificielle, et quels sont les risques et les pièges potentiels ? À plus long terme, les systèmes d’IA superintelligents présenteront-ils un risque existentiel pour l’humanité ? Steven Pinker, auteur à succès et professeur de psychologie à Harvard, et Stuart Russell, professeur d’informatique à l’Université de Berkeley, répondent à ces questions.

Steven Pinker and Stuart Russell on the Foundations, Benefits, and Possible Existential Threat of AI by Future of Life Institute

Vèmes Rencontres Maçonniques Lafayette – L’essence de L’humain

Vèmes Rencontres Maçonniques Lafayette du jeudi 23 mai 2019 au Grand Orient de France – Communiqué de Presse

Essentialisme ? Existentialisme ou divers constructivismes ?

Alors que la question de « l’essence de l’humain » semblait être classée une fois pour toutes par divers courants de pensée issus des univers scientifiques et philosophiques, « le reste », vu comme littéralement « inexistant » était dédaigneusement laissé au domaine religieux et aux spéculations métaphysiques.

Or voici que, contre toute attente, les récents développements de la biologie, comme de « l’intelligence artificielle » conduisent les hommes à remettre encore une fois sur le métier de l’analyse la représentation qu’ils se font d’eux-mêmes.

Les capacités de raisonnement, le rire, l’émotion, l’humour, l’empathie, sont-ils encore « le propre de l’homme » ? A l’heure des robots émotifs, tous ces « traits » que l’on a cru longtemps exclusifs à l’espèce humaine sont-ils encore distinctifs ? Aristote a longtemps défini l’homme comme « un animal doué de raison ». Descartes a placé son existence dans sa faculté de penser. Pensée ou conscience ? La redécouverte de l’inconscient a conduit, au siècle dernier, à postuler un homme structural, inconsciemment assujetti, au-delà de son illusion de conscience et de liberté, au système dont il est partie prenante. Que ce système soit familial, éducationnel, linguistique, social.

Ces frontières semblent aujourd’hui remises profondément en cause par une conception naturaliste de l’homme. La vision darwiniste des espèces est vécue par la plupart comme une forme d’évidence scientifique qu’on ne songe plus à contester. On assiste dès lors à la prise de conscience collective d’une forme d’abus de propriété exercé par l’homme sur la nature entière, accompagné de la montée d’un animalisme moral. Ces éléments combinés avec les avancées de la biologie rendent poreuse la frontière homme-animal. L’homme est présenté comme « un animal comme les autres ». Et, sur le plan moral, c’est de façon subliminale l’animal, qui devient « un homme comme les autres », méritant respect et droit absolu de préservation.

L’avènement de cet « homme biologique », qui est aussi dans ce sens un « homme neuronal », se conjugue avec les rêves de « transhumanisme », dans lesquels le « support-silicium » est envisagé sur le même plan que le « support » vivant.

L’accélération technoscientifique, mais aussi le foisonnement intense des productions culturelles, viennent contribuer à brouiller les cartes davantage encore. Les francs-maçons ne pouvaient y rester insensibles.

En regard des schémas de représentation ambiants, la Franc-Maçonnerie propose le modèle d’un « homme essentiellement humain », en perpétuel devenir, sur le mode initiatique. La cinquième Rencontre Lafayette entre la Grande Loge Nationale Française et le Grand Orient de France permettra à deux conférenciers issus de leurs rangs, Norbert HILLAIRE et Jacques DESOR d’apporter leur contribution aux nouvelles réflexions développées sur l’essence de l’homme. Deux grands témoins de la société civile viendront leur donner la réplique : Guy VALLANCIEN et Laurence DEVILLERS apporteront leurs réactions éclairées, l’un chirurgien, l’autre chercheuse en intelligence artificielle.

Vèmes Rencontres Maçonniques Lafayette – L’essence de L’humain

« iBorderCtrl» ou la sécurité totale

On a l’habitude de parler de la Chine comme le champion des caméras à reconnaissance faciale. La Commission Européenne a mis au point depuis 2016 une technologie dîte de « contrôle intelligent » qui va être testée pendant neuf mois jusqu’à août 2019 sur trois frontières de l’Union Européenne (Grèce, Hongrie, Lettonie) sur la base du volontariat. Elle est financée par le programme européen de recherche et d’innovation Horizon 2020 à hauteur de 4,5 Millions d’euros. Aucune loi nationale ou européenne n’autorisant à l’heure actuelle un tel dispositif, les volontaires à cet essai doivent signer un consentement éclairé. Le projet, « conscient des dimensions éthiques et légales » travaille en « étroite proximité avec un conseiller en éthique »1.

Comme l’explique aussi le site de la Commission Européenne, la procédure se fait en deux étapes. Le voyageur – dûment informé de ses droits et découragé d’entreprendre des activités illégales – remplira d’abord un formulaire en ligne et téléchargera ses documents officiels (passeport, visa, preuves de fonds) avant de répondre devant une webcam à des questions personnalisées. Ses réponses seront analysées par un système « détecteur de mensonges » qui vérifiera si elles sont en adéquation avec les expressions du visage à l’aide de 38 micromouvements indétectables par un être humain. A partir de ces résultats, le voyageur sera dirigé soit vers une file à « bas risque », soit vers une file à « haut risque »2.

Ses opposants lui reprochent son taux d’erreur (le système ne détecterait que 76% des menteurs) ainsi que le risque de répandre des technologies de reconnaissance faciale à caractère racial3. Ces arguments supposent-ils qu’un détecteur de mensonges 100 % fiable et garanti non raciste serait légitime ? Ces objections seraient d’ailleurs en voie de résolution, puisque le système prétend devoir être encore amélioré afin d’atteindre une meilleure fiabilité, et qu’il n’est pas supposé être destiné à la prise de décision mais seulement à être un « indicateur de risque ».

Le risque de quoi ? Lisons plutôt les justifications du projet sur son propre site. Il s’agit, nous dit-on, de simplifier et accélérer les processus de contrôle aux frontières, de diminuer les coûts, d’améliorer la sécurité en combinant différentes technologies, de diminuer l’immigration illégale et les activité criminelles. En effet, explique le site sans la moindre fausse pudeur, « la croissance continue des flux combinée avec la menace croissante d’immigration illégale exercent aujourd’hui une pression considérable aux postes de frontière. Les passages de frontière ralentis entravent la satisfaction des voyageurs, les affaires et le commerce4

Le site précise qu’il s’agit d’un système interdisciplinaire unifié convergeant vers un système global [overall system] comprenant :

1) un détecteur de mensonge automatique ;
2) un module biométrique lisant les empreintes de doigts et de veines ;
3) un outil de reconnaissance faciale ;
4) un outil de vérification des documents officiels ;
5) un outil de détection des humains dissimulés ;
6) un outil d’évaluation du risque aidant à la la décision du garde-frontière ;
7) un outil intégré d’analyse du contrôle des frontières chargé d’analyser l’ensemble des données collectées et d’évaluer l’ensemble du système.

On appréciera l’équivoque de la fin : « En tant que projet de recherche iBorderCtrl vise à élaborer de nouvelles technologies et déterminer si elles ont la capacité d’améliorer la qualité des contrôles de frontière aussi bien pour les voyageurs que pour les garde-frontières, mais ne vise pas à implémenter de nouvelles politiques5. » Cela veut-il dire que les lois qui n’existent pas encore pour encadrer ce système pourraient encore être refusées par les citoyens européens malgré ces investissements considérables ? Ou bien cela veut-il dire au contraire que, en vérité, la politique est déjà faîte, et qu’il ne restera qu’à lui donner un vernis démocratique assorti de grands principes éthiques, pour que ce système devienne légal ?

Qu’on ne croit pas que ce système de contrôle soit seulement réservé aux frontières. Il est destiné à se généraliser au gré des « villes intelligentes » pour assurer une sécurité sans faille. Les caméras intelligentes sont discutées et expérimentées avec les mêmes arguments6. L’ex-ministre de l’intérieur Gérard Collomb justifiait récemment de telles orientations : « L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre7. » Peut-être ces systèmes rassureront-ils tous ceux qui sont de plus en plus obnubilés par le terrorisme, l’immigration et la criminalité et qui sont même prêts à devenir des acteurs du systèmes de surveillance « intelligent ». « La “smart city” faisant appel à l’intelligence citoyenne, adaptative et ubiquitaire, nous avons tout intérêt à nous inspirer des modes de gouvernance “bottom-up”, où l’information remonte directement du terrain, pour que la “safe city” s’inscrive enfin dans une logique de ville intelligente8. » Car les criminels deviendront évidemment toujours plus inventifs pour déjouer les pièges de la prédiction algorithmique : alors, pourquoi pas, il sera de nécessité publique d’implanter des puces à tout le monde pour assurer notre sécurité – toujours avec notre consentement éclairé.

Notes :

2 Un système intelligent de détection de mensonges resserrera les frontières de l’UE. Smart lie-detection system to tighten EU’s busy borders

3 Harold Grand, « Pourrez-vous passer les contrôles aux frontières ? C’est une intelligence artificielle qui décide », Le Figaro, 07/11/2018, en ligne

4 Le projet iBorderCtrl : « Continuous traffic growth, combined with the increased threat of illegal immigration, is putting nowadays border agencies under considerable pressure. Slow border crossings impact traveller satisfaction, business and trade. »

5 Cadre technique iBorderCtrl : « iBorderCtrl as a research project aims at elaborating new technologies and whether they have the capabilities to enhance the quality of border checks for both travellers and border guards, not at implementing new policies

6 Rapport d’information n° 788 (2015-2016) de MM. François Bonhomme et Jean-Yves Leconte, fait au nom de la commission des lois, déposé le 13 juillet 2016, en ligne

7 Flore Thomasset, « Le ministère fait le bilan d’un an de maintien de l’ordre », La croix, 08/06/2018 en ligne.

8 Flavien Bazenet, Gabriel Périès, « Des citoyens et des caméras “inelligentes” bientôt au service de la sécurité urbaine », La Tribune, 05/12/2017, en ligne.

Intelligence artificielle : entre mythe et réalité

Les machines risquent-elles de devenir plus intelligentes que les hommes ?

Non, répond Jean-Gabriel Ganascia : il s’agit là d’un mythe inspiré par la science-fiction. Il rappelle les grandes étapes de ce domaine de recherche, les prouesses techniques actuelles et les questions éthiques qui requièrent des réponses de plus en plus urgentes.

L’intelligence artificielle est une discipline scientifique qui a vu officiellement le jour en 1956, au Dartmouth College, à Hanovre, aux États-Unis, lors d’une école d’été organisée par quatre chercheurs américains : John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon. Depuis, le terme « intelligence artificielle », qui à l’origine avait sans doute été inventé pour frapper les esprits, a fait fortune, puisqu’il est devenu très populaire au point qu’aujourd’hui plus personne ne l’ignore, que cette composante de l’informatique a pris de plus en plus d’ampleur au fil du temps et que les technologies qui en sont issues ont grandement contribué à changer le monde pendant les soixante dernières années.

Cependant, le succès du terme « intelligence artificielle » repose parfois sur un malentendu lorsqu’il désigne une entité artificielle douée d’intelligence et qui, de ce fait, rivaliserait avec les êtres humains.

Cette idée, qui renvoie à des mythes et des légendes anciennes, comme celle du Golem, a récemment été réactivée par des personnalités du monde contemporain comme le physicien britannique Stephen Hawking (1942-2018), l’entrepreneur américain Elon Musk, le futuriste américain Ray Kurzweil ou encore par les tenants de ce que l’on appelle aujourd’hui l’« IA forte » ou l’« IA générale ». Nous ne ferons toutefois pas plus état, ici, de cette acception seconde, car elle atteste uniquement d’un imaginaire foisonnant, inspiré plus par la science-fiction que par une réalité scientifique tangible confirmée par des expérimentations et des observations empiriques.

Intelligence Artificielle Générale : Les gouvernements doivent investir

Pour John McCarthy et Marvin Minsky, comme pour les autres promoteurs de l’école d’été du Dartmouth College, l’intelligence artificielle visait initialement à la simulation, par des machines, de chacune des différentes facultés de l’intelligence, qu’il s’agisse de l’intelligence humaine, animale, végétale, sociale ou phylogénétique.

Plus précisément, cette discipline scientifique reposait sur la conjecture selon laquelle toutes les fonctions cognitives, en particulier l’apprentissage, le raisonnement, le calcul, la perception, la mémorisation, voire même la découverte scientifique ou la créativité artistique, peuvent être décrites, avec une précision telle qu’il serait possible de programmer un ordinateur pour les reproduire. Depuis plus de soixante ans que l’intelligence artificielle existe, rien n’a permis ni de démentir, ni de démontrer irréfutablement cette conjecture qui demeure à la fois ouverte et féconde.

Une histoire en dents de scie

Au cours de sa courte existence, l’intelligence artificielle a connu de nombreuses évolutions. On peut les résumer en six étapes.

Le temps des prophètes

Tout d’abord, dans l’euphorie des origines et des premiers succès, les chercheurs s’étaient laissé aller à des déclarations un peu inconsidérées qu’on leur a beaucoup reprochées par la suite.

C’est ainsi qu’en 1958, l’Américain Herbert Simon, qui deviendrait par la suite prix Nobel d’économie, avait déclaré que d’ici à dix ans les machines seraient championnes du monde aux échecs, si elles n’étaient pas exclues des compétitions internationales.

Les années sombres

Au milieu des années 1960, les progrès tardaient à se faire sentir. Un enfant de dix ans avait battu un ordinateur au jeu d’échecs en 1965 ; un rapport commandé par le Sénat américain faisait état, en 1966, des limitations intrinsèques de la traduction automatique. L’IA eut alors mauvaise presse pendant une dizaine d’années.

L’IA sémantique

Les travaux ne s’interrompirent pas pour autant, mais on axa les recherches dans de nouvelles directions. On s’intéressa à la psychologie de la mémoire, aux mécanismes de compréhension, que l’on chercha à simuler sur un ordinateur, et au rôle de la connaissance dans le raisonnement. C’est ce qui donna naissance aux techniques de représentation sémantique des connaissances, qui se développèrent considérablement dans le milieu des années 1970, et conduisit aussi à développer des systèmes dits experts, parce qu’ils recouraient au savoir d’hommes de métiers pour reproduire leurs raisonnements. Ces derniers suscitèrent d’énormes espoirs au début des années 1980 avec de multiples applications, par exemple pour le diagnostic médical.

Science des données, Machine Learning et Deep Learning

Néo-Connexionnisme et apprentissage machine

Le perfectionnement des techniques conduisit à l’élaboration d’algorithmes d’apprentissage machine (machine learning), qui permirent aux ordinateurs d’accumuler des connaissances et de se reprogrammer automatiquement à partir de leurs propres expériences.

Cela donna naissance à des applications industrielles (identification d’empreintes digitales, reconnaissance de la parole, etc.), où des techniques issues de l’intelligence artificielle, de l’informatique, de la vie artificielle et d’autres disciplines se côtoyaient pour donner des systèmes hybrides.

De l’intelligence artificielle aux interfaces homme-machine

À partir de la fin des années 1990, on coupla l’intelligence artificielle à la robotique et aux interfaces homme-machine, de façon à produire des agents intelligents qui suggèrent la présence d’affects et d’émotions. Cela donna naissance, entre autres, au calcul des émotions (affective computing), qui évalue les réactions d’un sujet ressentant des émotions et les reproduit sur une machine, et surtout au perfectionnement des agents conversationnels (chatbots).

Renaissance de l’intelligence artificielle

Depuis 2010, la puissance des machines permet d’exploiter des données de masse (big data) avec des techniques d’apprentissage profond (deep learning), qui se fondent sur le recours à des réseaux de neurones formels. Des applications très fructueuses dans de nombreux domaines (reconnaissance de la parole, des images, compréhension du langage naturel, voiture autonome, etc.) conduisent à parler d’une renaissance de l’intelligence artificielle.

https://iatranshumanisme.com/transhumanisme/intelligence-artificielle-dimensions-socio-economiques-politiques-et-ethiques/

Applications

Beaucoup de réalisations mettant à profit des techniques d’IA dépassent les facultés humaines : une machine a vaincu, au jeu d’échecs, le champion du monde en titre en 1997 et, plus récemment, en 2016, d’autres l’ont emporté sur l’un des meilleurs joueurs au monde au jeu de go et sur d’excellents joueurs de poker ; des ordinateurs démontrent ou aident à démontrer des théorèmes mathématiques ; on construit automatiquement des connaissances à partir de masses immenses de données dont le volume se compte en téraoctets (10 12 octets), voire en pétaoctets (10 15 octets), avec les techniques d’apprentissage machine.

Grâce à ces dernières, des automates reconnaissent la parole articulée et la transcrivent, comme les secrétaires dactylographes d’antan, et d’autres identifient avec précision des visages ou des empreintes digitales parmi des dizaines de millions et comprennent des textes écrits en langage naturel. Toujours grâce à ces techniques d’apprentissage machine, des voitures se conduisent seules ; des machines diagnostiquent mieux que des médecins dermatologues des mélanomes à partir de photographies de grains de beauté prises sur la peau avec des téléphones portables ; des robots font la guerre à la place des hommes  ; et des chaînes de fabrication dans les usines s’automatisent toujours plus.

Par ailleurs, les scientifiques utilisent ces techniques pour déterminer la fonction de certaines macromolécules biologiques, en particulier de protéines et de génomes, à partir de la séquence de leurs constituants – acides aminées pour les protéines, bases pour les génomes. Plus généralement, toutes les sciences subissent une rupture épistémologique majeure avec les expérimentations dites in silico, parce qu’elles s’effectuent à partir de données massives, grâce à des processeurs puissants dont le cœur est fait de silicium, et qu’elles s’opposent en cela aux expérimentations in vivo, sur le vivant, et, surtout, in vitro, c’est-à-dire dans des éprouvettes de verre.

Ces applications de l’intelligence artificielle affectent presque tous les domaines d’activités, en particulier dans les secteurs de l’industrie, de la banque, des assurances, de la santé, de la défense : en effet, de nombreuses tâches routinières sont désormais susceptibles d’être automatisées, ce qui transforme bien des métiers et éventuellement en supprime certains.

L’initiative mondiale de l’IEEE pour les considérations éthiques en Intelligence Artificielle et des Systèmes Autonomes

Quels risques éthiques ?

Avec l’intelligence artificielle, non seulement, la plupart des dimensions de l’intelligence – sauf peut-être l’humour – font l’objet d’analyses et de reconstructions rationnelles avec des ordinateurs, mais de plus les machines outrepassent nos facultés cognitives dans la plupart des domaines, ce qui fait craindre à certains des risques éthiques. Ces risques sont de trois ordres : la raréfaction du travail, qui serait exécuté par des machines à la place des hommes ; les conséquences pour l’autonomie de l’individu, en particulier pour sa liberté et sa sécurité ; le dépassement de l’humanité qui disparaîtrait au profit de machines plus « intelligentes ».

Or, un examen de détail montre que le travail ne disparaît pas, bien au contraire, mais qu’il se transforme et fait appel à de nouvelles compétences. De même, l’autonomie de l’individu et sa liberté ne sont pas inéluctablement remises en cause par le développement de l’intelligence artificielle, à condition toutefois de demeurer vigilants face aux intrusions de la technologie dans la vie privée.

Enfin, contrairement à ce que certains prétendent, les machines ne constituent aucunement un risque existentiel pour l’humanité, car leur autonomie n’est que d’ordre technique, en cela qu’elle ne correspond qu’à des chaînes de causalités matérielles qui vont de la prise d’information à la décision ; en revanche, les machines n’ont pas d’autonomie morale, car, même s’il arrive qu’elles nous déroutent et nous fourvoient dans le temps de l’action, elles n’ont pas de volonté propre et restent asservies aux objectifs que nous leur avons fixés.

Professeur d’informatique à Sorbonne Université, Jean-Gabriel Ganascia (France) est également chercheur au LIP6, EurAI fellow, membre de l’Institut Universitaire de France et président du comité d’éthique du CNRS. Ses activités de recherche portent actuellement sur l’apprentissage machine, la fusion symbolique de données, l’éthique computationnelle, l’éthique des ordinateurs et les humanités numériques.

Le Courrier de l’UNESCO • juillet-septembre 2018

Un réseau de neurones connecté à un cerveau humain

À l’avenir, certains chercheurs espèrent que les personnes qui perdent l’utilisation de leurs membres pourront contrôler des prothèses robotiques à l’aide d’interfaces cerveau-ordinateur.

Le problème est que les signaux cérébraux sont difficiles à décoder, ce qui signifie que les interfaces cerveau-ordinateur existantes qui contrôlent les membres robotiques sont souvent lentes ou maladroites. Mais cela pourrait changer.

Une équipe de médecins et de neuroscientifiques a publié un article dans la revue Nature Medicine sur une interface cerveau-ordinateur utilisant un réseau de neurones pour décoder les signaux cérébraux en mouvements précis à l’aide d’un bras robotique réaliste et contrôlé par l’esprit.

Interfaces cerveau-ordinateur : des fonds militaires pour contrôler les sentiments

Décodeur de cerveau

Les chercheurs ont pris les données d’un homme tétraplégique âgé de 27 ans à qui on avait implanté un réseau de microélectrodes dans son cerveau et ils les ont introduites dans une série de réseaux de neurones, qui sont des systèmes d’intelligence artificielle calqués sur les circuits de notre cerveau et qui excellent pour trouver des modèles dans de grands ensembles d’informations.

Après près de deux ans et demi d’entraînement, les réseaux de neurones ont permis d’identifier les signaux cérébraux liés à des commandes musculaires spécifiques et de savoir comment les transmettre au membre robotique.

Non seulement le réseau neuronal a-t-il permis au patient de déplacer le bras robotique avec une meilleure précision et moins de retard que les systèmes existants, mais il a même été meilleur lorsque les chercheurs l’ont laissé s’entraîner lui-même. En d’autres termes, le réseau neuronal a pu apprendre par lui-même quels signaux du cerveau correspondaient aux mouvements des bras de manière plus efficace sans aucune indication des chercheurs.

Grâce au réseau neuronal, le volontaire participant à l’expérience a pu saisir et manipuler trois petits objets avec la main robotique – une capacité facile à prendre pour acquise mais qui échappe souvent à ceux qui dépendent de prothèses pour naviguer dans la vie quotidienne.

MedicalXpress

L’intelligence artificielle pourrait détourner les interfaces cerveau-machine

Intelligence Artificielle Mimétique – I.AM par Grégory Aimar

Le transhumanisme : une nouvelle religion ?

Année 2025. Damian Goodwill est un homme partagé. Partagé entre ses sentiments et sa raison, entre ses rêves et ses peurs, entre son passé et son avenir.

Le transhumanisme lui offre l’espoir de trouver la paix intérieure : mémoire illimitée, intelligence augmentée, prothèses synthétiques, mondes virtuels… Grâce à la puce implantée dans son cerveau, et à sa connexion permanente avec MAÏA, l’intelligence artificielle centrale, Damian découvre un univers à la puissance vertigineuse. Malgré les réticences de ses amis et de sa compagne, rien ne semble pouvoir empêcher Damian de prêter allégeance à cette nouvelle religion… Sa ferveur et sa loyauté en font même le porte-parole du mouvement post-humaniste.

Mais alors que Damian croit avoir trouvé en Nephila, la fascinante muse du parti, les réponses à toutes ses errances existentielles, des questions le hantent : comment transférer la conscience humaine dans une machine ? Peut-on réellement vaincre la mort ? Surtout : où est la place de l’âme dans cette nouvelle humanité ?

Un roman d’anticipation sur les conséquences du transhumanisme sur nos vies et la société.

I.AM extrait à télécharger

Après un essai philosophique et deux recueils de nouvelles, Grégory Aimar nous livre ici son premier roman sur un thème qui lui tient particulièrement à cœur : le transhumanisme. Ce roman est une réflexion sur l’âme, sur ce qui définit un être humain et sur le lien qui unit son esprit et son corps. La question que pose le transhumanisme, cette idéologie prétendant offrir l’éternité aux êtres humains grâce à la technologie, est proprement existentielle : quelle éternité ? Celle de notre corps ? De notre personnalité ? De notre âme ? (…) Riche d’un parcours professionnel très éclectique, l’auteur exploite ici ses connaissances dans de nombreux domaines comme les médias, la communication, l’économie, la technologie ou encore la psychologie, tout en jouant à faire des prédictions sur l’avenir de l’humanité.