Archives par mot-clé : voiture autonome

Tendances technologiques pour les PME françaises en 2020-2021

Les entreprises acquièrent et investissent de plus en plus dans les nouvelles technologies. Ces changements de comportement et de pratiques pour les PME, notamment au niveau des investissements et de la diversification des budgets, sont dus à l’évolution constante des nouvelles technologies dans le monde du travail.

En décembre 2019, Gartner a mené l’enquête auprès de 248 personnes travaillant dans des PME en France. L’objectif de l’étude est de proposer une vue d’ensemble des intentions d’investissement et les prédictions d’impact des nouvelles technologies sur les entreprises d’ici 2021.

L’étude indique les technologies les plus utilisées actuellement, celles qui ont un potentiel de croissance significatif et celles pour lesquelles les PME prévoient un budget.

Actuellement, les technologies les plus utilisées en France sont les logiciels de sécurité des données et de l’information (68%). En effet, les cyberattaques, fuites et vols de données de ces dernières années, poussent les entreprises à investir dans la sécurité des données. Les logiciels de finance et de comptabilité arrivent en seconde position. Ces technologies sont les premiers outils comme ayant un impact sur les PME aujourd’hui.

Les technologies ayant le plus fort potentiel de croissance d’ici 2021 sont : la réalité virtuelle et augmentée, les chatbots, l’intelligence artificielle et le machine learning. Les chatbots de plus en plus précis grâce au machine learning et l’Internet des objets font partie des technologies qui auront un impact sur les entreprises d’ici 2021.

Mais étrangement, les prévisions d’investissement en France d’ici 2021 ne concernent pas dans l’immédiat les technologies ayant le plus d’impact. En effet, se sont les logiciels RH qui arrivent en tête avec 32 % des répondants pour un budget moyen de 22 700 $. En ce qui concerne la sécurité des données, elle n’est citée que par 29 % des répondants. Il n’y a que 16 % des entreprises interrogées qui ont prévu un budget moyen de 51 900 $ pour l’intelligence artificielle et le machine learning et 51 900 $ pour les véhicules autonomes.

Les principales motivations d’investissement dans les nouvelles technologies pour les PME interrogées, viennent surtout des requêtes de clients (63 %) puis de l’amélioration de la productivité (58 %). Et ce, malgré certains obstacles, plus ou moins tangibles comme le financement de l’investissement en question cité par 45 % des entreprises interrogées. Mais également les compétences internes à adapter et les changements dans les pratiques de l’entreprise.

Les PME doivent miser sur l’innovation et le développement de nouvelles technologies pour conserver leur avantage concurrentiel, et l’adoption de nouvelles solutions est essentielle à leur l’essor.

L’étude a été menée par l’analyste Caroline Rousseau de chez Capterra, une entreprise Gartner.

Pourquoi la révolution de la voiture électrique pourrait prendre beaucoup plus de temps que prévu ?

Une nouvelle analyse du MIT contredit fortement la conclusion selon laquelle les véhicules électriques pourraient être aussi bon marché que leurs rivaux à essence au cours des cinq prochaines années.

Les véhicules électriques ne seront jamais aussi bon marché que leurs concurrents à essence, dans la mesure où ils utilisent des batteries lithium-ion.

Pourquoi ? Le problème est que la baisse constante du coût de ces batteries est susceptible de ralentir dans les prochaines années à mesure qu’elles approchent des limites fixées par le coût des matières premières, disent les chercheurs du MIT.

Ces résultats contredisent fortement ceux d’autres groupes de recherche, qui ont conclu que les véhicules électriques pourraient atteindre la parité de prix dans les cinq prochaines années.

Le transport est la plus grande source d’émissions de gaz à effet de serre aux États-Unis, et il n’y a aucun moyen d’atteindre les réductions nécessaires pour éviter des niveaux dangereux de réchauffement planétaire sans passer par des véhicules et des systèmes de transport en commun plus propres.

Malgré cela, un nombre croissant de constructeurs se tournent vers les véhicules électriques, proposant différents modèles à différents prix. Mais cette étude montre que nous avons besoin d’une révision parallèle des systèmes électriques utilisés pour les charger.

→ L’étude du MIT “Insights into Future Mobility” – Présentation générale (PDF)Étude complète (PDF)

MIT Technology Review

Volvo publiera des données financières des camions autonomes à partir de 2020

Volvo est en train de mettre en place un nouveau secteur d’activité pour le transport autonome et poursuit ses ambitions dans le domaine des véhicules sans conducteur.

Avec Volvo Autonomous Solutions, le géant suédois de l’automobile s’engage à sortir ses états financiers concernant spécifiquement les camions autonomes, un processus qui débutera le 1er janvier 2020. La société a suggéré que ce niveau de divulgation des profits et des pertes l’aidera à accélérer ses objectifs dans l’industrie florissante des véhicules sans conducteur en offrant une plus grande transparence aux actionnaires.

“Il est logique que nous passions à l’étape suivante en rassemblant notre expertise et nos ressources dans un nouveau secteur d’activité, avec la responsabilité des profits et des pertes, afin d’amener les solutions de transport autonomes à un niveau supérieur “, a déclaré Martin Lundstedt, président et CEO de Volvo.

Toutefois, cette nouvelle devrait être juxtaposée aux résultats financiers de Volvo pour le troisième trimestre, qui vient d’annoncer une baisse de 45% des commandes en glissement annuel par rapport à la même période l’an dernier. Il est clair que Volvo veut apaiser les actionnaires en démontrant qu’elle envisage – et se prépare – à une grande transition vers un avenir autonome. Volvo a déclaré qu’elle est actuellement en train de recruter un nouveau directeur pour diriger son unité Volvo Autonomous Solutions.

Automatisation dans l’industrie

Bien que Volvo ait pris des mesures dans le domaine des voitures autonomes, notamment en s’associant à Uber pour ses propres essais de véhicules sans conducteur, la plupart des efforts de Volvo ces derniers temps ont porté sur l’introduction sur le marché de camions autonomes. Il y a quelques mois, la société a annoncé un partenariat avec le géant du transporteur et de la logistique DFDS, qui prévoit d’utiliser le Volvo Trucks’ Vera pour transporter des marchandises entre une plate-forme logistique et un port en Suède.

L’année dernière, Volvo a annoncé que ses premiers camions commerciaux autonomes seraient utilisés dans le secteur minier pour transporter le calcaire des mines jusqu’à un port voisin. L’entreprise a également testé sa technologie pour aider les producteurs de canne à sucre du Brésil à améliorer leur rendement et à collecter les déchets en Suède. En juin dernier, Volvo s’est associé au géant des puces Nvidia pour collaborer sur des camions autonomes.

Un certain nombre d’entreprises travaillent sur des technologies de camionnage autonomes, notamment la société mère de Mercedes-Bens, Daimler, et de jeunes startups telles que la société suédoise Einride, qui a récemment fait une levée de fonds de 25 millions de dollars.

Les véhicules autonomes n’en sont encore qu’à leurs débuts, mais on a de plus en plus l’impression que la technologie gagnera en popularité à travers des cas d’utilisation de niche dans des industries spécifiques, en utilisant des “routes prédéfinies, en flux répétitifs” comme le déclare Volvo. C’est pourquoi Volvo s’est engagée à divulguer ses chiffres par l’intermédiaire de Volvo Autonomous Solutions, qui sera présentée dans le cadre de son activité Volvo Trucks.

“Nous avons constaté une augmentation significative des demandes de renseignements [au sujet du transport autonome] de la part des clients “, a déclaré Lundstedt. “Grâce à la vaste gamme d’offres du Groupe Volvo et à sa vaste expérience des différentes applications, nous avons une occasion unique d’offrir des solutions qui répondent à leurs besoins spécifiques.

Volvo Group, Reuters, Venturebeat

Donner à la police le contrôle de votre voiture autonome ?

Les constructeurs automobiles pourraient donner à la police le contrôle de votre voiture autonome

La police pourrait être en mesure de réorienter les voitures ou les forcer à s’arrêter.

Nous avons encore beaucoup de questions auxquelles nous devons répondre avant que les véhicules autonomes ne puissent se généraliser : Qui est responsable si un véhicule autonome a un accident ? Les gens devraient-ils avoir un permis pour monter dans une voiture autonome ? Comment un véhicule autonome doit-il choisir entre écraser un chien ou un chat ?

Mercredi, Bloomberg a publié un article axé sur une autre question : comment les véhicules autonomes devraient-ils interagir avec les forces de l’ordre? – et la solution pourrait impliquer de céder le contrôle de votre voiture aux flics.

Les conséquences d’une collision impliquant un Tesla modèle S et un camion de pompiers arrêtés à un feu rouge en Jordanie du Sud (Utah), le 11 mai 2018. Le Tesla s’est écrasé alors qu’il était en mode pilote automatique et a accéléré dans les secondes qui ont précédé son impact sur le camion de pompiers arrêté, selon un rapport de police obtenu par Associated Press.
Source : South Jordan Police Department via AP Photo

Pouvoir de la police

L’histoire de Bloomberg fait état de l’incident survenu en décembre 2018 dans lequel un conducteur en état d’ébriété s’est endormi au volant d’un Tesla avec pilote automatique engagé. Le véhicule a conduit la police à une poursuite de sept minutes le long d’une autoroute avant que les agents puissent forcer la Tesla à s’arrêter.

C’est le genre de problème que les constructeurs de véhicules autonomes et les forces de l’ordre veulent éviter, et cela pourrait signifier programmer des véhicules autonomes pour s’arrêter dès qu’ils détectent des feux clignotants de police derrière eux, un protocole déjà adopté par Waymo.

Bloomberg suggère même que les policiers contraints de sortir de leur véhicule pourraient être en mesure d’ordonner à d’autres véhicules autonomes de s’éloigner d’une zone “en quelques clics sur un appareil portatif”.

Un expert en robotique prédit que les enfants nés en 2017, ne conduiront jamais une voiture

Droits du conducteur

Laisser les forces de l’ordre contrôler une voiture appartenant vraisemblablement à un citoyen semble être un territoire juridique obscur.

Même si c’est légal, il serait facile de voir comment certaines personnes pourraient s’opposer à ce que la police puisse donner des instructions à leur voiture – surtout si la voiture est programmée pour suivre les instructions de la police plutôt que ceux du conducteur et que celui-ci ne fait rien d’illégal.

Certains critiques ont également noté que des pirates informatiques pourraient être en mesure d’exploiter toute capacité de la police à contrôler des véhicules autonomes.

Il est encore trop tôt pour dire si l’une ou l’autre des mesures proposées dans l’article de Bloomberg deviendra la norme pour naviguer dans les interactions entre les véhicules autonomes et les services de police. Mais étant donné que nous pourrions avoir des véhicules totalement autonomes dès l’année prochaine, nous n’avons pas de temps à perdre à trouver une réponse à cette question qui persiste.

Bloomberg, Reuters

Le plan de Trump pour l’intelligence artificielle

Trump lance American AI Initiative. Le président américain Donald Trump a signé un décret pour faire du développement de l’intelligence artificielle une priorité nationale. Pour de nombreux membres de son gouvernement, cette décision est attendue depuis longtemps, car les craintes grandissent quant à la possibilité que les États-Unis perdent leur leadership technologique sans un soutien gouvernemental concerté. En fait, les États-Unis ont déjà pris du retard par rapport aux stratégies nationales en matière d’intelligence artificielle d’autres pays tels que la Chine, le Canada et la France.

Dans ce contexte, l’initiative vise cinq objectifs principaux :

Réorienter les fonds. Le décret présidentiel demande aux agences de financement fédérales de hiérarchiser les investissements en intelligence artificielle.

Créer des ressources. Il vise à rendre les données fédérales, les modèles informatiques et les ressources informatiques disponibles aux chercheurs en intelligence artificielle.

Établir des normes. Il demande à l’Institut national des normes et de la technologie (National Institute of Standards and Technology, ou NIST) de créer des normes qui favorisent le développement de «systèmes d’intelligence artificielle fiables, robustes, efficaces, sécurisés, portables et interopérables».

Recycler les travailleurs. Il demande aux agences de donner la priorité à la préparation des travailleurs aux changements apportés par l’intelligence artificielle par le biais de l’apprentissage, des programmes d’acquisition de compétences et des bourses.

S’engager à l’international. Il appelle à une stratégie de collaboration internationale garantissant que l’intelligence artificielle soit développée d’une manière conforme aux “valeurs et intérêts” américains.

Bien que les objectifs soient ambitieux, les détails sont vagues et les experts ont des opinions mitigées quant à savoir si ce sera suffisant pour faire face à la concurrence internationale.

“L’initiative américaine en matière d’intelligence artificielle comprend tous les bons éléments; le test critique consistera à vérifier s’ils y donnent suite de manière dynamique”, déclare Jason Furman, professeur à Harvard, qui a aidé l’administration Obama à rédiger le rapport influent de 2016 sur l’intelligence artificielle. “Le plan est ambitieux sans plus de détails et n’est pas auto-exécutable.”

MIT Tech Review, Wired

Le développement des véhicules autonomes Ford va s’étendre à Washington

L’avenir des véhicules autonomes aux États-Unis dépend de la manière dont les législateurs de Washington D.C. choisissent de réglementer les véhicules. Mais jusqu’à présent, les tests des véhicules autonomes ont été effectués en grande partie loin de la capitale, principalement en Californie et en Arizona.

Ford est sur le point de changer cela. La société vient d’annoncer son intention d’être le premier constructeur à tester ses voitures autonomes dans le Distinct of Columbia – et l’avis des législateurs sur ces véhicules pourrait influer sur la législation future en matière de véhicules autonomes.

Sherif Marakby, PDG de Ford Autonomous Vehicles, a annoncé la décision de commencer les essais à D.C. via un blog. Selon Marakby, l’intérêt de Ford pour les politiciens sera de déterminer comment ses véhicules autonomes pourraient promouvoir la création d’emplois dans le district.

À cette fin, Ford envisage d’évaluer la manière dont les véhicules autonomes pourraient accroître la mobilité à Washington, aidant ainsi les résidents à accéder à des emplois qui seraient autrement hors de leur portée, et à former les résidents à de futurs postes de techniciens ou d’opérateurs de véhicules autonomes.

Marakby note que DC est un lieu particulièrement approprié pour ces tests car le district est généralement très animé. La population augmente considérablement pendant la journée alors que les navetteurs arrivent de la banlieue pour travailler, et que des millions de personnes affluent chaque année à Washington pour des conférences ou du tourisme.

Washington DC abrite également les personnes responsables de l’élaboration et de l’adoption de la législation sur les véhicules autonomes. «Il est important que les législateurs voient les véhicules autonomes de leurs propres yeux, alors que nous continuons à faire pression pour que des lois régissent leur utilisation sans danger dans tout le pays», a écrit Marakby.

L’objectif ultime de Ford est de lancer un service de véhicules autonomes commerciaux à Washington en 2021. Grâce à ces tests, la société a la possibilité d’influencer directement les personnes qui pourraient l’aider à atteindre cet objectif – ou à s’y opposer.

Ford Motor Company

La Chine, prochaine superpuissance de l’intelligence artificielle?

L’année dernière, le gouvernement chinois annonçait ses intentions de devenir le leader de l’intelligence artificielle d’ici 2030. Comme l’explique Eric Schmidt : « C’est assez simple. D’ici 2020, ils auront rattrapé leur retard. D’ici 2025, ils seront meilleurs que nous. D’ici 2030, ils domineront toutes les industries de l’intelligence artificielle. » Et les chiffres ne mentent pas. PricewaterhouseCoopers a récemment estimé que le déploiement de l’intelligence artificielle devrait apporter 15,7 billions de dollars supplémentaires au PIB mondial d’ici 2030, dont 7 billions à celui de la Chine, éclipsant les 3,7 billions de l’Amérique du Nord. En 2017, la Chine représentait 48 % du financement mondial destiné aux startups en intelligence artificielle, comparativement à 38 % pour les États-Unis. Les investissements chinois dans l’intelligence artificielle, les puces et les véhicules électriques auraient déjà atteint les 300 milliards de dollars.

Comme l’indique Kai-Fu Lee dans son livre intitulé AI Superpowers, quatre facteurs principaux contribueraient à faire pencher la balance en faveur de la Chine.

1. Des données abondantes

Le plus grand avantage de la Chine réside possiblement dans l’importante quantité de données dont elle dispose. La plateforme WeChat de Tencent compte à elle seule plus de 889 millions d’utilisateurs actifs par jour. C’est plus que l’ensemble de la population européenne. Les achats effectués en ligne sont près de deux fois plus importants en Chine qu’aux États-Unis. Mais l’avantage de la Chine en matière de données ne se limite pas à la quantité.

Alors que la Chine assiste à une explosion du nombre de startups O2O (online-to-offline), leurs données créent une nouvelle couche de renseignement sans équivalent en Occident. Alors que les données de paiement et de transport des utilisateurs américains sont fragmentées sur différentes plateformes, les géants chinois de l’intelligence artificielle comme Tencent créent des écosystèmes en ligne unifiés qui concentrent l’ensemble des données de chaque utilisateur en un seul endroit. Cela leur permet de générer des cartes complexes répertoriant des centaines de millions de comportements d’utilisateurs.

Avec la montée en puissance inégalée du vélo en libre-service comme l’Ofo et le Mobike en Chine, les entreprises chinoises peuvent désormais exploiter des cartes profondément texturées sur les déplacements de chacun, leur permettant d’en savoir long sur leurs habitudes d’allées et venues, tant pour le travail que pour le supermarché. Avec l’explosion des capacités de la reconnaissance faciale en Chine, ces cartes comportent de plus en plus de visages, même lorsque l’utilisateur n’est pas en ligne. En faisant correspondre le comportement des utilisateurs en ligne à leur monde physique, les entreprises chinoises de technologie bénéficient de données qui leur offrent un avantage considérable sur leurs homologues de la Silicon Valley.

La police chinoise ajoute des lunettes de reconnaissance faciale à leur arsenal de surveillance

2. Des entrepreneurs affamés

Andrew Ng, fondateur et ancien directeur de Google Brain, a noté l’engouement acharné des entrepreneurs chinois : « Le travail est effectué beaucoup plus rapidement en Chine que dans la majeure partie de la Silicon Valley. Quand vous repérez une opportunité d’affaires en Chine, le temps dont vous disposez pour la saisir est très court ».

Avec l’explosion de l’expertise chinoise en intelligence artificielle, ces entrepreneurs se débarrassent enfin de leur ancienne réputation d’« imitateurs », et créent des entreprises sans équivalent en Occident. La Chine, qui abrite aujourd’hui trois des sept géants de l’intelligence artificielle (Baidu, Alibaba et Tencent), est également le théâtre d’un écosystème florissant de startups en intelligence artificielle.

Pas plus tard que cette année, la société chinoise SenseTime, spécialisée en vision artificielle, est devenue la startup la plus lucrative au monde dans le domaine de l’intelligence artificielle. Ayant développé des technologies capables d’identifier votre visage, d’estimer votre âge et même de découvrir vos habitudes d’achat, SenseTime est maintenant un leader mondial dans les technologies de reconnaissance faciale. La société a levé 620 millions de dollars dans le cadre de sa ronde de financement Série C+ annoncée en mai dernier, pour une valeur de plus de 4,5 milliards de dollars. Et SenseTime n’est pas la seule de sa catégorie. En avril dernier, la Chine comptait 168 licornes, évaluées collectivement à plus de 628 milliards de dollars.

Un système intelligent de gestion du comportement en classe

3. Une grande expertise en intelligence artificielle

Il est important de noter que la Chine n’est qu’une nouvelle venue dans ce secteur. Quand l’apprentissage profond (deep learning) a connu sa grande percée en 2012, la Chine venait à peine de prendre part à la révolution de l’intelligence artificielle. Mais en quelques années à peine, la communauté chinoise de l’intelligence artificielle a rapidement rattrapé son retard. La majorité des chercheurs en intelligence artificielle les plus réputés au monde se trouvent toujours aux États-Unis (au profit d’entreprises comme Google), mais les géants chinois de la technologie sont rapidement en train de combler l’écart. Déjà dans le monde universitaire, les chercheurs chinois de l’intelligence artificielle sont côte à côte avec leurs contemporains américains. Au cours de la conférence 2017 de l’AAAI, un nombre égal d’articles acceptés provenaient de chercheurs américains et chinois.

Nous avons également constaté une collaboration accrue entre les plus grandes entreprises de technologie chinoises et les étudiants de talent émergents. Tencent, par exemple, parraine des bourses d’études pour des étudiants d’un laboratoire de l’Université des sciences et de la technologie de Hong Kong, leur donnant ainsi accès à une masse de données WeChat. De leurs côtés, Baidu, Didi et Tencent ont tous mis sur pied leurs propres laboratoires de recherche.

La société chinoise Face++ est désormais le leader mondial de l’intelligence artificielle en reconnaissance de visages et d’images, devançant les meilleures équipes de Google, Microsoft et Facebook lors du concours de reconnaissance d’images COCO 2017. La société de logiciels de reconnaissance vocale iFlyTek n’a pas seulement supplanté DeepMind d’Alphabet, Facebook et Watson d’IBM dans le traitement du langage naturel, elle l’a fait dans sa « langue seconde », l’anglais. Cette entreprise, la plus importante au monde dans le traitement du langage, a développé une technologie de pointe qui devrait un jour permettre la traduction instantanée de la parole dans n’importe quelle langue.

Une technologie pour lire les émotions des employés chinois

4. Les directives du gouvernement chinois

Le jour où AlphaGo de DeepMind a battu le chinois Ke Jie, alors champion du monde au jeu de Go, est entré dans l’histoire comme l’« événement Spoutnik » de la Chine. Dans les deux mois qui ont suivi cette victoire de l’intelligence artificielle, le gouvernement chinois a annoncé son plan visant à faire de la Chine le centre mondial de l’innovation en intelligence artificielle, avec l’objectif d’atteindre le billion de yuans (environ 150 milliards de dollars US) dans ce secteur d’ici 2030.

Au cours de la dernière décennie, les dépenses du gouvernement chinois en matière de recherche sur les STEM (Science, Technologie, Ingénierie et Mathématiques) ont augmenté de deux chiffres d’une année à l’autre. Les maires de tout le pays ont construit des incubateurs d’innovation, fournissant des fonds à capital-risque soutenus par le gouvernement, couvrant même le loyer et ouvrant des avenues pour les startups et les accélérateurs en intelligence artificielle. Pékin prévoit d’investir 2 milliards de dollars dans un parc de développement de l’intelligence artificielle, qui abriterait jusqu’à 400 entreprises et un laboratoire national d’intelligence artificielle, stimulant la recherche-développement, les brevets et l’innovation sociale. Des zones comme le nouveau district de Xiong’an s’affairent à la construction de villes entières d’intelligence artificielle pour les deux prochaines décennies, centrées autour de véhicules autonomes, de routes équipées de panneaux solaires et d’infrastructures équipées de systèmes de vision par ordinateur.

La Chine construit un parc industriel pour la recherche sur l’IA

Enfin, les administrations locales ont commencé à s’associer aux plus importantes sociétés chinoises de l’intelligence artificielle pour construire des complexes parti-entreprise. Agissant à titre d’« équipes nationales », des entreprises comme Baidu, Alibaba, Tencent et iFlyTek collaborent avec des organisations nationales comme le National Engineering Lab for Deep Learning Technologies de Chine pour faire avancer la recherche et stimuler l’innovation.

Mot de la fin

Autrefois négligé et perçu comme un marché d’imitateurs cherchant de l’inspiration et du savoir-faire du côté de la Silicon Valley, l’écosystème chinois de l’intelligence artificielle a largement dépassé ce stade. Propulsé par une abondance de fonds gouvernementaux, la refonte des infrastructures intelligentes, des recherches de pointe en intelligence artificielle et certains des entrepreneurs les plus dynamiques au monde, le train chinois de l’intelligence artificielle ne semble pas près de ralentir.

traduction Mathieu Lepage

Peter Diamandis blog

Human-made-decision versus machine-made-decision

Souvent, dans des situations complexes mettant en jeu des conflits de valeur, des conflits d’intérêts ou des incertitudes sur son véritable désir, on ressent une angoisse de ne pas savoir prendre « la meilleure décision » et on fait tout pour s’en remettre à l’avis d’un tiers. Parfois, on est tenté de consulter une série de personnes ou de pages web et de tirer de cette consultation une position qui refléterait soit l’opinion majoritaire, soit l’opinion moyenne, soit une opinion experte. Cette démarche peut égarer davantage, si la consultation amène de nouveaux paramètres qui s’ajoutent aux éléments déjà existants. Mais elle peut être un soulagement si l’on décide de s’en remettre à une autorité avisée, qu’elle soit représentée par une personne ou par la fiction d’une décision « bien pesée », laquelle peut être figurée par une liste comparée des arguments positifs et des arguments négatifs, avec, pourquoi pas, des coefficients d’importance. La décision finit donc par s’apparenter à un problème mathématique qu’il faut résoudre correctement. L’observation psychologique élémentaire montre pourtant que les sujets ne sont jamais satisfaits avec la perte d’une option. Le choix manifeste se présente comme un choix équivalent entre A et B, mais le choix fondamental inclut aussi la souffrance durable de « non-A » ou « non-B ». Il n’existe donc pas dans l’absolu « la meilleure décision » et l’éthique consiste à laisser cette question ouverte malgré le malaise apparemment insupportable qu’elle provoque.

Le fantôme de la perte hante les mortels que nous sommes. Le cas de conscience ou encore le dilemme cornélien suppose que toute décision entraînera une perte pour le sujet ou une entorse morale. Kant a d’avance évité tout dilemme de ce genre en disant que le devoir inconditionné de dire la vérité impliquait nécessairement de pouvoir le cas échéant dénoncer son ami, même s’il devait en résulter des conséquences fâcheuses1. C’est que Kant mettait le devoir de dire la vérité au rang de devoir suprême, au principe même de l’établissement d’un pouvoir politique. Ce devoir ne souffrait donc pas d’exception. L’architecture du système kantien en dépendait. On voit tout de suite ce qui pourrait s’ensuivre si on prenait Kant à la lettre au moyen d’une intelligence artificielle capable de détecter le mensonge, telle le système DARE2. Notre seule chance d’échapper à la potentialité terrifiante d’un pouvoir politique capable de détecter le mensonge dans toutes les situations cruciales est de retourner Kant contre Kant en lui opposant l’autonomie de la raison humaine, qui reste au principe de la philosophie kantienne.

Freud, lui, ramenait les rationalisations à un fond de « préférences pulsionnelles3 » issues de la vie sexuelle infantile refoulée, ce qui achève de jeter le trouble dans la discussion morale. Car que pouvons-nous dire d’une préférence inconsciente ? Et que pouvons-nous en faire ? Précisons au passage – afin de prévenir un cliché répandu – que Freud ne fait pas par là l’apologie de l’irrationnel, d’une part parce que la préférence inconsciente répond tout à fait à un type de rationalité, et d’autre part parce que la vie pulsionnelle ne dédouane pas la raison de s’exercer, fût-ce à titre secondaire. Le désir inconscient ne consiste pas en motifs psychologiques, mais en une autre rationalité, laquelle adresse au sujet un défi logique qui s’exprime dans toutes les productions de la pensée (même les mathématiques). Il y a quelque chose en nous qui nous envoie une question que nous prenons au sérieux lorsque nous exerçons notre faculté de raison pour tenter de résoudre les problèmes logiques qui se posent à nous du fait de notre vie pulsionnelle.

Le dilemme du tramway est l’une de ces célèbres apories remises au goût du jour par le problème de la programmation des voitures autonomes. L’auteure de l’article fondateur confronte le lecteur avec diverses situations de dilemme (et non pas une seule) qui déclinent différentes modalités de l’intention et de l’exposition aux effets collatéraux ou encore aux « doubles effets », à partir du dilemme de l’avortement au sein de l’Eglise catholique4. Philippa Foot discute des exemples casuistiques destinés à fournir un critère moral distinctif dans des situations vitales où une vie humaine doit être sacrifiée au bénéfice d’une ou plusieurs autres. La discussion est, on le sent, menacée de relativisme. L’auteure parvient seulement à la conclusion que le critère pertinent ne saurait être uniquement la taille du mal infligé pour un moindre mal (critère quantitatif), mais aussi la nature de l’action entreprise pour l’éviter. Par exemple, le cas du véhicule choisissant de tuer une personne plutôt que cinq n’est pas équivalent à la décision de livrer une personne à un preneur d’otage pour en délivrer cinq. Pour résumer son argumentation, l’article ne semble avoir aucun doute sur la nécessité de sauver le maximum de vies quand nous sommes confrontés à deux devoirs négatifs (soit tuer une personne, soit en tuer cinq) ; le doute moral porte en revanche sur l’action positive de sacrifier une vie pour en sauver une ou plusieurs autres à partir de la distinction opérée entre devoir négatif (ne pas infliger de tort) et devoir positif (apporter de l’aide). L’argumentation de l’auteure la conduit à justifier sans hésiter l’histoire des marins qui survivaient à la faim en consommant l’un d’entre eux. Disons-le, l’argumentation est quelque peu abstruse, tout comme celle d’autres articles qui ont suivi cette tradition5. L’embarras des auteurs est patent. Il semble qu’ils soient occupés à fonder à grand peine une morale déontologique à partir de prémisses conséquentialistes posées par le setting initial. Ce qui ne réussit pas complètement, parce que l’opération risque à tout moment de fournir des résultats contre-intuitifs. Le devoir brut de sauver cinq vies plutôt qu’une ne semble poser de problème à personne, tant que la question reste posée au niveau abstrait ; les scrupules s’élèvent quand on commence à envisager les différents déterminants impliqués dans une situation concrète, où il s’agit d’autre chose que de maximiser le sauvetage de viande humaine. Sinon, nous pourrions en effet attraper le premier passant en bonne santé pour fournir ses organes à plusieurs malades nécessitant une transplantation d’urgence, et argumenter du fait que nous avons de la sorte sauvé plusieurs vies au prix d’une seule : un moindre mal.

Ces discussions sont exacerbées par le développement des voitures autonomes au point que le Massachussetts Institute of Technologie a engagé une vaste consultation publique sur ce sujet à l’aide d’expériences mentales proposées sur un site dévolu à cette question. Moral Machine suggère de déterminer la morale des machines grâce à l’évaluation de la morale humaine à partir d’un constat tourné en fait accompli : « L’intelligence machinique soutient ou supplante entièrement toujours plus d’activités humaines complexes à un rythme croissant6. » Le fait que les machines soient intelligentes et prennent des décisions morales n’est pas soumis à la discussion : il s’agit de discuter sur quels principes moraux nous nous accorderons pour programmer ces machines. Et ceci, paraît-il, en puisant dans la morale ordinaire.

Avec la voiture autonome, il s’agit, dit-on, de doter la machine d’une capacité de décision morale qui ne sera pas une capacité aléatoire et faillible comme la moralité humaine. Ce sera la morale ordinaire, mais en mieux. Le public et le constructeur ne souffriront en effet aucun écart dès lors qu’aura été trouvé un consensus sur les principes qui gouvernent l’action de la machine. Personne ne voudrait, n’est-ce-pas, d’un véhicule « qui n’en fait qu’à sa tête ». Le machine learning est toutefois supposé doter la machine de facultés d’apprentissage qui pourraient conduire à ce que dans deux situations identiques, la machine agisse autrement la deuxième fois que la première, ayant appris de la première fois ou d’une autre source de données. Elle n’aura pas pour autant dérogé à l’axiome initial de son paramétrage. Alors que l’humain, lui, pourrait être les deux fois sous l’emprise de deux états différents, imprédictibles et sans corrélation l’un avec l’autre, c’est-à-dire faire valoir un axiome moral différent.

Les problèmes éthiques posés par le véhicule autonome, tout comme d’autres domaines de décisions algorithmiques, supposent implicitement : 1) que la « meilleure décision rationnelle » existe ; 2) qu’elle peut être connue ; 3) que si elle est connue, elle doit être garantie par le programme ; 4) qu’elle doit être implémentée à grande échelle, voire rendue obligatoire, puisqu’elle est la meilleure. Cette prémisse théologique (qui suppose l’existence d’un souverain bien) ressurgit donc au beau milieu de problèmes qui paraissaient de prime abord d’une grande platitude matérialiste : confort, sécurité, mobilité accrue, etc.

La comparaison avec les risques inhérents à toute technologie, dont certaines déjà anciennes (comme le train ou l’acenseur7) élude la généralisation d’un autre paradigme : le véhicule autonome érige la survie physique en valeur suprême. Tout ce qui optimise la quantité de corps survivants est bien, le contraire est mal. Mais on est aussi forcé par là de dire lesquels. Le rapport rendu en Allemagne par la Commission d’éthique sur la conduite automatisée exclut que les véhicules choisissent certaines victimes plutôt que d’autres selon des critères discriminatoires, mais il affirme que « la conduite automatisée et connectée est un impératif éthique si les systèmes causent moins d’accidents que les conducteurs humains. » Ce n’est rien d’autre que l’argument de Tesla. Cela pourrait justifier de les rendre un jour obligatoires. Le rapport affirme sans ambages : « Sur notre échelle de valeurs, la protection de la vie humaine est un summum bonum8.» Il s’agit d’un setting utilitariste fort : il faut maximiser le nombre de vies humaines sauvées, ce que font déjà les politiques de santé publique. Une assertion paradoxale dans un monde menacé de toutes part par des crises notoires, multiples et destructrices, précisément d’origines anthropiques…

Mettre l’accent sur le processus de décision (machinique ou humain) ferait presque oublier que c’est en général une situation soit monstrueuse soit improbable qui accule un sujet à une telle décision. La consultation publique du MIT repose sur des situations fictives. La quintessence de cette spéculation morale est atteinte par le roman le Choix de Sophie, ce qui en explique peut-être le succès. Mais dans les situations ordinaires, les sujets n’ont pas à effectuer des choix aussi radicaux et si, par accident, cette situation se présente, on pardonne n’importe quelle décision. Une situation assez folle peut justifier toutes les réponses inacceptables en temps normal. Il fallait toute la perversion du système nazi pour que des gens se retrouvent dans la situation d’avoir à choisir de sauver un parent plutôt qu’un autre. Lors d’une rafle où les détenteurs d’un coupon jaune (chefs de famille) et les détenteurs d’un coupon bleu (membres de leur famille) devaient se présenter en rang ordonné à la porte du ghetto de Vilnius9, des chefs de famille étaient placés devant des « alternatives atroces », dit le récit, où ils devaient choisir quels membres de leurs familles inscrire à leurs côtés, par exemple leur mère ou leur femme. L’un racontait : « Je l’avoue : j’aime plus ma mère que ma femme, mais ma femme est la mère de mes enfants et maman est vieille déjà, elle a vécu. » Un autre disait : « J’ai fait enregistrer ma mère comme étant ma femme et ma femme, je l’ai laissée dans un abri. L’homme n’a qu’une seule mère, mais il peut avoir une seconde femme. Si maman disparaît, je n’en aurai plus d’autre, mais si je deviens veuf, je pourrai me remarier. J’ai peut-être mal agi, mais j’ai fait selon mon cœur. J’aime plus ma mère que ma femme. » Un troisième enfin : « Avant de me séparer de ma mère, je suis allé vers elle et je lui ai dit : “Maman, je ne peux pas te prendre avec moi, il faut que je prenne ma femme”10. » Ce qui frappe à la lecture de ces témoignages est que d’une part, les gens acculés se montraient étonnamment capables de telles décisions, mais que, d’autre part, ils les prenaient parce qu’un système de terreur les y forçait. La décision prise ne les laisserait plus jamais en paix. La voiture autonome, elle, continuera à rouler tranquillement.

Du statut exceptionnel d’un tel choix dans la vie ordinaire, on passe à un paradigme de programmation, dans un contexte d’implémentation exponentielle de « l’intelligence machinique ». Or, qu’il soit déontologique ou conséquentialiste, un axiome qui prétend incarner un summum bonum à l’échelle universelle permise par les technologies de la communication contient en tant que tel un potentiel effroyable. L’erreur anthropomorphique (répandue) consiste à croire qu’une intelligence artificielle pourrait devenir hostile, c’est-à-dire animée de mauvais sentiments, alors qu’il s’agit, comme le dit Nick Bostrom, du problème des valeurs à implémenter. C’est l’un des problèmes les plus redoutables de l’intelligence artificielle. Une intelligence artificielle encodée selon une ou plusieurs valeurs ne prendra en effet que des décisions conséquentes.Où est le problème direz-vous ? Si l’interdit de l’inceste est aussi universel que l’a dit Lévi-Strauss, alors il n’y a aucun problème à en faire, par exemple, un principe universel éventuellement encodé dans une intelligence artificielle. Sauf que les êtres humains ont de tout temps continué d’avoir affaire à leurs ambivalences et leurs passions, ce qui a finalement créé une immense différenciation des cultures : tout sauf l’application mécanique d’une valeur cardinale. Nous lui devons l’histoire de la culture.

En vérité, cette discussion éthique nous amène aux confins de l’éthique, là où l’éthique est incompatible avec l’universalisation d’un seul axiome (n’en déplaise à une lecture étroite de Kant, qui confondrait universalisation et généralisation), et là où elle implique nécessairement des valeurs plurielles et un jugement singulier souffrant des exceptions. Ceci est radicalement incompatible avec le fait qu’une machine ait la moindre décision à prendre. Le principe cherchant à vendre la voiture autonome par l’argument du moindre risque d’accidents statistiques est un compromis passé avec la mort de l’éthique.

On a beaucoup glosé sur les cas où la voiture autonome devrait tuer une personne pour en épargner cinq, et discuté entre autres de savoir si la vie du passager avait la priorité sur la vie d’un passant. Que se passerait-il si d’aventure la voiture autonome devait froidement choisir entre ma mère et ma femme ou bien entre mon fils et ma fille, ou bien entre une personne jeune et une personne âgée, ou bien entre un homme et une femme, et ainsi de suite ? Le rapport de la Commission éthique allemand exclut formellement un tel choix. Mais les éthiciens en appellent pourtant à des machines « empathiques ». Le vieil adage « les femmes et les enfants d’abord ! » est-il obsolète dans une société égalitariste ou bien est-il exigible d’une machine dotée « d’empathie » ? Nous exigeons de la machine qu’elle soit d’une équité irréprochable mais aussi qu’elle soit en « empathie » avec les émotions humaines, un peu comme la quadrature du cercle… C’est bien sûr encore une fois oublier que la soi-disant empathie de la machine sera encodée, simple reflet anthropomorphique de nos propres contradictions.

En l’absence de réponse consensuelle à de telles questions, il ne faut pas exclure la possibilité qu’un programme soit doté d’une capacité de décision aléatoire dans les cas éthiquement indécidables (la voiture pourrait devoir tirer au sort entre ma mère et ma femme, ou entre un adulte et un enfant). Il est probable qu’en situation analogue un humain effectuerait un choix subjectif inhérent à la singularité de la situation, même s’il est vécu comme un choix tragique, comme dans les témoignages évoqués ci-dessus. Les sondages montrent par exemple que la majorité des gens privilégient la vie d’un enfant sur celle d’un adulte ou celle du conducteur sur celle du passant. Mais de ce que ce choix puisse être effectué dans des situations exceptionnelles ou spéculé en réponse à un sondage, s’ensuit-il qu’il doive devenir une norme ? Les constructeurs, quant à eux, craignent surtout qu’un véhicule autonome qui ne ferait aucune préférence entre le conducteur et les passants ne serait acheté par personne, or il y a une volonté économique et politique de généraliser ce système, sans interroger l’amoralisme intrinsèque qui consiste à remplacer la responsabilité humaine par un algorithme. Tout se passe comme si la décision de généraliser les voitures autonomes était déjà prise (même si cette décision revenait à vendre notre âme), et qu’il ne s’agissait désormais que de vendre le meilleur argument éthique au public un peu inquiet. On va donc vous expliquer pourquoi la machine est plus morale que vous-mêmes.

Mais si le véhicule autonome semble actualiser le dilemme du tramway, ce n’est qu’une apparence. Il ne s’agit plus de délibérer sur un improbable conflit subjectif (à savoir si vous préférez sauver votre mère ou votre femme, une personne ou cinq, un enfant ou un adulte, aussi sordide soit la question), mais d’octroyer au type d’axiome moral retenu une extension telle (due à son échelle d’application) qu’elle façonnera de manière rétroactive la normativité, elle-même enfermée dans une boucle d’auto-confirmation. L’apparition et la systématisation du véhicule autonome introduit la légitimation d’une hiérarchie du pire au nom de la survie. Ce qui n’est pas l’esprit de l’article de Philippa Foot, qui essayait, certes péniblement, d’y échapper. Là où l’humain fait par la force des événements un choix tragique, circonstancié et toujours unique, la machine fera un choix technique dont le caractère axiomatique aura été en fait déterminé par avance et appliqué aveuglément à l’ensemble des situations identiques. Ce nouveau paradigme sera littéralement lancé sur les routes. Même le machine learning n’apprend qu’à raffiner sa réponse au fil des nouvelles données, réponse qui peut nous surprendre ou nous échapper, mais qui reste subordonnée à l’axiome moral encodé au moment de la conception. (Il ne fait pas de doute que certains rêvent de créer la machine qui saura créer son propre code moral supérieur à celui de notre humaine condition : elle saurait récolter dans les big data toutes les figures de la morale, puis les hiérarchiser et les purifier de toute l’amoralité du monde, selon un critère lui-même soumis à l’arbitraire ultime des visions du monde qui finalement ne fait que repousser le problème ad infinitum. Mais nous n’en sommes pas là.)

C’est pourquoi la machine ne sera jamais éthique et parler de dilemme moral est en l’occurrence fallacieux. Il s’agit exclusivement d’un dilemme fictif qui se passe dans la tête des constructeurs et qui n’a aucun rapport à l’événement ultérieur. Contrairement aux situations décrites par Philippa Foot, le véhicule autonome n’a aucune intention ni consciente ni inconsciente, même pas celle de minimiser le nombre de morts. Il n’est pas sous l’emprise d’un dilemme et il n’est pas mis à l’épreuve. Même si son programme disposait d’un nombre colossal de paramètres contextuels qui lui donneraient l’avantage sur le manichéisme moyen d’un être humain, son action ne représente pas une décision, mais l’exécution d’un ensemble de règles prises en amont. Et même s’il agissait en sorte que l’humain ne soit pas capable de comprendre le résultat (comme c’est déjà le cas dans de nombreux processus algorithmiques, bien qu’on travaille à les rendre lisibles), cela ne serait pas dû à l’esprit subtil de la machine, mais à la complexité du calcul. Par contre, la machine transporte et répand un axiome moral. Faire passer l’action de la machine pour une décision éthique consécutive à un supposé dilemme est en soi un coup de force politique qui occulte la position normative à l’œuvre dans le paramétrage et l’élimination subséquente de toute éthique. C’est là un véritable clivage, qui est soutenu par la résolution du Parlement européen du 16 février 201711 lorsqu’il suggère à la Commission européenne de créer une nouvelle catégorie de personnalité juridique pour résoudre les problèmes de responsabilité ouverts par cette situation et d’autres analogues.

Quant au rapport de la Commission éthique allemand, il prend précisément argument du décalage entre l’intention et l’acte (la personne sacrifiée n’est pas connue au moment de la programmation, aucune personne identifiable n’est donc instrumentalisée) conjugué à une minimisation statistique des accidents de la route, pour le retourner en argument éthique : s’il est inacceptable, conformément à loi allemande, de sacrifier une personne pour le sauvetage d’une autre, en revanche « pour autant que la programmation initiale minimise le risque de tous de la même manière, elle était également dans l’intérêt de ceux qui ont été sacrifiés avant d’avoir été identifiés comme tels dans une situation spécifique12. » (Ce raisonnement est ici comparé au cas de la vaccination.) Le rapport est formel quant à l’immoralité de devoir mettre en jeu la vie d’une personne pour le sauvetage d’une autre, mais il se contorsionne autour de l’inachèvement d’un consensus quant à savoir si le véhicule pourrait être programmée à sacrifier une personne pour en sauver plusieurs.

Si l’une des critiques adressée à l’époque au dilemme du tramway est de n’être qu’une expérience de pensée, c’est bien parce qu’il n’a jamais été question d’en tirer une ligne de conduite ou un protocole d’action valable en tous les cas. En effet, un simple humain peut être éduqué, entraîné ou commandé à réagir ainsi ou ainsi, personne ne sait cependant comment il agira en situation, car personne ne sait quelle idée, quel réflexe, quel affect surgiront d’un contexte forcément unique. C’est en ceci qu’il est un sujet moral, même quand il agit de manière ignoble. La voiture autonome ne répond de rien, elle exécute ce que son programmeur aura codé par avance, une instance qui se donne à peu près les attributs du Dieu-des-accidents-de-voitures. Si le véhicule autonome se mettait à provoquer certains accidents, rares, qu’un humain n’aurait pas provoqué (tel l’accident provoqué par un véhicule Uber du 18 mars 2018 où les capteurs du véhicule, réglés d’une manière trop lâche, avaient été trompés par un « faux positif » et n’avaient pas su distinguer entre un être humain et une chose quelconque), faudrait-il continuer de faire valoir l’argument selon lequel le nombre d’accident total est inférieur à ceux provoqués par des humains ?

Le paradigme introduit par là est qu’il est possible de décider non par hasard, par réflexe, par passion ou par délibération ad hoc mais par principe que la survie d’une personne vaut mieux que la survie d’une autre, par exemple le conducteur plutôt que le passant, ou que la survie de cinq personnes valent mieux qu’une, là où des humains pourraient assurément privilégier la survie d’un roi, d’un prêtre ou même d’un animal sacré, aussi discutables que paraissent ces options morales. La pluralité des visions du monde – qui constitue le domaine propre de l’éthique – est rendue impossible. L’imprévisibilité qui met à l’épreuve la morale humaine également, de même que la réflexion, la culpabilité, la justification, l’honneur, le doute et enfin l’amour ou la préférence. Une situation humaine ne fait même pas du principe d’autoconservation un principe universel, puisque les cas d’altruisme existent. Au passage, notons aussi que le candidat à l’attentat-suicide prend l’exact contrepied de la morale machinique, en visant le maximum de morts sans considération même de sa propre survie : le parallèle entre le développement historique de ces deux modèles de pensée est saisissant, comme si l’un constituait l’impensé de l’autre. Quoi qu’il en soit, l’humain est obligé d’en passer tôt ou tard par un nouveau jugement qui est un acte singulier. Il comporte une série de considération affectives et symboliques inconnues de la machine. A cela, le rapport répond que, bien entendu, il est prévu que le conducteur pourra à tout moment reprendre le contrôle de la conduite. Mais que signifiera cette possibilité dérisoire s’il s’est déshabitué à conduire (tout comme d’ores et déjà des personnes constatent qu’elles ont perdu l’aisance d’écrire à la main) ?

La prétendue meilleure décision machinique conduit enfin à un dilemme encore plus redoutable qu’on pourrait appeler le dilemme des marins (également évoqué dans l’article de Philippa Foot) : quels humains devraient survivre si les ressources mondiales devaient continuer à diminuer pendant que la démographie et la consommation mondiales ne cesseraient de croître ? Il n’est pas impossible de se représenter la civilisation industrielle comme un bolide qui fonce droit dans le mur. Le véhicule autonome pourrait ainsi s’avérer la métaphore d’un plus gros problème que celui d’un assez banal accident de la route.

Des histoires disent que les marins tiraient au sort celui qui serait mangé pour la survie des autres. Comment exclure qu’une machine soit programmée à choisir « rationnellement » (le choix aléatoire pouvant être une forme de choix rationnel) à trier froidement entre les bouches inutiles et les bouches qui doivent survivre (ou les bouches immortelles, qui ne se nourriraient peut-être pas de pain mais d’énergie, à en croire un scénario posthumaniste) ? Comment exclure, une fois introduit et banalisé, que ce type de choix présenté fallacieusement comme moral, mais dont l’axiome biopolitique fondamental (effectué à l’ombre des paramétrages coupés des situations singulières) est la survie statistique, deviennent l’avenir d’une gouvernance algorithmique, une loi de survie déterminée par une sorte de Dieu-des-catastrophes-globales ? S’il est valable de sacrifier une personne pour cinq, n’est-il pas moralement préférable de sacrifier un ou deux milliards d’êtres humains pour que, par exemple, cinq milliards survivent, si nous sommes tous dans le même bateau ? N’est-ce-pas ce que nous faisons déjà à grande échelle lorsque des populations sont maintenues dans des conditions de vies indignes, végétant sur des décharges, ou lorsque des réfugiés sont reflués au péril de leur vie pour que la « forteresse Europe » ne perde rien de ses privilèges ? Seulement nous ne nous en vantons pas encore publiquement comme de nos plus hautes réussites morales. Nous n’avons pas encore trouvé le moyen de faire passer ces horreurs pour un résultat indiscutablement « éthique ». Contrairement à une telle duplicité humaine, trop humaine, la machine n’aurait pas de scrupules à trancher si l’input « moral » lui dictait que la survie d’un maximum de terriens dépend du sacrifice de certains autres, urgence globale oblige. Enfin, par survie statistique, nous pouvons aussi bien entendre le plus grand nombre de survivants possibles au détriment de certains autres, que la probabilité même d’une survie d’un specimen humain (qui pourrait recycler la vieille histoire de Noé, avec la question de savoir qui montera dans l’arche). Bref, n’ignorons pas qu’implémenter le setting moral du dilemme du tramway, jusqu’ici restreint à des situations ou fictives ou monstrueuses, façonne une vision du monde qui peut avoir des suites d’une autre envergure.

Notes

1 Emmanuel Kant, « D’un prétendu droit de mentir par humanité », in Théorie et pratique, trad. Françoise Proust, Paris, Flammarion, 1994, pp. 95-103.

2 Une intelligence artificielle détecte le mensonge : https://iatranshumanisme.com/2018/01/14/intelligence-artificielle-detecte-mensonge/

3 Sigmund Freud, « Über infantile Sexualtheorien », 1908, GW VII, p. 176 ; « Les théories sexuelles infantiles », in La vie sexuelle, PUF, 1969, p. 18.

4 Philippa Foot, « The Problem of Abortion and the Doctrine of the Double Effect », Oxford Review, Number 5, 1967. En ligne : http://www2.econ.iastate.edu/classes/econ362/hallam/Readings/FootDoubleEffect.pdf

5 Cf. notamment Judith Jarvis Thomson, «Killing, letting die, and the trolley Problem » in Monist, an International Quaterly Journal of General Philosophical Inquiry, Vol. 59, 1976, pp. 204-217 ; Judith Jarvis Thomson, «The Trolley Problem », The Yale Law Journal, Vol. 94, No. 6, 1985, pp. 1395-1415.

6 Moral Machine – MIT http://moralmachine.mit.edu/

7 Ethics commission, Federal Ministry of Transport, June 2017, Germany, « Automated and connected driving », p 15. En ligne : https://www.bmvi.de/SharedDocs/EN/publications/report-ethics-commission.pdf?__blob=publicationFile

8 Ibid., p 17.

9 Anciennement nommée Vilna.

10 Marc Dvorjetski, La victoire du ghetto, cité dans Joshua Sobol, Ghetto, Lyon, La Manufacture, 1986, p. 226-227.

11 Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL))

12 « Automated and connected driving », op. cit., p 15.

Réinventer l’assurance à l’âge de l’IoT

Les assureurs doivent réduire les coûts dans l’ensemble de leurs opérations, pour améliorer leurs résultats et réduire la dépendance à l’égard des revenus de placement. Et ils ont besoin d’un moyen de fidéliser la clientèle, de réduire la sensibilité aux prix et les taux de désabonnement et de générer des revenus. Dans ce livre blanc, découvrez comment les assureurs automobiles peuvent utiliser l’Internet des objets pour gérer les risques, accroître l’efficacité et créer une intimité client.

L’Internet des objets peut apporter un changement radical dans l’efficacité opérationnelle et la fidélisation de la clientèle que le secteur de l’assurance automobile doit conserver pour rester compétitif. Les conducteurs d’aujourd’hui se sentent peu fidèles à leur assureur. Il est facile de voir pourquoi. Beaucoup considèrent leur prime annuelle comme une taxe sur la conduite et estiment qu’ils obtiennent peu en retour de leurs assureurs.

L’IoT détient la clé

L’Internet des objets (IoT) est essentiel pour que tout cela se produise. Dans ce rapport, vous apprendrez comment devenir plus efficace et plus réactif face aux besoins changeants de vos clients, vous aidant ainsi à devenir un véritable assureur numérique.

[su_document url=”https://iatranshumanisme.com/wp-content/uploads/2018/08/Vodafone-UBI-WhitePaper.pdf” width=”840″ height=”800″]