Skip to content

Dubaï veut des robots pour composer 25% de sa police d’ici 2030

Dubaï a lancé un nouveau robot policier qui marque la première phase de l’intégration des robots dans la police. Cette version modifiée du robot REEM (conçu par PAL Robotics) est capable d’alimenter la vidéo dans un centre de commandement, transmettre les crimes signalés à la police, régler les amendes, la reconnaissance faciale et parler neuf langues. Il fonctionnera dans la plupart des centres commerciaux et des attractions touristiques.

Dubaï estime que les robots constitueront 25 pour cent de sa force de police d’ici 2030, la prochaine étape étant de les utiliser comme réceptionnistes dans les postes de police. Le brigadier Khalid Nasser Alrazooqi, directeur général du Département des services intelligents de la police de Dubaï, a déclaré à CNN qu’ils voulaient finalement libérer un « robot entièrement fonctionnel qui peut fonctionner comme un policier normal ».

Vers une police 3.0 : enjeux et perspectives à l’horizon 2025
Hitachi : une IA capable de prédire les crimes avant qu’ils se produisent
Patrouille du futur : plutôt cop ou Robocop ?

Les policiers ou les soldats robotiques sont une ancienne idée de science-fiction, mais ils sont de plus en plus une réalité. En février, la Chine a commencé à utiliser AnBot qui utilise la reconnaissance faciale pour identifier les criminels et est capable de les suivre jusqu’à l’arrivée de la police. Le robot russe, Final Experimental Demonstration Object Research (FEDOR), a suscité des comparaisons avec Robocop lorsqu’une vidéo l’a montré en tirant avec une précision mortelle, en soulevant des haltères et en marchant.

La plus grande préoccupation éthique soulevée par ces développements concerne les personnes coupables si un robot prend une mauvaise décision et blesse quelqu’un dans une situation criminelle. Elon Musk, Steven Hawking et d’autres scientifiques prolifiques ont identifié l’IA comme un grave risque existentiel, arguant que les robots ne devraient jamais être autorisés à tuer des gens. Alan Winfield, professeur d’éthique robot à l’Université de l’Angleterre de l’Ouest, écrit sur ce sujet sur son blog. « Le problème, c’est que vous ne pouvez pas rendre une machine responsable de ses erreurs », a déclaré Winfeild dans une interview à CNN. « Comment le punir ? Comment le sanctionnez-vous ? Vous ne pouvez pas. »

CNN

2 Comments »

  1. Jaesa – ce qui se joue ici et ailleurs – iatranshumanisme.com est rapidement devenu le site de référence sur le thème du transhumanisme et de l'intelligence artificielle. C'est un lieu d’échanges et de discussions sur les préoccupations du monde d’aujourd’hui et de demain – de craintes pour les uns, d'espoirs pour les autres. Nous bâtissons un espace porteur de réflexions.
    Jaesa dit :
  2. Je me demande si les trois lois de la robotique inventée par Asimov dans son cycle des robots peuvent encore être valides.

    1/ un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
    2/ un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
    3/ un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

En savoir plus sur Intelligence Artificielle et Transhumanisme

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Continue reading

Quitter la version mobile
%%footer%%