Skip to content

Dubaï veut des robots pour composer 25% de sa police d’ici 2030

Dubaï a lancé un nouveau robot policier qui marque la première phase de l’intégration des robots dans la police. Cette version modifiée du robot REEM (conçu par PAL Robotics) est capable d’alimenter la vidéo dans un centre de commandement, transmettre les crimes signalés à la police, régler les amendes, la reconnaissance faciale et parler neuf langues. Il fonctionnera dans la plupart des centres commerciaux et des attractions touristiques.

Dubaï estime que les robots constitueront 25 pour cent de sa force de police d’ici 2030, la prochaine étape étant de les utiliser comme réceptionnistes dans les postes de police. Le brigadier Khalid Nasser Alrazooqi, directeur général du Département des services intelligents de la police de Dubaï, a déclaré à CNN qu’ils voulaient finalement libérer un « robot entièrement fonctionnel qui peut fonctionner comme un policier normal ».

Vers une police 3.0 : enjeux et perspectives à l’horizon 2025
Hitachi : une IA capable de prédire les crimes avant qu’ils se produisent
Patrouille du futur : plutôt cop ou Robocop ?

Les policiers ou les soldats robotiques sont une ancienne idée de science-fiction, mais ils sont de plus en plus une réalité. En février, la Chine a commencé à utiliser AnBot qui utilise la reconnaissance faciale pour identifier les criminels et est capable de les suivre jusqu’à l’arrivée de la police. Le robot russe, Final Experimental Demonstration Object Research (FEDOR), a suscité des comparaisons avec Robocop lorsqu’une vidéo l’a montré en tirant avec une précision mortelle, en soulevant des haltères et en marchant.

La plus grande préoccupation éthique soulevée par ces développements concerne les personnes coupables si un robot prend une mauvaise décision et blesse quelqu’un dans une situation criminelle. Elon Musk, Steven Hawking et d’autres scientifiques prolifiques ont identifié l’IA comme un grave risque existentiel, arguant que les robots ne devraient jamais être autorisés à tuer des gens. Alan Winfield, professeur d’éthique robot à l’Université de l’Angleterre de l’Ouest, écrit sur ce sujet sur son blog. « Le problème, c’est que vous ne pouvez pas rendre une machine responsable de ses erreurs », a déclaré Winfeild dans une interview à CNN. « Comment le punir ? Comment le sanctionnez-vous ? Vous ne pouvez pas. »

CNN

, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

2 Comments »

  1. Je me demande si les trois lois de la robotique inventée par Asimov dans son cycle des robots peuvent encore être valides.

    1/ un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
    2/ un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
    3/ un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

    J'aime

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :