Nao, un robot humanoïde, présenté à la Cité des Sciences et de l'Industrie, le 1er avril 2019 à Paris
Un robot humanoïde à intelligence artificielle «Alter 3: Offloaded Agency», le 15 mai 2019 à Londres
Robotique et intelligence artificielle impliquent de nouvelles règles
Nao, un robot humanoïde, présenté à la Cité des Sciences et de l'Industrie, le 1er avril 2019 à Paris
Un robot humanoïde à intelligence artificielle «Alter 3: Offloaded Agency», le 15 mai 2019 à Londres
Près de 80 ans après la création des lois sur la robotique par l'écrivain Isaac Asimov, la robotique moderne implique que de nouvelles règles soient édictées, estime le juriste américain Frank Pasquale, expert en intelligence artificielle.
Le monde a changé depuis que l'auteur de science-fiction Isaac Asimov a formulé, en 1942, ses trois règles pour les robots dont la première recommande qu'un robot ne puisse porter atteinte à un être humain.
Ordinateurs et intelligence artificielle (IA) font aujourd'hui partie de notre quotidien et une mise à jour s'avère nécessaire, a expliqué à l'AFP Frank Pasquale, en marge d'un colloque organisé sur ce thème cette semaine à l'Académie pontificale des sciences du Vatican.
Selon lui, quatre nouvelles règles «d'inspiration juridique» pourraient utilement être appliquées aux robots et à l'IA, la première étant que les robots «doivent compléter et non remplacer les professionnels».
«Plutôt que d'avoir un médecin-robot, il faut espérer être soigné par un médecin qui comprend comment fonctionne l'IA, qui en tire de bons conseils, et qui en fin de compte décide ce qu'il doit faire ou ne pas faire», explique M. Pasquale.
La seconde règle qu'il préconise serait d'arrêter la course aux armements robotiques, qu'ils soient destinés à un usage militaire ou policier.
«C'est déprimant et c'est aussi de l'argent jeté par les fenêtres. Vous construisez un robot qui peut dire si mon robot prévoit que votre robot va l'attaquer et ainsi de suite, c'est sans fin...«, explique Frank Pasquale.
La troisième règle, la plus controversée selon M. Pasquale, consiste à ne pas créer des robots ou des intelligences artificielles humanoïdes tels que l'assistant Duplex, proposé par Google, une application qui passe des appels téléphoniques à votre place pour réserver une table au restaurant.
«Il y a eu une réaction immédiate de la part du public qui pensait que Google essayait de faire passer ses machines pour des humains, ce qui équivaut à une contrefaçon, et je pense que nous devrions éviter de contrefaire l'humanité», assure M. Pasquale qui enseigne le droit à l'Université américaine du Maryland (est).
Les robots ne peuvent avoir une apparence humaine que si cette caractéristique «est nécessaire à la tâche qu'il doivent accomplir, comme c'est le cas des robots utilisés pour des soins ou les robots sexuels».
- «Relié à un humain» -
Quatrième et dernière loi: tout robot ou intelligence artificielle doit être lié ou appartenir à une personne ou à un groupe de personnes «parce que nous savons comment punir les humains mais pas les machines», explique l'expert.
«Si nous créons des drones qui volent ou des voitures qui roulent de façon autonome, des robots qui s'expriment sur Twitter ou jouent en bourse, tout cela doit être relié à un être humain», précise-t-il.
Frank Pasquale explique qu'il arrive que des sociétés comme Facebook sont condamnées à verser des amendes mais jamais qu'un de leurs membres ne soit personnellement contraint à payer de sa poche, et encore moins mis en prison si une faute grave est commise.
«Nous avons déjà un problème avec les entreprises et si nous permettons aux robots de nous assister sans être directement liés à une personne ou à une entreprise, cela ne fera qu'empirer», prévient M. Pasquale, auteur du livre «New Laws of Robotics» (Nouvelles lois de la robotique) à paraître chez Harvard University Press.
Ce qu'il faut éviter, selon lui, c'est une technologie à deux vitesses, comme celle proposée par Boeing pour ses avions de ligne 737-MAX, cloués au sol après la mort de centaines de personnes dans deux accidents attribués à un capteur défaillant.
«Chez Boeing, ils ont décidé qu'ils proposeraient aux compagnies aériennes d'acheter un deuxième capteur, pour un coût supplémentaire de l'ordre de 80.000 dollars par avion, ce qui va à coup sûr engendrer des problèmes en cascade», estime M. Pasquale.
Il estime que la loi robotique devrait être appliquée dans ce cas de figure pour interdire ce qui pourrait être perçu comme «une bonne affaire» pour l'avionneur. «Il faudrait instituer une norme unique pour toutes les compagnies, qui éviterait de devoir vérifier si Ryanair, American Airlines ou Lufthansa se sont bien dotées du capteur supplémentaire, ce qui est insensé».
Retour à la page d'accueil