L'Organisation des nations unies prend le sujet
très au sérieux. Comment contrôler les "robots-tueurs"? Pudiquement
dénommées "armes létales autonomes", ces machines font l'objet de débats
organisés du 13 au 16 mai entre experts à l'Onu.
Paul Bello, directeur du programme de science cognitive au sein de l'ONR a expliqué au site spécialisé Defense One:
Pour le Bureau de la recherche de la Marine, même si ces "systèmes ne sont pas armés, ils pourraient être contraint de prendre des décisions" relevant de l'éthique, comme le choix entre la fuite et la discussion avec l'ennemi.
7,5 millions de dollars
Outre-Atlantique, l'armée cherche déjà des solutions. Le Bureau national de la recherche du Département de la Marine (Office of Naval Research), devrait ainsi accorder 7,5 millions de dollars de subventions à cinq universités (Tufts, Rensselaer Polytechnic Institute, Brown, Yale et Georgetown) afin de trouver un moyen d'intégrer des notions de morale dans les circuits de ces robots-soldats.Paul Bello, directeur du programme de science cognitive au sein de l'ONR a expliqué au site spécialisé Defense One:
"Les voitures automatiques de Google sont légales et utilisées dans plusieurs Etats actuellement. En tant que chercheurs, nous tentons (...) de distinguer les implications légales et éthiques. Nous ne voulons pas être pris au dépourvu dans tous les domaines militaires où des vies sont en jeu".
Dilemmes éthiques
Officiellement, l'armée américaine n'a pas le droit d'utiliser de robots totalement autonomes capables de tuer. Les machines semi-autonomes n'ont pas "le droit de sélectionner et viser des cibles individuelles ou spécifiques sans y avoir été autorisées par un opérateur humain", précise une directive du Département de la Défense datant de 2012.Pour le Bureau de la recherche de la Marine, même si ces "systèmes ne sont pas armés, ils pourraient être contraint de prendre des décisions" relevant de l'éthique, comme le choix entre la fuite et la discussion avec l'ennemi.
Des robots plus "éthiques" que les Hommes?
Le directeur du groupe d'étude sur l'éthique et la technologie de Yale, Wendell Wallach, auteur d'un ouvrage sous-titré "Teaching Robots right from wrong" (Apprendre le bien et le mal aux robots), a lui aussi été interrogé par Defense One. Il indique que certaines questions morales peuvent être codées plus facilement que d'autres. Il plaide:"L'un des arguments en faveur des robots [à qui la morale aurait été enseignées] est qu'ils pourraient être encore meilleurs que les hommes pour agir de façon conforme à l'éthique parce qu'ils sont capables de choisir entre de plus nombreuses options".
Aucun commentaire:
Enregistrer un commentaire