image de héros de menu

COMMUNIQUÉ DE PRESSE : Focus sur le contrôle humain significatif des systèmes d'armes - Troisième réunion des Nations Unies sur le tueur r

11 Avril 2016
Genève

COMMUNIQUÉ DE PRESSE:
Focus sur le contrôle humain significatif des systèmes d'armes - La troisième réunion des Nations Unies sur les robots tueurs s'ouvre à Genève

Les pays devraient affirmer la nécessité d'un contrôle humain significatif sur la capacité de sélectionner et d'attaquer des cibles, et accepter de commencer à négocier une interdiction préventive des armes entièrement autonomes, a déclaré la Campagne pour arrêter les robots tueurs en tant que troisième cycle de pourparlers multilatéraux sur la question ouvert aujourd'hui. aux Nations Unies à Genève.

« Toute décision de recourir à la force doit être prise avec beaucoup de soin et de respect pour protéger la valeur de la vie et de la dignité humaines, ce que seuls les humains sont capables de faire », a déclaré la lauréate du prix Nobel de la paix, Mme Jody Williams, de la Nobel Women's Initiative, co- fondateur de la Campagne pour arrêter les robots tueurs. "Les pays devraient adopter le principe d'un contrôle humain significatif sur les décisions de ciblage et de mise à mort et accepter d'entamer rapidement des négociations sur une interdiction préventive des robots tueurs."

Les capteurs à faible coût et les progrès de l'intelligence artificielle permettent de plus en plus de concevoir des systèmes d'armes qui cibleraient et attaqueraient sans autre intervention humaine. Si la tendance vers une autonomie toujours plus grande se poursuit, l'inquiétude est que les humains commencent à s'effacer de la boucle décisionnelle, ne conservant d'abord qu'un rôle de surveillance limité, puis aucun rôle du tout. Plusieurs pays dotés d'armées de haute technologie, en particulier les États-Unis, la Chine, Israël, la Corée du Sud, la Russie et le Royaume-Uni, s'orientent vers des systèmes qui donneraient une plus grande autonomie de combat aux machines.

La Campagne pour arrêter les robots tueurs s'oppose fondamentalement à permettre aux machines de tuer des humains sur le champ de bataille ou dans le cadre de la police, du contrôle des frontières et d'autres circonstances. Lancée en avril 2013, la coalition mondiale de plus de 60 organisations non gouvernementales appelle à une interdiction préventive du développement, de la production et de l'utilisation de systèmes d'armes entièrement autonomes. Cela peut être fait en créant un nouveau droit international ainsi que par le biais de la législation nationale.

La question des « systèmes d'armes létales autonomes » (un autre terme désignant les armes entièrement autonomes) est examinée par les pays à la Convention de 1980 sur les armes classiques (CCW), un traité-cadre qui interdit ou restreint certains types d'armes classiques préoccupantes. Son protocole de 1995 interdisant les lasers aveuglants est un exemple d'interdiction préventive d'une arme avant son acquisition ou son utilisation.

Un grand nombre des 122 « hautes parties contractantes » de la CCW devraient assister à la troisième réunion sur les systèmes d'armes létales autonomes à l'ONU à Genève du 11 au 15 avril 2016, en plus des agences des Nations Unies, du Comité international de la Croix-Rouge et des organisations civiles. groupes de la société coordonnés par la Campagne pour arrêter les robots tueurs. Présidée par l'Ambassadeur Michael Biontino d'Allemagne, la réunion poursuit les délibérations sur le sujet qui se sont tenues en avril 2015 et mai 2014.

« Plusieurs pays et fabricants affirment qu'ils n'ont « aucun plan » pour développer des systèmes d'armes autonomes létaux. De tels engagements sont les bienvenus, mais insuffisants car ils ne constituent pas une solution permanente à ce qui se passera si les États ne prennent pas d'action », a déclaré le professeur Noel Sharkey du Comité international pour le contrôle des armements robotiques, cofondateur de la Campagne pour arrêter les robots tueurs. « Les engagements politiques de ne pas développer ou utiliser ces systèmes d'armes peuvent s'effondrer dès que les opposants les acquièrent. Les risques sont trop élevés pour être ignorés, donc le seul moyen logique d'éviter cela est de légiférer sur l'interdiction. »

Neuf pays ont approuvé l'appel à l'interdiction des armes entièrement autonomes depuis 2013 : la Bolivie, Cuba, l'Équateur, l'Égypte, le Ghana, le Saint-Siège, le Pakistan, l'État de Palestine et le Zimbabwe.

De nombreux pays ont été attirés par la notion de contrôle humain significatif sur les systèmes d'armes depuis le début du débat international. Plus de 30 États ont spécifiquement abordé le principe ou le concept de contrôle humain dans leurs déclarations sur la CCAC, le qualifiant généralement de significatif, approprié ou efficace. La plupart de ces États soutiennent explicitement l'exigence d'un contrôle humain significatif et presque tous ont appelé à des discussions plus approfondies sur l'approche.

« Si les États ne confirment pas qu'il doit y avoir un contrôle humain significatif sur les armes, ils laissent délibérément la porte ouverte à des systèmes qui peuvent tuer des personnes sans ce contrôle », a déclaré Richard Moyes de Article 36, co-fondateur de la Campagne pour Arrêtez les robots tueurs. « La technologie est peut-être compliquée, mais la solution est simple : entamer des négociations pour un traité international visant à rendre illégales les armes létales autonomes. »

L'article 36 a proposé le terme « contrôle humain significatif » dans une note de 2013 aux délégués de la CCW et Moyes expliquera ses éléments clés dans sa présentation à la session de mardi matin de la CCW sur les définitions des systèmes d'armes autonomes létaux. Article 36 a préparé plusieurs publications pour la réunion de la CCW, dont une sur la position actuelle du Royaume-Uni sur les examens des armes entièrement autonomes.

L'ordre du jour de la troisième réunion de la CCW est rempli de 34 experts présentant plus de huit sessions sur l'autonomie, les définitions, les lois de la guerre, les droits de l'homme et l'éthique, et les problèmes de sécurité, y compris les risques opérationnels. Les amis de la présidence comprennent des représentants diplomatiques du Chili, de la Colombie, de la Finlande, de la France, de la Sierra Leone, de la Corée du Sud, du Sri Lanka et de la Suisse. Plusieurs pays—le Canada, le Saint-Siège, le Japon et la Suisse—ont fourni des documents de travail avant la réunion exposant leurs points de vue sur les questions clés en discussion.

Les pays participant à la réunion de Genève ne prendront aucune décision formelle car l'objectif est de continuer à construire une base commune de connaissances sur les préoccupations techniques, éthiques, juridiques, opérationnelles, de sécurité et autres relatives aux armes. Cependant, ils « peuvent convenir par consensus de recommandations pour des travaux ultérieurs à examiner » par la CCAC lors de sa cinquième Conférence d'examen le 16 décembre 2016.

Les experts de la société civile jouent un rôle de premier plan en aidant à mieux comprendre le contrôle humain significatif et en informant cet aspect central du débat. Par exemple:

  • Jeudi, Bonnie Docherty s'adressera à une réunion d'information parallèle pour présenter son rapport de 16 pages pour Human Rights Watch et la clinique internationale des droits de l'homme de la Harvard Law School sur « Les robots tueurs et le concept de contrôle humain significatif ». Le rapport passe en revue les précédents juridiques en matière de contrôle et constate qu'un contrôle humain significatif sur l'utilisation des armes favorise le respect des principes du droit international humanitaire, notamment la distinction et la proportionnalité, et est également crucial pour le droit international des droits de l'homme. Human Rights Watch est co-fondateur et coordonne la Campagne pour arrêter les robots tueurs.
  • Le Dr Heather Roff de l'Arizona State University, qui est également membre de l'ICRAC, a rédigé un nouveau document d'information sur le « Contrôle humain significatif, l'intelligence artificielle et les armes autonomes » avec Moyes de l'article 36. Lundi après-midi, Roff s'adressera à un Session CCW pour envisager la « cartographie de l'autonomie » ainsi qu'un briefing sur l'événement parallèle.
  • Le professeur Toby Walsh de l'Université de Nouvelle-Galles du Sud, qui s'exprimait jeudi lors d'une réunion d'information parallèle, a aidé à rédiger une lettre ouverte publiée en juillet 2015 et signée par plus de 3,000 XNUMX experts en intelligence artificielle qui appelle à l'interdiction des « offensives autonomes armes au-delà du contrôle humain significatif.

Pour plus d'informations sur la troisième réunion de la CCW sur les robots tueurs, voir : http://www.stopkillerrobots.org/2016/04/thirdccw/

Pour plus d'informations sur la Convention sur les armes classiques, veuillez visiter : http://www.unog.ch/80256EE600585943/(httpPages)/37D51189AC4FB6E1C1257F4 D004CAFB2?OpenDocument

Coordonnées de la Campagne pour arrêter les robots tueurs :

  • Site Web – www.stopkillerrobots.org
  • Facebook – http://www.facebook.com/#!/stopkillerrobots
  • Twitter – @BanKillerRobots
  • Flickr – http://www.flickr.com/people/stopkillerrobots
  • YouTube – http://www.youtube.com/user/StopKillerRobots

Claire Conboy

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous