image de héros de menu
AOAV IGw AWS FINAL 150ppi_LR

Systèmes de missiles et contrôle humain

AOAV IGw AWS FINAL 150ppi_LR

An article qui figurait en première page de The New York Times le 12 novembre détaillant la tendance à la guerre autonome par les États-Unis et d'autres nations dotées d'armées de haute technologie a suscité un vif intérêt. L'article de fond de l'écrivain scientifique John Markoff est le premier du magazine sur le défi des "robots tueurs" depuis Bill Keller's réflexions en mars 2013 et celle de Nick Cumming-Bruce couverture du rapport de mai 2013 du rapporteur spécial de l'ONU Christof Heyns, y compris son appel à un moratoire.

La Campagne pour arrêter les robots tueurs a distribué des exemplaires de The New York Times article aux délégués participant à la réunion annuelle de la Convention sur les armes classiques (CCW) à Genève, où 118 pays ont convenu par consensus le 14 novembre de poursuivre les délibérations qui ont commencé plus tôt cette année sur la question des « systèmes d'armes létales autonomes ». La prochaine réunion de la CCAC sur la question se tiendra aux Nations Unies à Genève du 13 au 17 avril 2015.

The New York Times article cite plusieurs systèmes de missiles en cours de développement ou en usage avec divers degrés et formes de contrôle humain, à savoir :

  • Le prototype américain de missile antinavire à longue portée (LRASM) développé par Lockheed Martin pour l'Air Force et la Navy, lancé à partir d'un bombardier B-1 ;
  • le missile d'attaque interarmées norvégien destiné à être utilisé par sa flotte de chasseurs à réaction avancés ;
  • le missile antiradar « Harpy » d'Israël, qui détecte les signaux radar ennemis et détruit les cibles avec une ogive hautement explosive ;
  • Le missile britannique « fire and forget » Brimstone, qu'il utilise en Irak.

Alors que le débat international sur les systèmes d'armes autonomes émerge, les caractéristiques autonomes de ces systèmes font l'objet d'un examen minutieux. Marc Gubrud du Comité international pour le contrôle des armements robotiques (ICRAC) a décrit le LRASM comme The New York Times comme « des choses assez sophistiquées que j'appellerais l'intelligence artificielle [opérant] en dehors du contrôle humain ». Le Center for a New American Security (CNAS) basé à Washington DC les regarde comme « armes à guidage de précision » contrôlées comme « une personne sélectionne les cibles qu'elle engage ». Human Rights Watch et d'autres ont appelé les systèmes de missiles sont des exemples de « précurseurs » de systèmes d'armes entièrement autonomes. Le Pentagone considère le LRASM comme « semi-autonome ».

Dans le débat, la question a été demandé si ce sont des exemples de « robots tueurs » qui devraient être interdits. Les militants « déplacent-ils les jalons » maintenant que les discussions officielles sont en cours et s'attaquent aux armes d'aujourd'hui ?

La Campagne pour arrêter les robots tueurs appelle à une préemptif interdire sur des systèmes d'armes entièrement autonomes. Ses membres peuvent s'interroger sur l'évolution des arsenaux mondiaux en surveillant de près les procédures de ciblage et l'usage de la force pour de telles armes.

« Ce n'est que grâce à une analyse scientifique objective des nouvelles versions des systèmes actuels à l'aube de l'autonomie et de leurs extensions potentielles que nous pourrons déterminer si ces systèmes sont sous contrôle humain approprié », a déclaré le professeur Noel Sharkey, président de l'ICRAC, un groupe d'experts scientifiques qui, indépendamment évaluer les technologies d'armes pour déterminer où elles se situent sur le spectre de l'autonomie. « Un tel examen scientifique est important pour dresser un tableau complet des développements de la technologie des armes. »

Une plus grande transparence aiderait à une compréhension commune du fonctionnement de ces systèmes d'armes existants et émergents et du degré de contrôle humain impliqué dans leurs décisions de ciblage et d'attaque. Ces systèmes et d'autres dotés d'un degré élevé d'autonomie doivent être examinés afin de comprendre comment un contrôle humain significatif est exercé et comment les civils peuvent bénéficier d'une protection adéquate et durable.

Photo : Les représentants de la campagne examinent un Lockheed Martin vidéo du missile antinavire à longue portée (LRASM)

Marie

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous