image de héros de menu

Protégez les civils : arrêtez les robots tueurs

Le secrétaire général des Nations Unies, António Guterres, a exhorté les États à agir « rapidement » pour répondre aux préoccupations concernant les systèmes d'armes autonomes létal dans son 2020 rapport sur la protection des civils dans les conflits armés. Il marqué l'impératif d'interdire de telles armes lors d'un débat virtuel du Conseil de sécurité de l'ONU sur le rapport le 27 mai.

La Campagne pour arrêter les robots tueurs salue l'appel du leader de l'ONU et exhorte les États à tenir compte de sa demande de convenir de « limitations et obligations qui devraient être appliquées à l'autonomie dans les armes ». Les États devraient lancer dès maintenant des négociations sur un nouveau traité international visant à interdire les armes entièrement autonomes et à conserver un contrôle humain significatif sur l'usage de la force.

Il s'agit du premier rapport de l'ONU sur la protection des civils depuis 2013 à souligner les inquiétudes concernant les robots tueurs. Le Secrétaire général de l'ONU Ban Ki-moon a publié le 2013 rapport, devenant le premier dirigeant de l'ONU à soulever de sérieuses questions sur la perspective de systèmes d'armes qui, une fois activés, peuvent sélectionner et engager des cibles sans autre intervention humaine. Il a appelé à l'ouverture urgente d'un débat multilatéral sur ces questions.

Les États ont répondu à cet appel à la fin de cette année-là, lorsqu'ils ont accepté de commencer à discuter des questions relatives aux systèmes d'armes létaux autonomes à la Convention sur les armes classiques (CCW) à Genève. Les discussions sur la CCAC ont fait quelques progrès depuis lors pour identifier les principaux sujets de préoccupation concernant l'autonomie des systèmes d'armes. Plusieurs États se sont engagés à ne pas acquérir ni développer de systèmes d'armes létaux autonomes et 30 États ont demandé l'interdiction de ces systèmes d'armes.

Pourtant, les discussions sur la CCAC n'ont guère abouti à un résultat multilatéral durable en raison de l'opposition d'une poignée de puissances militaires, notamment la Russie et les États-Unis, qui rejettent fermement les propositions de négocier un nouveau traité ou protocole international.

Le rapport de 2013 sur la protection des civils a reconnu des « préoccupations importantes » concernant la capacité des systèmes d'armes létales autonomes à fonctionner conformément au droit international humanitaire et aux droits humains. Sept ans plus tard, Guterres constate qu'il existe encore des doutes importants quant à la conformité des attaques utilisant de telles armes avec le droit international humanitaire. Comme son prédécesseur, Guterres cite également « des problèmes moraux et éthiques fondamentaux en permettant à la technologie de décider de prendre la vie humaine ».

Dans le 2020 rapport, Guterres constate que « toutes les parties semblent être d'accord pour dire qu'au minimum, le maintien du contrôle ou du jugement humain sur l'usage de la force est nécessaire ». Il note qu'« un nombre croissant d'États membres ont appelé à l'interdiction des LOIS ».

Depuis novembre 2018, le secrétaire général de l'ONU a exprimé à plusieurs reprises son souhait d'un nouveau traité international interdisant les robots tueurs. En janvier 2020, Guterres averti que de tels systèmes d'armes « nous entraînent sur un territoire moral et politique inacceptable ». Au Conseil des droits de l'homme en février, il appeler pour des mesures spécifiques pour protéger les droits de l'homme contre les technologies émergentes, réitérant son appel à un traité d'interdiction pour « garantir que les machines autonomes ne reçoivent jamais une capacité mortelle en dehors du jugement ou du contrôle humain ».

Les cinq membres permanents du Conseil de sécurité de l'ONU investissent massivement dans le développement de systèmes d'armes dotés de fonctions autonomes. Contrairement à la France, à la Fédération de Russie, au Royaume-Uni et aux États-Unis, la Chine affirme que le droit international humanitaire existant doit être renforcé lorsqu'il s'agit d'armes entièrement autonomes grâce à l'élaboration d'un nouveau traité international.

La plupart des dix membres non permanents du Conseil de sécurité ont exprimé de sérieuses inquiétudes concernant les systèmes d'armes autonomes meurtriers et participent aux pourparlers sur la CCAC, notamment la Belgique, l'Estonie, l'Allemagne, l'Afrique du Sud et la Tunisie. En avril, le ministre allemand des Affaires étrangères Heiko Maas appelé de tels systèmes d'armes « une ligne rouge que nous ne devrions jamais franchir », car « laisser les machines décider de la vie et de la mort des êtres humains va à l'encontre des normes éthiques et porte atteinte à la dignité humaine ».

En octobre dernier, l'Indonésie a fait une déclaration au nom de plus de 120 membres du Mouvement des non-alignés qui ont réitéré le besoin urgent d'un instrument juridiquement contraignant stipulant des interdictions et des réglementations sur les systèmes d'armes autonomes létales.  

Les autres membres non permanents du Conseil de sécurité n'ont pas développé leur point de vue sur les robots tueurs : la République dominicaine, le Niger, Saint-Vincent-et-les Grenadines et le Viet Nam.

L'Estonie a présidé la session virtuelle du Conseil de sécurité le 27 mai en sa qualité de président du Conseil de sécurité. Au cours du débat, l'Allemagne et d'autres États marqué effets négatifs potentiels des technologies nouvelles et émergentes sur la protection des civils. La France collectés préoccupations concernant la question des « systèmes d'armes létales dotés d'autonomie ».

Des extraits du contenu des robots tueurs dans les rapports 2020 et 2013 sur la protection des civils suivent.

2020 Protection des civils rapport

37. Il est également important d'agir rapidement pour répondre aux préoccupations concernant les implications posées par les développements dans le domaine des systèmes d'armes létaux autonomes (LAWS). Les armes autonomes sont généralement considérées comme des systèmes capables de sélectionner et d'attaquer une cible – qu'il s'agisse d'une personne ou d'un objet – sans intervention humaine. Bien que les LOIS ne soient pas spécifiquement régies par les traités de DIH, il est incontestable que tout système d'armes autonome doit pouvoir être utilisé et doit être utilisé conformément au DIH. Il existe cependant des doutes importants sur la manière dont l'utilisation des LOIS pour commettre des attentats peut être conforme au DIH. Il existe également des problèmes moraux et éthiques fondamentaux en permettant à la technologie de décider de prendre la vie humaine.

38. Un nombre croissant d'États membres ont demandé l'interdiction des LOIS. D'autres pensent que l'application du DIH existant suffit à en réglementer l'usage. Toutes les parties semblent s'accorder sur le fait que, au minimum, le maintien du contrôle ou du jugement humain sur l'usage de la force est nécessaire. Il est impératif que les États Membres, avec le soutien et la participation active des Nations Unies et d'autres organisations internationales, de la société civile et du secteur privé, parviennent rapidement à une compréhension commune des caractéristiques, ainsi que des limitations et obligations convenues, qui devraient être appliquées aux autonomie en armes.

2013 Protection des civils rapport

28. La prolifération de la technologie des drones et le recours croissant à de tels systèmes d'armes accentueront également davantage l'asymétrie qui existe dans de nombreux conflits entre parties étatiques et non étatiques. Alors que la technologie permet à une partie de s'éloigner de plus en plus du champ de bataille et que les opportunités de lutter contre elle sont réduites, nous pouvons voir des parties technologiquement inférieures recourir de plus en plus à des stratégies visant à nuire aux civils en tant que cibles les plus accessibles. De plus, la technologie des drones augmente les possibilités de mener des attaques qui pourraient autrement être considérées comme irréalistes ou indésirables par d'autres formes de puissance aérienne ou le déploiement de troupes au sol. À mesure que la capacité de mener des attaques augmente, la menace posée aux civils augmente également.

29. À l'avenir, ces préoccupations, et d'autres, pourraient s'appliquer également à l'utilisation de systèmes d'armes autonomes, ou de ce que l'on appelle des « robots tueurs », qui, une fois activés, peuvent sélectionner et engager des cibles et opérer dans des environnements dynamiques et changeants. sans autre intervention humaine. Des préoccupations importantes ont été exprimées quant à la capacité de ces systèmes à fonctionner conformément au droit international humanitaire et aux droits de l'homme. Leur utilisation potentielle soulève d'autres questions d'une grande importance : est-il moralement acceptable de déléguer les décisions concernant l'utilisation de la force meurtrière à de tels systèmes ? Si leur utilisation aboutit à un crime de guerre ou à une grave violation des droits humains, qui en serait légalement responsable ? Si la responsabilité ne peut pas être déterminée comme l'exige le droit international, est-il légal ou éthique de déployer de tels systèmes ? Bien que les systèmes d'armes autonomes tels que décrits ici n'aient pas encore été déployés et que l'étendue de leur développement en tant que technologie militaire reste incertaine, la discussion de ces questions doit commencer immédiatement et non une fois que la technologie a été développée et proliférée. Il doit également être inclusif et permettre un engagement total des acteurs des Nations Unies, du CICR et de la société civile.

Marie

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous