image de héros de menu
AOAV IGw AWS FINAL 150ppi_LR

Préoccupations de haut niveau sur les robots tueurs à l'ONU

AOAV IGw AWS FINAL 150ppi_LR

Encore une fois, le défi des robots tueurs a reçu une attention de haut niveau lors de la session annuelle de l'Assemblée générale des Nations Unies

Pour récapituler, en 2018, le secrétaire général de l'ONU, Antonio Guterres, a qualifié la perspective de machines ayant le pouvoir et la discrétion de tuer de "moralement répugnante et politiquement inacceptable", tandis que le ministre allemand des Affaires étrangères Heiko Maas a exhorté les nations à soutenir la proposition de son gouvernement d'interdire la pleine autonomie. armes.

Cette année, lors de l'ouverture de haut niveau de l'Assemblée générale des Nations Unies (AGNU), Maas et le ministre français des Affaires étrangères Jean-Yves Le Drian ont appelé les États à donner la priorité à une action multilatérale urgente pour lutter contre la menace des robots tueurs, le changement climatique, l'éducation des filles et trois autres questions « politiquement pertinentes » d'intérêt international. Au moins 16 ministres des Affaires étrangères ont suivi l'invitation de Maas et Le Drian à cosigner une déclaration politique approuvant l'objectif de « développer un cadre normatif » qui traiterait des armes autonomes. Pourtant, il y a peu d'accord sur ce que cela signifie dans la pratique. Cela signifie-t-il des directives plus informelles ou un nouveau traité international pour interdire ou restreindre les systèmes d'armes autonomes létales ?

Première Commission de l'AGNU

(c) Ari Beser pour la campagne contre les robots tueurs, octobre 2019

Lors de l'ouverture de la Première Commission du désarmement et de la sécurité internationale, le Haut Représentant des Nations Unies pour les affaires de désarmement, Izumi Nakamitsu, a salué un ensemble de « principes directeurs » convenus l'année dernière dans le cadre d'un Groupe d'experts gouvernementaux (GGE) établi par la Convention. sur les armes classiques (CCW). Elle a rappelé aux États que « plus de travail reste à faire pour s'assurer que les humains gardent à tout moment le contrôle de l'utilisation de la force ».

Au moins 41 États ont évoqué les robots tueurs dans leurs déclarations à la 74e session de l'AGNU cette année, comme indiqué ci-dessous, tandis que des dizaines d'autres se sont alignés sur les déclarations de l'Union européenne, du Mouvement des non-alignés et du groupe nordique sur les robots tueurs.

La Libye, la Namibie et Saint-Marin ont parlé pour la première fois des robots tueurs lors de la session de l'AGNU 2019, portant le nombre de pays qui ont commenté ce sujet depuis 2013 à un total de 93. La Namibie est devenue le 30e État à demander un traité interdisant les robots tueurs. Il a déclaré qu'il était favorable à "un protocole interdisant les armes autonomes létales" car de telles armes "sont totalement incompatibles avec le droit international humanitaire". Libye reconnu, "ces armes sont développées de manière très rapide et cela peut entraîner des menaces pour la paix et la sécurité, surtout si ces technologies sont disponibles pour des groupes et des organisations illégaux". Saint-Marin a commenté que "de profonds doutes éthiques et juridiques … doivent être résolus" et a déclaré qu'"un contrôle humain significatif est requis sur les décisions de vie ou de mort".  

Plusieurs États ont réitéré leurs précédents appels à interdire les robots tueurs en créant un nouveau traité, notamment Autriche, Chine, Cuba, Équateur et Guatemala. Chine A déclaré il "estime nécessaire de parvenir à un instrument international juridiquement contraignant sur les systèmes d'armes létales entièrement autonomes afin d'empêcher l'assassinat automatisé par des machines", encourageant les États à "d'abord parvenir à un accord sur des questions telles que la définition et la portée des LOIS".

De nombreux États ont souligné la nécessité de conserver une certaine forme de contrôle humain sur les systèmes d'armes et l'usage de la force, en particulier l'Autriche, le Brésil, l'Irlande, l'Italie, le Liechtenstein, le Mexique et les Pays-Bas. La déclaration de l'Union européenne souligné que « les êtres humains devraient prendre les décisions concernant l'utilisation de la force meurtrière, exercer un contrôle sur les systèmes d'armes meurtrières qu'ils utilisent et rester responsables des décisions concernant la vie ou la mort afin de garantir le respect du droit international, en particulier du droit international humanitaire et droit international des droits de l'homme. La plupart des pays ont soutenu la poursuite des pourparlers de la CCW sur les robots tueurs, y compris la Russie, qui en 2018 a qualifié les délibérations de « extrêmement prématurées et spéculatives ».

Activités de campagne à l'UNGA

(c) Ari Beser pour la campagne contre les robots tueurs, octobre 2019

La présence de la Campagne pour arrêter les robots tueurs à l'UNGA a été fortement ressentie cette année dans tout le siège de l'ONU. La responsable de la campagne dans la Silicon Valley, Marta Kosmyna, a présenté un UNGA déclaration le 18 octobre, qui a appelé les États à lancer des négociations sur un traité d'interdiction afin de préserver un contrôle humain significatif sur l'usage de la force. La campagne a décrit que « les engagements envers des « cadres normatifs » vagues et des « principes directeurs » supplémentaires sont une forme de piétinement diplomatique » et a constaté qu'« un instrument juridique efficace est à la fois réalisable et nécessaire ».

Plus de 100 délégués de l'UNGA ont participé à une campagne pour arrêter les robots tueurs événement parallèle le 21 octobre qui comprenait un discours du chef du désarmement de l'ONU. Nakamitsu répété le appel du secrétaire général de l'ONU Antonio Guterres d'interdire de toute urgence les robots tueurs et a fait l'éloge de la campagne, déclarant : « La société civile a joué un rôle de premier plan en donnant une impulsion au processus diplomatique et doit continuer à le faire. Je félicite la Campagne pour arrêter les robots tueurs et les autres partenaires de la société civile pour vos efforts inlassables, ainsi que pour votre imagination et votre inclusion dans ce travail.

La lauréate du prix Nobel de la paix Jody Williams, la technicienne Liz O'Sullivan du Comité international pour le contrôle des armements robotiques (ICRAC), et le scout colombien et militante de la jeunesse Mariana Sanz Posse ont pris la parole lors de l'événement parallèle, qui a également présenté les mascotte de robot "David Wreckham." La première conférence de presse au siège de l'ONU par la Campagne a suscité un vif intérêt, ce qui a donné lieu à une couverture par des médias tels que Associated Press, NHK du Japon, The Guardianet Xinhua, Le Bureau des affaires de désarmement des Nations Unies a également publié un aperçu récapitulatif de l'événement parallèle de la Campagne sur son site Web.

Le week-end précédent, la Campagne avait emmené son robot mascotte autour de Manhattan, y compris Times Square, et a mis au défi les entreprises technologiques qui ne s'étaient pas encore engagées à développer des armes entièrement autonomes à le faire sans délai. Les membres de la campagne ont également participé au huitième Forum annuel sur le désarmement humanitaire organisé par la Campagne colombienne pour interdire les mines terrestres et ont organisé une « partie de surveillance » pour voir un épisode de "robots tueurs" par l'émission Madame la Secrétaire de CBS-US.

Au cours de la première commission de l'UNGA, les militants ont rencontré des représentants diplomatiques de dizaines d'États. La campagne a contribué chapitre au livre d'information annuel du premier comité de la WILPF Reaching Critical Will et plusieurs articles pour l'hebdomadaire First Committee Monitor.

Déclarations de l'AGNU

(c) Ari Beser pour la campagne contre les robots tueurs, octobre 2019

Les extraits suivants montrent comment au moins 42 pays ont soulevé des robots tueurs dans leurs remarques à la 74e session annuelle de l'Assemblée générale des Nations Unies et de sa Première Commission sur le désarmement et la sécurité internationale : Argentine, Australie, Autriche, Brésil, Bulgarie, Burkina Faso, Chine, Cuba, République tchèque, Danemark, Équateur, Égypte, Estonie, Finlande, France, Allemagne, Guatemala, Inde, Irlande, Israël, Italie, Japon, Kazakhstan, Libye, Liechtenstein, Lituanie, Mexique, Myanmar, Namibie, Pays-Bas, Pologne, Portugal , la République de Corée, la Russie, Saint-Marin, l'Afrique du Sud, l'Espagne, le Sri Lanka, la Suisse, la Turquie, le Royaume-Uni et les États-Unis.* Beaucoup de ces États ont exprimé à plusieurs reprises leurs préoccupations concernant les robots tueurs et ont appelé à une nouvelle loi. Trois groupes d'États ont inclus des robots tueurs dans leurs remarques : l'Union européenne, le Mouvement des pays non alignés (fourni par l'Indonésie) et les États nordiques (fournis par la Finlande).

*Selon le décompte de la campagne, 49 États ont élevé des robots tueurs à l'UNGA en 2018, 34 l'ont fait en 2017, En 36 2016, En 32 2015, En 23 2014et 16 po 2013.

Argentine

(25 Octobre) Dans ce contexte, l'Argentine note avec préoccupation le développement des capacités dans les systèmes d'armes létales autonomes (LAWS) et considère qu'il est important de s'appuyer sur un consensus préalable, en analysant la question dans une perspective préventive, en vue de maintenir les responsabilités des agents humains et de garantir respect du droit international humanitaire et des droits de l'homme.

Australie

(11 Octobre) Les technologies nouvelles ou émergentes ayant des implications pour la sécurité mondiale présentent des défis contemporains en ce qui concerne la réglementation de leur développement et de leur utilisation. C'est pourquoi l'Australie considère la CCAC comme le forum le plus approprié pour aborder ces questions, en particulier pour élaborer des principes directeurs supplémentaires sur les systèmes d'armes létaux autonomes.

(25 Octobre) L'Australie participe activement au Groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes (LAWS) à Genève. Nous considérons que la Convention sur certaines armes classiques est le forum le plus approprié pour faire avancer les discussions sur cette question.

Autriche

(14 octobre) La militarisation de l'intelligence artificielle pose des défis fondamentaux au droit international, en particulier au droit international humanitaire. Dans un contexte de progrès technologique rapide, nous devons de toute urgence tracer la frontière entre l'acceptable et l'inacceptable. C'est un impératif éthique et juridique que les humains doivent garder le contrôle de la sélection et de l'engagement des cibles. Dans le domaine des LOIS, nous avons une opportunité unique et une obligation morale d'agir, et d'agir rapidement. L'inaction saperait notre cadre juridique actuel, qui est basé sur les humains et non sur les machines. Par conséquent, l'Autriche soutient l'ouverture immédiate de négociations sur un engagement juridiquement contraignant visant à garantir le contrôle humain des décisions de vie ou de mort.

(24 Octobre). Nous pensons que ce n'est pas seulement une responsabilité ou une obligation, mais aussi dans notre intérêt de sécurité commun, de réglementer la question des systèmes d'armes autonomes létaux avant que nous ne soyons dépassés par les faits sur le terrain. Par conséquent, l'Autriche soutient pleinement le démarrage immédiat des négociations d'un instrument juridiquement contraignant pour assurer un contrôle humain significatif sur la sélection et l'engagement des cibles. Alors que de plus en plus de dirigeants politiques expriment leur engagement selon lequel les humains doivent garder le contrôle de la vie et de la mort, le GGE on LAWS devrait intensifier ses efforts afin de permettre à la communauté internationale de mettre en œuvre cette volonté politique. L'Autriche estime qu'il sera essentiel pour le succès des LOIS GGE de se concentrer et de progresser sur la question du contrôle humain.

Brasil

(25 Octobre) Le Brésil est partie à tous ses protocoles à la CCAC et participe activement aux délibérations qui y figurent, y compris sur l'émergence de nouvelles menaces et défis à la mise en œuvre du droit international humanitaire, y compris dans les récentes discussions sur les systèmes d'armes létales autonomes. Ces systèmes sont intrinsèquement problématiques, posant de profonds défis éthiques, juridiques et politiques. Compte tenu des avancées technologiques exponentielles dans les domaines des systèmes d'armes robotiques, de la miniaturisation et de l'intelligence artificielle, la fenêtre historique pour adopter un cadre juridique et opérationnel approprié pour réguler la question se rétrécit très rapidement. Bien que le rapport final du GGE récemment conclu sur les LOIS dans la CCAC n'ait pas répondu à nos attentes d'un mandat clair pour la négociation d'un accord juridiquement contraignant sur la question, nous espérons que les discussions futures sur un éventuel cadre réglementaire pourraient nous apporter plus proche d'un consensus substantiel à cet égard. Cela inclut l'établissement d'un contrôle humain significatif dans l'interface entre les humains et les machines, ainsi que l'amélioration du droit international, y compris le droit international humanitaire (DIH), sur la question.

Bulgarie

(17 octobre) La République de Bulgarie participe activement au Groupe d'experts gouvernementaux sur les systèmes d'armes létaux autonomes, en vue de développer et d'adapter un cadre global et opérationnel sur leur production, leur utilisation et leur transfert.

Burkina Faso

(25 Octobre) En ce qui concerne les armes létales, elles constituent une grave source de préoccupation car le développement et la projection de l'emploi d'armes ne nécessitant pas d'intervention humaine soulèvent de nombreuses questions. Il est donc urgent de se pencher très sérieusement sur la menace que représente cette nouvelle catégorie d'armes.

Chine

(25 Octobre) La Chine attache une grande importance aux préoccupations humanitaires, juridiques et éthiques causées par les systèmes d'armes létales autonomes (LAWS) et soutient des discussions approfondies sur les LAWS dans le cadre de la CCW. Bien que les LAWS soient un concept d'armes futures encore inexistant, la Chine estime qu'il est nécessaire de parvenir à un instrument international juridiquement contraignant sur les systèmes d'armes létales entièrement autonomes afin d'empêcher l'assassinat automatisé par des machines. Toutes les parties devraient d'abord parvenir à un accord sur des questions telles que la définition et la portée des LOIS. La réunion du GGE sur les LOIS a convenu d'une ligne directrice par consensus cette année lors du renouvellement du mandat du GGE. La Chine salue ces efforts, en particulier le rôle positif du président du GGE (M. JTVAN, ministre-conseiller de la République de Macédoine du Nord) à cet égard. Cela démontre pleinement que la Convention est le lieu approprié pour discuter de cette question. La Chine travaillera avec toutes les parties pour renforcer les échanges et explorer activement des moyens efficaces de résoudre ce problème.

Cuba

(14 Octobre). La Convention sur certaines armes classiques est le forum idéal pour les négociations d'un instrument juridiquement contraignant qui interdit les armes létales autonomes et réglemente les semi-autonomes, y compris les drones d'attaque militaires.

(24 Octobre). Ma délégation plaide pour l'adoption, dès que possible, d'un protocole interdisant les armes autonomes létales, avant qu'elles ne commencent à être produites à grande échelle. En outre, des réglementations pour l'utilisation d'armes avec une certaine autonomie devraient être établies, en particulier pour les drones d'attaque militaires, qui font un grand nombre de victimes civiles. Ces types d'armes sont totalement incompatibles avec le droit international humanitaire.

(29 Octobre). Nous devons progresser dans les initiatives juridiquement contraignantes qui sont convenues au niveau multilatéral pour empêcher la militarisation du cyberespace, de l'espace extra-atmosphérique et des armes autonomes mortelles, telles que les drones d'attaque. Nous exigeons que les pays producteurs cessent de s'opposer à la sécurité et au bien-être des citoyens du monde entier au nom de leurs propres intérêts du complexe militaro-industriel.

République tchèque

(24 Octobre) Nous nous félicitons des travaux sur les systèmes d'armes létales autonomes (LAWS). À notre avis, il est indispensable que les Hautes Parties contractantes à la CCAC disposent de directives suffisantes sur la manière de s'assurer que toute nouvelle arme, tout nouveau moyen ou méthode de guerre est conforme au droit international humanitaire, ce qui est notre objectif principal.

Équateur

(17 Octobre) Nous rejetons l'utilisation et l'amélioration croissantes des véhicules d'artillerie aérienne sans pilote ainsi que des armes autonomes létales. La communauté internationale dans ses différentes enceintes régionales et universelles doit continuer à travailler plus en profondeur sur les implications que cela a pour le droit international humanitaire, en prévoyant même l'interdiction de ce type d'armes. Nous soutenons, à cet effet, les travaux dans le cadre de la Convention sur certaines armes classiques et nous pensons que la régulation par le seul commerce international est insuffisante.

(25 Octobre) Nous rejetons également l'utilisation et l'amélioration croissantes des véhicules d'artillerie aérienne sans pilote ainsi que des armes autonomes létales. Nous soutenons les travaux menés dans le cadre de la Convention sur certaines armes classiques et pensons que la seule réglementation du commerce international est insuffisante.

(29 octobre) Concernant les véhicules aériens sans pilote et l'intelligence artificielle, l'Équateur rejette l'utilisation croissante de drones aériens sans pilote ainsi que d'armes autonomes. La communauté internationale dans ses différentes enceintes régionales et universelles doit continuer à travailler plus en profondeur sur les implications qu'elle a pour le droit humanitaire et le droit des droits de l'homme, prévoyant même l'interdiction de ce type d'armes. La militarisation de l'IA représente également un défi pour la sécurité internationale, ainsi que la transparence et le contrôle, la proportionnalité et la responsabilité. Nous ne pouvons pas, par exemple, ignorer les rapports que nous avons vus dans le système des Nations Unies sur des sujets qui ont été inclus dans nos rapports, y compris les rapports du Rapporteur spécial sur les exécutions extrajudiciaires, et mon pays tient à déclarer que seule la réglementation n'est pas assez. Nous devons faire tous les efforts que nous pouvons dans ce domaine, afin de s'assurer que l'organisation des Nations Unies puisse garantir que nous ayons des résultats satisfaisants.

Égypte

(29 octobre) Compte tenu des évolutions scientifiques et technologiques rapides dans plusieurs domaines stratégiques, plusieurs domaines ayant un impact direct sur la sécurité internationale sont laissés sans aucune règle internationalement convenue pour les empêcher de se transformer en scènes de courses aux armements et de conflits et d'assurer la continuité fiable de la contribution des technologies pertinentes au développement et au bien-être. Le cyberespace, l'espace extra-atmosphérique et les applications de l'intelligence artificielle sont des exemples marquants de ces domaines. L'absence de progrès dans la lutte contre les graves menaces à la sécurité qui surviennent dans ces domaines n'est manifestement pas due au manque d'expertise technique de la part de la communauté internationale, mais plutôt à la croyance erronée persistante de certains États selon laquelle une domination absolue dans ces domaines peuvent être maintenus, et ainsi résister à tout effort visant à développer des régimes internationaux fondés sur des règles interdisant les utilisations malveillantes de la militarisation de ces technologies. Dans un monde multipolaire, où les technologies pertinentes sont disponibles et accessibles à de nombreux acteurs étatiques et non étatiques, cette approche ne peut que conduire à une course aux armements que personne ne peut gagner, alors que la sécurité internationale continue de se détériorer gravement… Nous pensons qu'il est temps de avancer de la manière la plus inclusive et la plus orientée vers l'action pour élaborer des règles juridiquement contraignantes dans tous ces domaines stratégiques. Les normes non contraignantes et les mesures de confiance volontaires sont des mesures provisoires qui ne peuvent fournir des garanties suffisantes dans le domaine de la sécurité internationale et de la maîtrise des armements à long terme.

Estonie

(11 Octobre) Concernant les technologies émergentes dans le domaine des systèmes d'armes létaux autonomes, nous sommes convaincus que la CCW est le forum le plus approprié pour de telles discussions, rassemblant la bonne expertise. L'Estonie se félicite des résultats de la session de 2019, en particulier de l'accord sur les 11 principes directeurs et sur le délai de deux ans jusqu'à la Conférence d'examen de la CCAC de 2021.

Finlande

(11 Octobre) La Finlande a participé activement aux travaux du Groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes. Notre objectif est un cadre normatif efficace pour les LOIS, adopté par consensus par toutes les parties au processus. Il s'agit d'un objectif ambitieux, mais auquel la Finlande s'efforcera pleinement. Les 11 principes directeurs convenus par le GGE constituent une excellente base sur laquelle les États peuvent désormais commencer à construire un résultat pratique. Pour les négociations sur ce sujet extrêmement complexe, le GGE de Genève est le forum approprié - le seul jeu en ville. Nous soutenons un nouveau mandat pour le GGE tel que proposé en août, avec l'objectif clair d'obtenir des résultats concrets d'ici 2021. Avec de la patience et de la flexibilité de part et d'autre, nous pourrons parvenir à un résultat auquel toutes les parties pourront s'engager. Nous devrions nous efforcer de rien de moins.

France

(14 Octobre) La mise en œuvre de la Convention sur certaines armes classiques devrait se poursuivre, y compris la question prospective des systèmes d'armes létales autonomes ou des dispositifs explosifs improvisés. Mon pays continuera à fournir l'impulsion et l'expertise nécessaires pour progresser sur ces sujets. 

(24 Octobre) Les travaux du GGE sur les technologies émergentes dans le domaine des armes létales autonomes sont le parfait exemple [de rassemblement d'expertise politique, juridique, militaire et diplomatique]. La France a participé activement aux travaux du GGE, qui ont permis d'établir des principes consensuels pour guider le développement et l'utilisation de systèmes d'armes autonomes. La France salue l'accord de tous les experts gouvernementaux recommandant la poursuite des travaux dans le cadre d'un processus structuré qui permettra des progrès substantiels dans les années à venir.

Allemagne

(10 octobre) Le monde semble être au début d'une nouvelle course aux armements, alimentée dans une large mesure par les nouvelles technologies. Si elle reste inchangée, notre architecture actuelle de contrôle des armements risque d'être érodée par les futurs systèmes d'armes dotés de fonctions autonomes, de cyber-instruments ou de nouvelles technologies de missiles. Afin d'apporter des solutions à ces défis, le ministre allemand des Affaires étrangères Maas a lancé un dialogue visant à saisir les nouvelles technologies et à repenser le contrôle des armements.

(24 Octobre) Le travail de la CCW sur les LOIS a été constructif cette année. Pour la première fois, le GGE recommande aux Hautes Parties contractantes d'agir : approuver, en novembre de cette année, les onze principes directeurs convenus par le GGE. Ces principes rempliront donc une fonction directrice importante. L'Allemagne se réjouit de faire avancer les discussions dans ce GGE d'une manière axée sur les résultats afin d'assurer des progrès vers des cadres normatifs et opérationnels solides pour la RevCon 2020.

Guatemala

(11 Octobre) Les nouvelles technologies, l'intelligence artificielle, sont d'autres questions que nous ne pouvons pas laisser de côté, et c'est pourquoi nous pensons que la Conférence des États parties à la Convention sur certaines armes classiques est un forum approprié pour continuer à travailler sur le sujet, en particulier dans le création d'un instrument interdisant les robots dits tueurs ou les armes létales autonomes.

(25 Octobre). Les avancées scientifiques et commerciales dans le domaine de l'intelligence artificielle et l'utilisation de la technologie pour le développement de nouvelles armes doivent être interdites au moyen d'un instrument juridiquement contraignant. Communément appelés robots tueurs ou armes autonomes létales, ils représentent un grave danger pour l'humanité s'ils ne sont pas contrôlés par un humain.

Inde

(14 Octobre) Nous attendons avec impatience la poursuite des discussions au sein du GGE sur les LOIS pour explorer et convenir d'éventuelles recommandations basées sur les 11 principes qui ont fait l'objet d'un consensus au sein du GGE.

(24 Octobre) Nous nous félicitons des progrès réalisés par le GGE sur les LOIS au cours des trois dernières années depuis sa création en 2017. Nous restons convaincus que la CCAC est le forum pertinent pour aborder cette question. Nous soutenons la poursuite des discussions techniques de fond au sein du GGE sur les LOIS dans le contexte de la CCAC avec la participation de toutes les parties prenantes concernées.

(29 Octobre) Conformément à la résolution de 2018, le Secrétaire général de l'ONU a soumis un rapport mis à jour en 2019 sur les récents développements de la science et de la technologie et leur impact potentiel sur la sécurité internationale et les efforts de désarmement. Ce rapport, tel qu'il figure dans le document A/74/122, aborde une série de sujets tels que les technologies autonomes, les véhicules aériens sans équipage, la biologie et la chimie, les technologies avancées de missiles, les technologies spatiales, les technologies des matériaux et les technologies des TIC, fournissant une mise à jour sur diverses activités qui ont eu lieu au cours de l'année dans ces domaines.

Irlande

(16 Octobre). L'Irlande est également fortement engagée dans les travaux au sein de la Convention sur les armes classiques visant à résoudre les importants dilemmes éthiques, moraux et juridiques posés par le développement de systèmes d'armes létaux autonomes. Notre point de vue est éclairé par notre attachement au multilatéralisme et par un profond désir de veiller à ce que les développements technologiques ne dépassent pas la capacité collective d'assurer le plein respect du droit international humanitaire. Nous restons fermement convaincus que ces armes doivent toujours rester sous contrôle humain significatif et que seule la responsabilité humaine peut garantir le plein respect du droit international humanitaire.

(24 Octobre) Nous sommes encouragés par le fait que le GGE sur les LOIS a accepté de recommander une liste étendue de principes directeurs à la réunion de 2019 des Hautes Parties contractantes. Nous sommes fermement convaincus que ces armes doivent toujours rester sous contrôle humain et que seule la responsabilité humaine peut garantir le plein respect du DIH. Le rythme rapide des développements technologiques nous incite à accélérer nos efforts et à nous mettre d'accord sur des résultats tangibles.

Israël

(24 Octobre). De l'avis d'Israël, le fait que la Convention sur certaines armes classiques s'efforce de trouver l'équilibre nécessaire entre la nécessité militaire et les considérations humanitaires dans l'application du droit international humanitaire en fait un instrument important dans le domaine conventionnel. C'est aussi un forum approprié pour discuter de nombreux défis dans ce domaine. Israël accorde une grande importance à ses principes et trouve les discussions approfondies du GGE sur les systèmes d'armes létales autonomes (LAWS) satisfaisantes et bénéfiques.

Italie

(14 Octobre) Nous nous félicitons de l'accord sur les onze principes directeurs en tant que résultat substantiel du Groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes, et nous pensons qu'il est important de discuter plus avant de cette question, en gardant à l'esprit l'importance que le droit international humanitaire s'applique à tous les systèmes d'armes et tout système d'armes existant ou futur doivent être soumis à un contrôle humain, notamment en ce qui concerne la décision finale d'employer la force meurtrière.

(24 Octobre). L'Italie se félicite tout particulièrement du travail approfondi mené par le GGE sur le groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes LAWS. Nous sommes d'avis que le contrôle humain est fondamental pour garantir que tous les systèmes d'armes sont développés, déployés et utilisés conformément au droit international humanitaire. En particulier, nous estimons qu'il est nécessaire que les décisions de recourir à la force meurtrière et de produire des effets meurtriers restent entre les mains des êtres humains. Nous pensons que la poursuite des travaux du GGE au cours des deux prochaines années sera l'occasion de discuter plus avant des aspects relatifs aux caractéristiques et aux implications des LOIS en vue d'ouvrir la voie à une déclaration politique consensuelle.

Japon

(14 octobre) Compte tenu de l'impact potentiel de l'accélération des développements scientifiques et technologiques sur les armes conventionnelles, nous nous félicitons de l'activité sur les LAWS tenue au GGE dans le cadre de la CCW, et continuerons notre contribution aux discussions approfondies et constructives.

(24 Octobre) Le Japon se félicite de l'adoption par consensus des 11 principes directeurs lors du LAWS GGE et de la décision de poursuivre la discussion et de travailler sur des recommandations en vue de la Conférence d'examen de 2021. Les efforts futurs doivent s'appuyer sur les réalisations existantes. Dans ce contexte, le Japon attache de l'importance à l'élaboration et à l'élaboration de principes directeurs, en particulier le principe lié à l'interaction homme-machine. Nous devons identifier et examiner une série de facteurs pour déterminer la qualité et l'étendue de l'interaction homme-machine.

Kazakhstan

(11 Octobre) Le développement de systèmes d'armes létaux autonomes devient également une source de préoccupation particulière. Les LOIS ont le potentiel de remettre en cause les principes les plus fondamentaux du droit international et du droit international humanitaire. Il reste à prouver qu'un système d'arme autonome serait en mesure de respecter les trois principes fondamentaux du DIH à savoir ceux de proportionnalité, de distinction et de précaution en cas d'attaque.

(24 Octobre) Le développement possible de systèmes d'armes létales autonomes (LAWS) reste une source de préoccupation particulière dans notre monde moderne. Nous avons soutenu la création du Groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes (GGE LOIS). Les LOIS ont le potentiel de remettre en cause les principes les plus fondamentaux du droit international, en particulier le DIH. Il reste à prouver qu'un système d'arme autonome serait capable de respecter trois principes fondamentaux du DIH. Nous sommes tous conscients de l'influence de l'Intelligence Artificielle sur l'avenir de nos pays et du monde entier. Nous sommes donc également vigilants sur les conséquences dangereuses du développement des nouvelles technologies. Des travaux supplémentaires sont nécessaires pour aider notre compréhension à évoluer plus profondément sur les LOIS, et le Kazakhstan estime donc qu'il est également important de poursuivre nos discussions jusqu'en 2020.

Libye

(14 Octobre) Ce qui suscite une nouvelle préoccupation, c'est également le développement de nouvelles armes et technologies telles que les drones, les armes autonomes létales et les cyberarmes. Ces armes sont développées très rapidement et cela peut entraîner des menaces à la paix et à la sécurité, surtout si ces technologies sont à la disposition de groupes et d'organisations illégaux. Il nous incombe donc d'accorder plus d'attention à ces questions.

Liechtenstein

(17 Octobre). Les développements techniques indiquent clairement la nécessité d'une nouvelle réglementation dans le domaine des systèmes d'armes létaux autonomes, sous la forme de normes contraignantes garantissant juridiquement une composante humaine dans les processus décisionnels de ces systèmes. Un élément de contrôle humain significatif tout au long du cycle de vie des systèmes d'armes létaux autonomes est essentiel et contribue à garantir le respect du droit applicable, y compris le droit international humanitaire. Le Liechtenstein soutient la Déclaration sur les systèmes d'armes létales autonomes (LAWS) car elle définit un terrain d'entente important pour faire avancer ce programme. Porter les discussions menées par le Groupe d'experts gouvernementaux à l'Assemblée générale pourrait être à la mesure de l'urgence que le Secrétaire général et de nombreux États attachent à cette question.

Lituanie

(25 octobre) Nous sommes convaincus que les discussions sur les nouvelles technologies et les armes conventionnelles resteront dans le cadre de la CCAC.

Mexique

(24 octobre) Nous réitérons également la nécessité pour la communauté internationale de déterminer la future filière des systèmes d'armes létales autonomes et le risque que ces armes représentent si elles ne sont soumises à aucun contrôle humain substantiel.

Myanmar (Birmanie)

(25 Octobre) Dans le monde actuel des progrès technologiques, de nouveaux types d'armes suscitent des inquiétudes croissantes, telles que les systèmes d'armes autonomes létaux et leur pouvoir destructeur. Le Myanmar a participé en tant qu'observateur aux réunions du GGE en 2019. Nous remercions les membres du GGE pour leur travail acharné.

Namibie

(24 octobre) Nous sommes favorables à un protocole interdisant les armes autonomes létales. De même, une réglementation est requise pour l'utilisation d'armes dotées de certaines capacités autonomes, notamment les drones militaires. Ces types d'armes sont totalement incompatibles avec le droit international humanitaire. Enfin, nous espérons que la Première Commission donnera l'impulsion nécessaire aux négociations à Genève du Groupe d'experts gouvernementaux à composition non limitée sur les technologies émergentes dans le domaine des systèmes d'armes létaux autonomes.

Pays-Bas

(14 Octobre) En ce qui concerne les systèmes d'armes létales autonomes : là encore, le multilatéralisme est essentiel. Nous saluons le travail important du GGE sur cette question ; les Pays-Bas se félicitent des résultats des sessions de cette année. Cependant, il reste encore beaucoup de travail à faire et nous espérons donc voir le mandat renouvelé en novembre.

(25 Octobre) Tout en reconnaissant les nombreux avantages potentiels d'une autonomie accrue des systèmes d'armes, nous ne pouvons fermer les yeux sur les risques potentiels. Nous continuerons d'insister pour que les humains exercent un contrôle significatif et restent responsables à tout moment. Nous nous félicitons des principes convenus par les LOIS du GGE en août et sommes impatients de poursuivre notre travail à cet égard, en mettant l'accent sur l'application du droit international existant.

Pakistan

(29 Octobre) Le développement de systèmes d'armes létales autonomes ou LAWS est devenu une préoccupation majeure. Les LOIS sont décrites à juste titre comme la prochaine révolution dans les affaires militaires qui changerait fondamentalement la nature de la guerre. Leur introduction abaisserait le seuil des conflits armés et affecterait les progrès en matière de désarmement et de non-prolifération. Tout système d'armes qui délègue les décisions de vie ou de mort à des machines est par nature contraire à l'éthique et ne peut être pleinement conforme au DIH. La question des LOIS n'a pas seulement des dimensions juridiques, éthiques et techniques, mais a également de sérieuses implications pour la sécurité régionale et mondiale. Les développements dans le domaine de l'IA doivent être régulés de manière appropriée dans toutes ses dimensions. Ils ne doivent pas devancer l'évolution des réglementations qui les régissent. Le Pakistan soutient donc l'élaboration d'un instrument international juridiquement contraignant stipulant des interdictions et des réglementations appropriées sur les LOIS. Le processus lancé il y a six ans dans le cadre de la CCAC ne peut être pérennisé que s'il donne des résultats concrets, tenant compte des préoccupations de tous les États. Outre la CCAC, les dimensions de sécurité internationale des LOIS devraient être traitées de manière exhaustive par le Mécanisme de désarmement des Nations Unies, y compris par la CD.

Pologne

(11 Octobre) Les technologies émergentes et perturbatrices permettent de nouvelles méthodes et moyens de guerre, soulevant des questions fondamentales qui transcendent les concepts traditionnels des relations internationales et du droit international. L'accélération du développement technologique et la prolifération de nouveaux systèmes remettent en question les cadres réglementaires multilatéraux et les processus intergouvernementaux. Du point de vue de la paix et de la sécurité, on s'inquiète de la capacité des nouvelles armes à déstabiliser les relations de sécurité et à accroître l'imprévisibilité. Ce pourrait être le cas par exemple des armes hypersoniques ou des systèmes anti-satellites. Il existe des inquiétudes quant au potentiel des nouvelles technologies à être utilisées pour mener des activités malveillantes, qui sont en deçà des seuils traditionnels d'utilisation de la force armée, comme l'illustrent les exemples récents de guerre hybride. En raison de l'évolution rapide des défis liés à la technologie, les instruments juridiquement contraignants pourraient ne pas nous apporter de solutions adéquates. Nous devrions plutôt rechercher des solutions plus pragmatiques, à commencer par une transparence accrue et des mesures de confiance.

(24 octobre) Le développement des capacités militaires de demain requiert une attention particulière. Il fait également référence aux systèmes d'armes autonomes létaux, car l'application universelle de l'intelligence artificielle est encore l'avenir. Nous devons veiller à ce que son développement, sa mise en œuvre et son utilisation possible restent conformes au droit international, en particulier au droit international humanitaire.

Portugal

(14 octobre) Concernant les menaces nouvelles et émergentes liées aux systèmes d'armes autonomes létaux, au cyberespace et à la militarisation de l'espace extra-atmosphérique, nous devrions encourager la mise en œuvre de normes de comportement responsable des États, de transparence et de respect du droit international, des droits de l'homme et de l'aide humanitaire internationale. loi. Le Portugal se félicite des résultats de la session 2019 du GGE sur les LOIS.

(24 Octobre) Le Portugal se félicite également des résultats de la session 2019 du GGE LOIS.

République de Corée

(24 octobre) Nous nous félicitons des progrès réalisés cette année par le Groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes dans le cadre de la CCAC. Nous espérons que les efforts collectifs à travers le processus GGE jusqu'à ce qu'un consensus sur les cadres normatifs et opérationnels sur les technologies émergentes dans le domaine des LAWS soit atteint.

Russie

(25 octobre) Nous continuons d'adopter une approche sceptique quant aux perspectives d'un examen accéléré et surtout de l'adoption de toute décision sur les systèmes d'armes létaux autonomes. Nos raisons sont simples. Il y a un manque de modèles fonctionnels ou d'échantillons de tels systèmes. Pour cette raison, il existe une incapacité évidente à parvenir à une compréhension commune concernant les caractéristiques et les concepts de base relatifs aux systèmes d'armes létaux autonomes. On ne peut pas non plus ignorer les importantes disparités de points de vue entre les participants aux discussions sur le sujet. Cependant, nous avons fait preuve d'une approche constructive et nous soutenons la discussion en cours sur ce sujet au sein du Groupe d'experts gouvernementaux compétent.

Saint Marin

(16 octobre) Nous devons également réfléchir à l'utilisation de drones armés et d'armes totalement autonomes, domaines dans lesquels les normes internationales devraient être discutées et développées. Il existe de profonds doutes éthiques et juridiques qui doivent être résolus. Saint-Marin estime qu'un contrôle humain significatif est nécessaire sur les décisions de vie ou de mort.

Afrique du Sud

(24 Octobre) L'Afrique du Sud réaffirme son attachement à la Convention sur certaines armes classiques (CCAC) et aux principes humanitaires qui y sont consacrés. Nous attachons une grande importance à cette Convention-cadre, comme en témoigne notre ratification de tous les Protocoles annexés à la Convention. Nous réaffirmons également notre soutien aux travaux du Groupe d'experts gouvernementaux à composition non limitée (GGE) pour discuter des technologies émergentes dans le domaine des systèmes d'armes létales autonomes (LAWS).

Espagne

(15 Octobre) Le Groupe d'experts gouvernementaux sur les systèmes d'armes létaux autonomes a, lors de sa session de 2019, jeté les bases de progrès dans ce domaine. Nous maintenons notre proposition d'établir un code de conduite qui comprend des mesures de transparence, d'instauration de la confiance et d'échange d'informations et de bonnes pratiques, y compris les avancées possibles dans le domaine de l'intelligence artificielle.

(25 Octobre) Le développement technologique pose de nouveaux défis dans le domaine des armes classiques. C'est le cas des armes autonomes dites létales. Dès qu'ils transcendent le droit international humanitaire actuel, fondé sur l'adoption de décisions conflictuelles par des humains, nous devons nous efforcer de définir un cadre juridique adéquat qui, sans porter atteinte aux intérêts légitimes de sécurité de chaque pays, garantisse le maintien des principes directeurs de la droit humanitaire. L'Espagne est favorable à l'établissement d'une déclaration politique et d'un éventuel code de conduite comprenant des mesures de transparence et de confiance, l'échange d'informations et les meilleures pratiques dans ce domaine.

Sri Lanka

(11 Octobre) Le Sri Lanka soutient les discussions en cours dans le cadre de la CCW GGE sur les systèmes d'armes létales autonomes (LAWS) et encourage la poursuite du processus GGE. Tout en reconnaissant les avantages positifs qui pourraient découler de la nature à double usage de la technologie, les nouveaux développements technologiques, notamment l'impression 3D, la biologie synthétique, l'intelligence artificielle et le développement de lois dépourvues de tout contrôle humain ont créé des risques et des défis sans précédent pour l'humanité. Ce sont des questions qui, si elles ne sont pas réglementées, peuvent menacer la paix et la sécurité internationales. Nous encourageons les États parties à la CCAC à approfondir et à accélérer la discussion au sein du GGE pour traiter de toute urgence les questions d'un éventuel développement et déploiement de LAWS. Compte tenu de la manière croissante dont les acteurs non étatiques et les éléments criminels sont en mesure d'acquérir des armes de plus en plus sophistiquées, nous devons être conscients de la période que posent ces nouvelles technologies et armes, lorsqu'elles tombent entre de mauvaises mains. C'est dans ce contexte que nous encourageons les États ayant des capacités à développer des armes autonomes à prendre des mesures immédiates en plaçant des moratoires nationaux, en tant que mesure de régulation temporaire, et à s'engager pleinement dans les discussions du GGE. Sri Lanka, cependant, appelle à la négociation d'un cadre juridique contraignant, qui, entre autres, prévoit des normes réglementaires avec un contrôle humain significatif comme élément central.

(25 octobre) Tout en reconnaissant les avantages qui pourraient découler de la double utilisation et de la double nature des nouvelles technologies et des nouveaux développements, notamment l'impression 3D, la biologie synthétique, l'intelligence artificielle (IA) et le développement de systèmes d'armes autonomes létaux, communément appelés robots tueurs, dépourvus de tout contrôle humain, ont créé des risques et des défis sans précédent pour l'humanité. Ce sont des facteurs qui, s'ils ne sont pas liés, peuvent menacer la paix et la sécurité internationales. Nous encourageons les États parties à la CCW à approfondir et à accélérer les discussions au sein du GGE pour aborder cette question du développement et du déploiement possibles des LAWS. Il y a un besoin crucial de négociation d'un instrument juridique contraignant qui prévoit des normes militaires dont le contrôle humain significatif est un élément central.

Suisse

(14 Octobre) En ce qui concerne les systèmes d'armes létaux autonomes, les travaux entrepris dans le cadre de la Convention sur certaines armes classiques (CCW) ont déjà clarifié certains éléments clés, notamment que le droit international humanitaire s'applique pleinement à ces armes et que l'interaction homme-machine est une dimension importante. Cependant, des efforts importants seront encore nécessaires pour clarifier certains aspects du cadre normatif et opérationnel pour l'utilisation de ces armes.

(23 Octobre) Si nous nous félicitons des progrès réalisés par le groupe d'experts gouvernementaux COW sur les systèmes d'armes létales autonomes (LAWS), nous pensons qu'il doit intensifier ses efforts pour obtenir des résultats plus conséquents. Pour que le Groupe tire le meilleur parti du temps limité dont il dispose, il devrait concentrer son attention sur l'élaboration de mesures concrètes qui clarifient le cadre opérationnel et normatif régissant ces armes afin de mieux circonscrire les défis que ces armes posent.

Turquie

(25 Octobre) Des questions telles que les dispositifs explosifs improvisés (LED) et les systèmes d'armes létales autonomes (LAWS) continuent d'être importantes.

Royaume Uni

(23 octobre) Nous nous félicitons des progrès réalisés cette année par le GGE de la CCW sur les systèmes d'armes létaux autonomes. Nous attendons avec impatience l'approbation formelle des principes directeurs affirmés par le GGE lors de la réunion des Hautes Parties contractantes de cette année, et nous nous félicitons de la poursuite du mandat du GGE jusqu'à la Conférence d'examen de 2021.

États-Unis

(23 Octobre) Certains États ont fait part de leurs préoccupations concernant les systèmes d'armes létales autonomes (LAWS). Nous nous sommes engagés dans la Convention sur certaines armes classiques (CCW) GGE sur les technologies émergentes dans le domaine des lois depuis sa création en 2017 et sommes prêts à continuer. Le GGE a fait des progrès significatifs sur ce sujet complexe, et nous exhortons les Hautes Parties contractantes à la CCW à approuver les recommandations du rapport 2019 du GGE, en particulier pour poursuivre les travaux du GGE jusqu'en 2021. En tant que communauté, nous devons travailler pour mieux comprendre les les risques et avantages potentiels que présentent les armes dotées de fonctions autonomes en termes de respect du droit international humanitaire (DIH).

Union européenne

(23 Octobre) Sur le thème des technologies émergentes dans le domaine des systèmes d'armes létaux autonomes, l'UE se félicite des résultats de la session de 2019 du groupe d'experts gouvernementaux à composition non limitée sur les systèmes d'armes létales autonomes (GGE LAWS) comme une bonne base pour de nouveaux progrès , notamment l'accord sur les 11 principes directeurs et l'importance de l'interaction homme-machine. Nous soulignons que les êtres humains doivent prendre les décisions concernant le recours à la force meurtrière, exercer un contrôle sur les systèmes d'armes meurtrières qu'ils utilisent et rester responsables des décisions concernant la vie ou la mort afin de garantir le respect du droit international, en particulier du droit international humanitaire. et le droit international des droits de l'homme. Nous appelons toutes les Hautes Parties contractantes à s'engager de manière constructive afin de convenir de recommandations de fond sur les aspects d'un cadre normatif et opérationnel avant la Conférence d'examen de la CCAC de 2021. Nous rappelons que la CCW est le forum international pertinent à cet égard combinant l'expertise juridique et militaire et impliquant le secteur privé et la société civile. La CCAC doit rester réactive aux évolutions rapides dans le domaine de la technologie des armes, être en mesure de les traiter de manière adéquate et veiller à ce que les cadres juridiques internationaux restent appropriés.

Mouvement des non-alignés (NAM)

(10 Octobre) Il est urgent de rechercher un instrument juridiquement contraignant sur les systèmes d'armes létales autonomes (LAWS). Les questions entourant les LOIS doivent être débattues de manière approfondie conformément au droit international, y compris le droit international humanitaire et le droit international des droits de l'homme. Les États du MNA parties à la Convention sur certaines armes classiques (CCW) se félicitent de l'adoption par consensus du rapport 2019 du GGE sur les LOIS.

(24 octobre) Les systèmes d'armes létales autonomes devraient être soigneusement examinés et examinés dans le contexte de l'engagement envers le droit international, y compris le droit international humanitaire et le droit international des droits de l'homme. À cet égard, les États membres du MNA parties à la CCAC ont convenu qu'il était urgent de rechercher un instrument juridiquement contraignant sur les LOIS. 

Les pays nordiques

(10 Octobre) Nous nous félicitons des progrès réalisés sur les systèmes d'armes létales autonomes au sein du Groupe d'experts gouvernementaux et attendons avec intérêt la poursuite des travaux dans le cadre de la CCAC, le cadre approprié pour cette question.

(23 Octobre) Le Groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes (LAWS) a été un lieu extrêmement précieux pour les travaux internationaux sur ce sujet multiforme et exceptionnellement complexe du contrôle des armements. Des progrès ont en effet été accomplis, y compris sur les désormais 11 Principes directeurs. Le strict respect du droit international, et en particulier du droit international humanitaire, est et doit continuer d'être la pierre angulaire de toute utilisation d'armes. Les Hautes Parties contractantes devraient saisir l'occasion pour examiner et clarifier le cadre normatif et opérationnel des LOIS. Cela devrait être fait au sein du GGE de Genève, que nous considérons comme le forum approprié pour ce sujet.

Marie

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous