image de héros de menu
AOAV IGw AWS FINAL 150ppi_LR

75e Assemblée des Nations Unies

AOAV IGw AWS FINAL 150ppi_LR

Les inquiétudes concernant les robots tueurs ont figuré en bonne place lors du segment d'ouverture de haut niveau de la 75e session historique de l'Assemblée générale des Nations Unies cette année.

Pape François averti que les systèmes d'armes autonomes létaux "modifieraient de manière irréversible la nature de la guerre, la détachant davantage de l'action humaine". Il a appelé les États à « rompre avec le climat actuel de méfiance » qui conduit à « une érosion du multilatéralisme, d'autant plus grave à la lumière du développement de nouvelles formes de technologie militaire ».

Le discours du pape à l'UNGA marque la première fois qu'il commente explicitement les robots tueurs, indiquant que le Vatican se prépare peut-être à intensifier son travail à cet égard. Le Saint-Siège d'abord appeler pour une interdiction des systèmes d'armes létales autonomes en mai 2014.

In son adresse à l'UNGA, le ministre autrichien des Affaires étrangères, Alexander Schallenberg, a souscrit aux fortes inquiétudes du secrétaire général de l'ONU concernant le fait de donner « aux machines le pouvoir de décider qui vit et qui meurt ». Schallenberg a déclaré : « Nous devons agir maintenant, avant que la survie des civils dans une zone de conflit ne soit déterminée par un algorithme et avant que toutes les contraintes imposées par le droit international humanitaire ne deviennent redondantes et que les décisions soient prises par des robots tueurs sans aucun contrôle humain ou éthique. préoccupations. »

Schallenberg a invité tous les États à Vienne en 2021 pour participer à une réunion internationale « pour aborder cette question urgente ». Plus tôt en 2020, le Brésil a organisé une réunion internationale pour discuter de la manière de traiter les systèmes d'armes autonomes, tandis que l'Allemagne a organisé la première réunion virtuelle sur le sujet au début de la pandémie de COVID-19. Le Japon devrait également tenir sa réunion sur les robots tueurs en décembre 2020.

Première Commission de l'AGNU

La 75e session de la Première Commission de l'AGNU sur le désarmement et la sécurité internationale, ouverte le 9 octobre, s'est également tenue virtuellement ainsi qu'en personne à distance physique. Lors de l'ouverture, le Haut Représentant des Nations Unies pour les affaires de désarmement, Izumi Nakamitsu, a averti que la pandémie mondiale n'a pas ralenti "le développement incessant de nouvelles technologies" et a exhorté les nations à faire des progrès diplomatiques, en particulier pour s'assurer que "les humains gardent le contrôle des armes et l'usage de la force. »

Environ trois douzaines d'États ont évoqué des robots tueurs dans leurs déclarations à la 75e session de l'Assemblée générale des Nations Unies cette année - énumérés ci-dessous - tandis que des dizaines d'autres se sont alignés sur les déclarations de l'Union européenne, du Mouvement des non-alignés et du groupe nordique. De nombreux États qui ont pris la parole ont exprimé leur inquiétude face à la perspective de systèmes d'armes autonomes létaux et ont attiré l'attention sur la nécessité d'une action multilatérale.

Certains ont réitéré leur vif désir d'un nouveau traité international pour interdire et restreindre les robots tueurs. Le Brésil a décrit un instrument juridiquement contraignant comme « la meilleure option pour assurer le contrôle humain » et a averti que la possibilité d'en adopter un se rétrécissait rapidement. La Chine a recommandé à la CCW de poursuivre ses délibérations sur les robots tueurs « dans le but de négocier un instrument international juridiquement contraignant ». Les Philippines ont identifié la nécessité d'un traité international « robuste et pérenne » sur les robots tueurs.

Plusieurs États, pour la plupart européens, ont exhorté la poursuite des délibérations de la CCW sur les robots tueurs et se sont félicités d'un ensemble de principes directeurs élaborés en 2018 et 2019 pour guider les pourparlers de la CCW. Plusieurs États ont explicitement exhorté les États à progresser sur les préoccupations concernant les robots tueurs lors de la sixième conférence d'examen de la CCW en décembre 2021, notamment le Brésil, la Finlande, la France, l'Islande, les Pays-Bas et l'UE.

L'Albanie et l'Islande ont parlé pour la première fois de la question des robots tueurs à l'UNGA, poussant le nombre d'États qui ont commenté les robots tueurs à un total de 99.

Le Comité international de la Croix-Rouge (CICR) a averti que « l'érosion du contrôle humain sur l'utilisation de la force crée des risques évidents pour les civils et les combattants qui ne combattent plus, des défis liés au respect du DIH et des préoccupations éthiques fondamentales concernant le fait de quitter la vie. -et-des décisions de mort pour les capteurs et les logiciels. Le CICR estime que « des limites convenues au niveau international sur les armes autonomes doivent être établies de toute urgence ».

La Campagne pour arrêter les robots tueurs a exhorté les États à lancer des négociations sur un traité international interdisant les armes entièrement autonomes, afin de « s'assurer que les technologies futures sont développées et utilisées pour promouvoir la paix et le respect de la dignité inhérente de chacun ».

Personnel de campagne fourni un chapitre pour le livre d'information annuel du premier comité de la WILPF Reaching Critical Will ainsi que des articles pour l'hebdomadaire Moniteur du premier comité.

Déclarations de pays

Lors de la Première Commission de l'AGNU, 37 États ont fait référence aux robots tueurs dans leurs déclarations : Albanie, Australie, Autriche, Bulgarie, Brésil, Chine, Colombie, Costa Rica, Cuba, Danemark, Équateur, Estonie, France, Finlande, Allemagne, Grèce, Islande, Inde, Irlande, Italie, Japon, Liechtenstein, Pérou, Philippines, Népal, Pays-Bas, Macédoine du Nord, Pologne, Portugal, République de Corée, Saint-Marin, Slovaquie, Espagne, Sri Lanka, Suède, Suisse, Turquie, Venezuela. Il y a eu des déclarations de groupe de l'Union européenne, du Mouvement des non-alignés et des pays nordiques ainsi que de la Campagne et du CICR. Les extraits pertinents sont fournis ci-dessous

Auparavant, 42 États avaient fait part de leurs préoccupations concernant les robots tueurs à l'UNGA en 2019, 49 l'ont fait en 2018, En 34 2017, En 36 2016, En 32 2015, En 23 2014et 16 po 2013.

Albanie

(16 Octobre) Nous devons poursuivre nos délibérations sur des questions telles que les systèmes d'armes létales autonomes, l'espace extra-atmosphérique et la cybersécurité et contrer les menaces posées par le trafic illicite d'armes légères et de petit calibre.

Australie

(12 Octobre) Les technologies nouvelles ou émergentes avec une intelligence artificielle (AI) avancée et des fonctions autonomes améliorées deviennent de plus en plus répandues dans les secteurs civils et militaires. L'Australie reconnaît la valeur et les avantages potentiels qu'Al apporte aux technologies militaires et civiles. L'Australie apprécie le travail du Groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes qui a examiné les implications techniques, juridiques et internationales de la sécurité du développement potentiel d'armes autonomes.

Autriche

(12 Octobre) Comme nous le savons tous, les progrès de la technologie et de l'intelligence artificielle ne s'étendent pas seulement à nos foyers, mais s'étendent également à leur application dans les systèmes d'armes, avec des conséquences potentiellement inacceptables. Nous ne pouvons pas permettre que des systèmes d'armes létales autonomes (LAWS) soient développés et déployés dans des conflits armés, en utilisant la force létale sans contrôle humain sur les fonctions critiques. Cela saperait fondamentalement le droit international humanitaire et les normes éthiques. Nous sommes d'accord avec l'évaluation du Secrétaire général selon laquelle un tel scénario serait « politiquement inacceptable et moralement répugnant » – le moment est venu de l'empêcher par une norme juridiquement contraignante. Pour aborder plus en détail la question des LOIS, l'Autriche organisera une conférence internationale en 2021 - nous vous invitons tous à y participer, en espérant que la situation sanitaire mondiale permette qu'une telle conférence ait lieu.

Brasil

(12 Octobre) La fenêtre historique pour l'adoption d'un cadre juridique approprié pour réglementer la question des systèmes d'armes létaux autonomes se rétrécit rapidement. Le Brésil estime qu'un instrument juridiquement contraignant est la meilleure option pour assurer le contrôle humain des fonctions critiques dans les systèmes autonomes, ce qui est primordial pour prévenir les violations du droit international. Tout au long de l'année dernière, le Brésil a organisé ou co-parrainé un certain nombre d'initiatives visant à promouvoir le dialogue et une meilleure compréhension commune sur la question des LAWS, y compris un exercice sur table sur l'élément humain et les systèmes d'armes autonomes pour l'Amérique latine et les Caraïbes, menées par l'UNIDIR début septembre avec le soutien du ministère brésilien des Affaires étrangères, ainsi que le séminaire de Rio sur les systèmes d'armes autonomes, en février dernier. Ces nombreuses initiatives lancées par le Brésil devraient apporter une contribution précieuse aux débats du GGE/LAWS et à ses recommandations à la Conférence d'examen de 2021 de la CCAC.

Bulgarie

(16 Octobre) La République de Bulgarie participe activement au Groupe d'experts gouvernementaux (GGE) sur les systèmes d'armes létales autonomes en vue d'élaborer et d'adopter un cadre normatif et opérationnel efficace et complet pour contrôler leur production, leur utilisation et leur transfert. Nous pensons que les 11 principes directeurs constituent une excellente base à cet égard.

Chine

(12 Octobre) La Chine soutient également la poursuite des discussions approfondies sur les systèmes d'armes létales autonomes (LAWS) dans le cadre de la Convention sur certaines armes classiques (CCW), dans le but de négocier un instrument international juridiquement contraignant.

Colombie

(12 Octobre). Nous regrettons que la Conférence du désarmement n'ait fait aucun progrès jusqu'à présent. Cela nous place dans un scénario de manque de réglementation et de normativité face au développement vertigineux de l'intelligence artificielle et d'autres technologies appliquées à la conception et au développement de nouveaux types d'armes. Les nouvelles technologies doivent être mises en œuvre sous les préceptes du principe d'humanité. S'ils sont acceptés et utilisés, leur déploiement doit donner la priorité à l'atténuation des dommages superflus ou des souffrances inutiles pour les personnes impliquées dans un conflit armé et, bien sûr, pour les personnes protégées.

Costa Rica

(9 Octobre) Le contrôle humain sur l'usage de la force doit rester constant. Nous appelons à un renforcement de nos travaux sur la Convention sur certaines armes classiques (CCW), car l'absence de règles et d'interprétations communes concernant l'application du droit international augmente le risque que nous soyons un jour confrontés à des systèmes d'armes autonomes qui ne peuvent pas être utilisés dans conformément aux principes humanitaires et au droit international. Le Costa Rica réitère son soutien aux travaux de la CCAC visant à adopter un instrument juridiquement contraignant à cet égard.

Cuba

(12 Octobre) Nous continuerons de prôner l'adoption, dans les plus brefs délais, d'un protocole interdisant les armes létales autonomes, avant même qu'elles ne soient fabriquées à grande échelle. En outre, des réglementations sont nécessaires pour l'utilisation d'armes dotées de certaines capacités autonomes ; en particulier les drones de combat militaires, qui font un grand nombre de victimes civiles.

Danemark

(19 Octobre). Le Danemark soutient les travaux du GGE sur les systèmes d'armes létales autonomes (LAWS), en particulier les 11 principes directeurs. Dans notre travail sur ces principes, nous devrions en particulier viser à développer une compréhension du type et du degré d'interaction homme-machine

Équateur

(12 Octobre) Nous rejetons l'utilisation et l'amélioration croissantes des drones d'artillerie, ainsi que des armes autonomes létales. La militarisation de l'intelligence artificielle présente des défis pour la sécurité internationale, la transparence, le contrôle, la proportionnalité et la responsabilité.

Estonie

(15 Octobre). Nous soutenons les efforts visant à universaliser et à renforcer la Convention sur certaines armes classiques. En ce qui concerne les technologies émergentes dans le domaine des systèmes d'armes létales autonomes, nous nous félicitons de l'accord sur les 11 principes directeurs l'année dernière et du démarrage du groupe 2020 d'experts gouvernementaux sur les LOIS. Nous devrions viser à expliquer comment le droit international, en particulier le droit international humanitaire, s'applique aux systèmes d'armes dotés de fonctions autonomes, explorer comment les États peuvent mettre en œuvre des mécanismes de commandement et de contrôle, la responsabilité individuelle et vérifier que les LOIS sont utilisées conformément au droit international. Nous sommes convaincus que la CCAC est le forum approprié pour de telles discussions.

Finlande

(9 Octobre) Dans les travaux du Groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes, notre objectif est un cadre normatif et opérationnel efficace, adopté par consensus par toutes les parties au processus. Il s'agit d'un objectif ambitieux, mais auquel la Finlande s'efforcera pleinement. Les 11 Principes directeurs sont une excellente base sur laquelle les États peuvent continuer à construire un résultat pratique. Nous nous félicitons de la poursuite des travaux du GGE et des discussions constructives qui ont eu lieu lors de la réunion de septembre. L'objectif est toujours d'obtenir des résultats concrets d'ici 2021. Avec de la patience et de la flexibilité de part et d'autre, nous pourrons parvenir à un résultat auquel toutes les parties pourront s'engager. Nous devrions nous efforcer de rien de moins.

France

(Août 16) Dans le domaine des armements conventionnels, la question des systèmes d'armes basés sur les technologies émergentes dans le domaine des SALA est d'une importance majeure et nous nous félicitons de l'adoption des « Onze Principes directeurs » en 2019 par les Hautes Parties contractantes à la Convention sur certaines Armes conventionnelles. Nous sommes prêts à travailler, en vue de la Conférence d'examen de la CCAC en 2021, pour développer davantage ces lignes directrices et clarifier comment elles peuvent servir de base à l'élaboration d'un cadre opérationnel et normatif solide mais également universellement accepté.

Allemagne

(12 Octobre) Nous continuons de soutenir les travaux menés dans le cadre de la Convention sur certaines armes classiques [CCW] en vue d'un cadre normatif et opérationnel sur les systèmes d'armes létales autonomes [LAWS] et saluons l'esprit productif de la réunion de cette année du Groupe d'experts gouvernementaux à Genève. Nous espérons une poursuite inclusive du processus GGE compte tenu des restrictions actuelles.

Grèce

(16 Octobre) Il y a eu de nombreux développements dans le domaine du désarmement des armes classiques depuis la 74e Première Commission. Je voudrais souligner brièvement les délibérations constructives, dans le cadre de la CCW, sur les systèmes d'armes létales autonomes (LAWS) sous la présidence de l'ambassadeur Ljupco Jivan Gjorgjinski de Macédoine du Nord. Nous pensons que d'autres discussions concernant les aspects du cadre normatif et opérationnel pour relever les défis découlant de l'incorporation de technologies émergentes dans le domaine des LAWS, devraient être basées sur la mise en œuvre des 11 principes directeurs convenus au niveau national. Dans ce contexte, nous pensons que la CCW fournit le cadre approprié puisqu'elle cherche à trouver l'équilibre entre la nécessité militaire et les préoccupations humanitaires.

Guatemala

(9 Octobre). En plus des nouvelles technologies, l'intelligence artificielle est une autre question que nous ne pouvons ignorer, et c'est pourquoi nous pensons que la Conférence des États parties à la Convention sur certaines armes classiques est un forum approprié pour continuer à travailler sur le sujet, en particulier dans le création d'un instrument qui interdit les robots tueurs communément appelés ou armes autonomes létales.

Islande

(9 Octobre) Les nouveaux défis et frontières dans le domaine du désarmement, y compris l'augmentation des activités dans l'espace extra-atmosphérique et les armes autonomes létales, doivent être abordés de manière cohérente, en s'appuyant sur le droit international, les normes et les conventions 5 existants. Toute traduction de l'intérêt croissant pour les activités dans l'espace extra-atmosphérique en course aux armements ou, d'ailleurs, en militarisation de l'espace est inacceptable. Nous sommes encouragés par les travaux du GGE sur les armes létales autonomes, en particulier son consensus sur les 11 Principes directeurs. Nous espérons des résultats concrets basés sur ces principes à temps pour la Conférence d'examen de la CCAC fin 2021.

Inde

(14 Octobre) L'Inde attache une haute priorité à la CCAC, qui constitue l'un des instruments juridiques les plus importants pour répondre aux exigences de légitime défense des États tout en trouvant un équilibre avec les préoccupations humanitaires. Dans ce contexte, l'Inde a participé activement aux délibérations du GGE sur les LOIS dans le cadre de la CCAC et attend avec intérêt des recommandations concrètes qui seront approuvées par consensus.

Irlande

(12 Octobre) La nature rapide des progrès technologiques soulève un certain nombre de questions juridiques, politiques, militaires et éthiques difficiles. Nous sommes d'avis que travailler pour parvenir à un consensus au sein du système des Nations Unies reste le moyen le plus efficace de relever les défis émergents posés par les systèmes d'armes létales autonomes. Par conséquent, il est crucial que les pays les plus susceptibles de développer ces nouveaux systèmes d'armes s'engagent de manière significative alors que nous travaillons à l'élaboration d'un cadre normatif. Nous continuerons à travailler au sein du Groupe d'experts gouvernementaux alors que nous abordons les considérables dilemmes éthiques, moraux et juridiques posés par les LOIS.

Italie

(19 Octobre) Nous nous félicitons en particulier des résultats substantiels des travaux du GGE LOIS, avec l'approbation des onze principes directeurs. Compte tenu de l'importance d'appliquer le DIH à tous les systèmes d'armes, nous pensons qu'il est crucial de parvenir à un consensus sur les éléments possibles d'un cadre normatif et opérationnel.

Japon

(16 Octobre) Le Japon se félicite des discussions en cours sur les technologies émergentes dans le domaine des LAWS dans le cadre de la CCAC et continuera également de contribuer à l'effort d'élaboration de règles internationales.

Liechtenstein

(9 Octobre). Le Liechtenstein soutient un nouveau cadre réglementaire pour les systèmes d'armes létaux autonomes, sous la forme de normes juridiquement contraignantes afin de garantir une composante humaine dans les processus décisionnels de ces systèmes. Un élément de contrôle humain significatif tout au long du cycle de vie des systèmes d'armes létaux autonomes est essentiel et contribue à garantir le respect du droit applicable, y compris le droit international humanitaire. L'Alliance pour le multilatéralisme a pris un engagement politique important pour faire avancer ce programme avec sa déclaration sur les 5 systèmes d'armes autonomes (LAWS) mortels, que le Liechtenstein soutient pleinement. En ces temps de fortes tendances nationalistes et d'hostilité à l'égard des approches coopératives et multilatérales du désarmement, de telles initiatives sont des vecteurs bienvenus pour faire avancer nos objectifs communs. L'histoire des Nations Unies est façonnée par des coalitions de volontaires – une perspective réconciliatrice sur le 75e anniversaire de l'ONU contre les difficultés politiques d'aujourd'hui.

Népal

(16 Octobre) Le Népal soutient les cadres normatifs internationaux pour réglementer l'utilisation des technologies de pointe, y compris les drones et les armes autonomes létales.

Netherlands

(9 Octobre) Deuxièmement, les nouvelles technologies offrent de grandes opportunités. Le cyberespace, l'intelligence artificielle et les développements technologiques dans l'espace présentent de nombreux avantages sociétaux et économiques. Cependant, ces technologies à double usage peuvent également générer des problèmes de sécurité. Les cyberopérations malveillantes qui perturbent nos sociétés sont une menace réelle et crédible. De même, nous rejetons le développement de systèmes d'armes entièrement autonomes, qui ne sont pas sous contrôle humain significatif… Les Pays-Bas réitèrent également le rôle essentiel du multilatéralisme concernant les systèmes d'armes létales autonomes (LAWS) en soulignant que de bons progrès ont été réalisés au sein du GGE sur les LAWS en vertu de la Convention sur certaines armes classiques (CCW) en 2019. Les onze principes directeurs reflètent qu'il existe une compréhension commune parmi les États parties que les humains doivent avoir une certaine forme de contrôle sur les armes autonomes pour assurer le respect du droit international humanitaire et du droit international des droits de l'homme. . À la lumière de la sixième Conférence d'examen de la CCAC en 2021, les discussions doivent avancer afin que nous puissions continuer à progresser sur des questions telles que l'interaction « homme-machine ».

Macédoine du Nord

(12 Octobre) Étant donné que le représentant de la Macédoine du Nord préside le GGE sur les LOIS, nous jugeons nécessaire d'aborder brièvement la question des technologies émergentes dans le domaine des systèmes d'armes létaux autonomes. Au cours des dernières années, lors des réunions tenues, y compris la dernière tenue en septembre 2020, de nombreux États ont élaboré leurs points de vue et tous ont reconnu l'importance centrale du contrôle humain sur l'utilisation de la force. Nous voudrions souligner la nécessité de progrès urgents dans ce domaine. Nous espérons que des résultats plus considérables pourront être obtenus lors de la deuxième série de réunions, qui devrait se tenir en novembre 2020.

Pérou

(9 Octobre) Dans le contexte actuel, les technologies nouvelles et en prolifération rapide modifient les conflits contemporains, créant de nouveaux défis pour le droit international humanitaire et des droits de l'homme, ainsi que pour le maintien de la paix et de la sécurité internationales. Je fais référence en particulier aux véhicules aériens sans pilote (UAV) qui sont utilisés comme arme de guerre par des forces armées secrètes et des acteurs non étatiques, et aux systèmes d'armes létales autonomes (SAAL). Dans le premier cas, nous considérons impérative sa réglementation de l'utilisation, du transfert et de la prolifération par la communauté internationale, et dans le second, l'urgence de définir des systèmes d'armes létaux autonomes et d'identifier leurs caractéristiques comme point de départ d'un processus de régulation.

Philippines

(9 Octobre) Les Philippines considèrent la CCW comme le cadre approprié pour faire face aux menaces potentielles découlant des systèmes d'armes létales autonomes (LAWS), y compris l'acquisition possible par des acteurs non étatiques armés. Il est nécessaire de disposer d'un instrument juridiquement contraignant solide et pérenne pour faire face à ces menaces.

Pologne

(12 Octobre) Les technologies émergentes et perturbatrices permettent de nouvelles méthodes et moyens de guerre, soulevant des questions fondamentales qui transcendent les concepts traditionnels des relations internationales et du droit international. Du point de vue de la sécurité, la capacité des nouvelles armes à déstabiliser les relations de sécurité et à accroître l'imprévisibilité suscite des inquiétudes. Ce pourrait être le cas, par exemple, des nouvelles armes hypersoniques sophistiquées ou des systèmes anti-satellites. Il existe des inquiétudes quant au potentiel des nouvelles technologies à être utilisées pour mener des activités malveillantes, qui sont en deçà des seuils traditionnels d'utilisation de la force armée. En raison de la nature en évolution rapide des défis liés à la technologie, les instruments juridiquement contraignants pourraient ne pas nous fournir de solutions adéquates. Nous devrions plutôt rechercher des solutions plus pragmatiques, à commencer par une transparence accrue et des mesures de confiance.

Portugal

(19 Octobre) Concernant les menaces nouvelles et émergentes liées aux armes létales autonomes (LAWS), au cyberespace et à la militarisation de l'espace extra-atmosphérique, nous devons encourager la mise en œuvre de normes de comportement responsable des États, de transparence et de respect du droit international, des droits de l'homme et du droit international humanitaire.

République de Corée

(9 Octobre). La République de Corée est également pleinement attachée à la Convention sur certaines armes classiques (CCW), qui établit un équilibre entre les préoccupations de sécurité et les considérations humanitaires. En particulier, nous nous félicitons des progrès réalisés par le Groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes (GGE LAWS) dans le cadre de la CCAC grâce à l'adoption des 11 principes directeurs. Nous espérons que les efforts collectifs à travers le processus GGE se poursuivront jusqu'à ce qu'un consensus sur les cadres normatifs et opérationnels sur les technologies émergentes soit atteint.

Saint Marin

(19 Octobre). Saint-Marin est également préoccupé par les conséquences de l'application de la technologie et de l'intelligence artificielle dans les systèmes d'armes, qui posent de sérieux doutes juridiques et éthiques. Nous devons donc coopérer et relever les défis émergents liés aux systèmes d'armes létales autonomes.

Slovaquie

(19 Octobre) Le développement technologique rapide pose de nouveaux défis à la communauté internationale, en particulier dans le domaine des systèmes d'armes létales autonomes (LAWS). La Slovaquie soutient les travaux du Groupe d'experts gouvernementaux (GGE) sur les LOIS dans le cadre de la Convention sur certaines armes classiques (CCW). Les 11 principes directeurs convenus sont un pas en avant bienvenu. Les discussions d'experts approfondies et productives au sein du Groupe ont montré que de nouveaux progrès sur cette question sont possibles et nécessaires. Pour avancer vers des aspects du cadre normatif et opérationnel sur les technologies émergentes dans le domaine des LAWS, nous pensons que nous devons approfondir les discussions et rechercher un consensus sur les éléments pertinents des LAWS, y compris l'interaction homme-machine

Espagne

(12 Octobre) En ce qui concerne les systèmes d'armes létaux autonomes, nous continuons de proposer d'établir un code de conduite comprenant des mesures de transparence, d'instauration de la confiance et d'échange d'informations et de bonnes pratiques, avec des avancées possibles liées à l'intelligence artificielle.

Sri Lanka

(14 Octobre) Ayant engagé des discussions au niveau des États sur les systèmes d'armes létales autonomes au cours de sa présidence de la CCW en 2015, qui ont ouvert la voie au Groupe d'experts gouvernementaux (GGE) en 2016, le Sri Lanka soutient les discussions en cours dans le cadre de la CCW GGE sur Systèmes d'armes létales autonomes (LAWS), et encourage la poursuite du processus GGE. Tout en reconnaissant les avantages positifs qui pourraient découler de la nature à double usage de la technologie, les nouveaux développements technologiques, l'intelligence artificielle (IA) - le développement de lois dépourvues de tout contrôle humain ont créé des risques et des défis sans précédent pour l'humanité. À notre avis, la centralité du contrôle humain est fondamentale. La clarté juridique sur les paramètres exacts des limitations prohibitives et permissives grâce à l'adoption d'un nouvel instrument juridiquement contraignant est la seule voie à suivre qui fournirait des limitations juridiques claires sur les systèmes d'armes autonomes tout en complétant et en renforçant les normes de DIH existantes. Le Sri Lanka encourage les États parties à la CCAC à approfondir et à accélérer la discussion au sein du GGE afin de traiter de toute urgence les questions d'un éventuel développement et déploiement de LAWS afin de garantir que nos efforts sur cette question très importante ne soient pas dépassés par la rapidité. réalités mouvantes sur le terrain.

Suède

(14 Octobre)Le développement technologique de plus en plus rapide pose de nouveaux défis dans le domaine du désarmement, de la non-prolifération et de la maîtrise des armements. Il est important de trouver des solutions efficaces qui empêchent le développement indésirable – le domaine des LOIS ne fait pas exception. La Suède est fermement convaincue que le DIH continue de s'appliquer pleinement à tous les systèmes d'armes et que le contrôle humain sur l'usage de la force doit toujours être maintenu. La Suède soutient le travail du GGE sur les LOIS. La CCW est le forum central pour poursuivre les discussions sur ces questions. Les 11 principes directeurs sont un pas en avant bienvenu qui devrait servir de base à de nouveaux progrès. Nous devons continuer à rechercher un consensus autour des éléments centraux des LOIS, notamment ceux liés à ce qui constitue le contrôle humain.

Suisse

(12 Octobre) Le Groupe d'experts gouvernementaux sur les armes autonomes effectue un travail essentiel en cherchant à établir un cadre opérationnel et normatif applicable à ces armes, guidé en cela par l'exigence de se conformer au droit international humanitaire. Le GGE devrait œuvrer à une compréhension commune sur la manière d'assurer le contrôle humain nécessaire sur l'autonomie des systèmes d'armes.

Turquie

(15 Octobre) Des questions telles que les engins explosifs improvisés (EEI) et les systèmes d'armes létales autonomes (LAWS) continuent d'être importantes.

Venezuela

(15 Octobre) Cependant, à la lumière du contexte décrit ci-dessus, et compte tenu des défis palpables pour le droit international, y compris le droit international humanitaire et des droits de l'homme, ainsi que pour le maintien de la paix et de la sécurité internationales, nous exprimons également notre préoccupation face à l'utilisation croissante et amélioration des systèmes d'armes létales autonomes, y compris des véhicules aériens sans pilote, avec lesquels en 2018 dans notre pays une tentative d'assassinat frustrée a été perpétrée contre le président Nicolás Maduro. Ainsi, nous plaidons en faveur de discussions dans lesquelles les considérations éthiques, morales, techniques et juridiques de ces technologies émergentes sont abordées, en vue de l'adoption éventuelle d'un instrument juridiquement contraignant qui fournit un cadre opérationnel et réglementaire en la matière.

Union européenne

(9 Octobre) Nous saluons les résultats de la réunion 2019 des Hautes Parties contractantes à la CCAC, notamment les progrès accomplis dans l'approbation des 11 principes directeurs et le démarrage du Groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes (GGE LAWS) en 2020. En amont de la sixième Conférence d'examen de la CCAC qui se tiendra en 2021, nous soutiendrons le GGE dans la clarification, l'examen et le développement d'aspects du cadre normatif et opérationnel pour les technologies émergentes dans le domaine des LAWS. Nous soulignons que les êtres humains doivent prendre les décisions concernant le recours à la force meurtrière, exercer un contrôle sur les systèmes d'armes meurtrières qu'ils utilisent et rester responsables des décisions concernant le recours à la force afin de garantir le respect du droit international, en particulier du droit international humanitaire. Droit et droit international des droits de l'homme.

Pays nordiques livrés par l'Islande

(9 Octobre). Les pays nordiques soutiennent les travaux du GGE sur les systèmes d'armes létales autonomes (LAWS), en particulier les 11 principes directeurs adoptés par consensus l'année dernière et mis en évidence par conséquent dans la déclaration de l'Alliance pour le multilatéralisme. Il sera important de faire avancer les travaux sur ces principes, en particulier en ce qui concerne l'interaction homme-machine, dans le cadre des travaux du GGE menant à la conférence d'examen de la CCW l'année prochaine. 

Mouvement des non-alignés livré par l'Indonésie

(9 Octobre) Le NAM est d'avis que les systèmes d'armes létales autonomes (LAWS) soulèvent un certain nombre de questions éthiques, juridiques, morales, techniques, ainsi que liées à la paix et à la sécurité internationales, qui devraient être soigneusement débattues et examinées dans le contexte de la conformité aux normes internationales. droit international, y compris le droit international humanitaire et le droit international des droits de l'homme. À cet égard, les États membres du NAM parties à la Convention sur certaines armes classiques (CCW) prennent note de l'adoption par consensus du rapport 2019 du GGE sur les LOIS et ont convenu qu'il était urgent de rechercher un instrument juridiquement contraignant sur LOIS.

Comité international de la Croix-Rouge

(19 Octobre). Les développements au cours des 40 dernières années démontrent que la CCAC est un instrument dynamique qui peut répondre aux progrès de la technologie des armes et à l'évolution des conflits armés, comme le montrent notamment les protocoles sur les armes laser aveuglantes et les restes explosifs de guerre, et le amendement étendant le champ d'application de la CCAC aux conflits armés non internationaux. Aujourd'hui, il est essentiel que la CCW soit à la hauteur de son potentiel, en répondant aux nouveaux progrès de la technologie des armes.

En ce qui concerne les nouvelles technologies, le CICR est préoccupé par l'évolution vers des systèmes d'armes de plus en plus autonomes, entendus comme des systèmes d'armes qui sélectionnent et appliquent la force sur des cibles sans intervention humaine. L'érosion associée du contrôle humain sur l'utilisation de la force crée des risques évidents pour les civils et les combattants qui ne combattent plus, des défis liés au respect du DIH et des préoccupations éthiques fondamentales concernant le fait de laisser les décisions de vie ou de mort aux capteurs et aux logiciels.

Le CICR est convaincu que des limites convenues au niveau international sur les armes autonomes doivent être établies de toute urgence, que ce soit sous la forme de nouvelles règles juridiquement contraignantes, de normes politiques ou de meilleures pratiques. Les développements rapides de la technologie militaire indiquent qu'il ne s'agit pas d'une question pour l'avenir, mais d'une préoccupation pour le présent.

Il est donc encourageant de voir l'accord entre les Hautes Parties contractantes à la CCAC selon lequel le contrôle humain ou l'implication dans l'usage de la force doit être maintenu, et une convergence de vues croissante sur les mesures nécessaires pour l'assurer. En pratique, des contraintes strictes seront nécessaires sur les types de systèmes d'armes autonomes utilisés et les situations dans lesquelles ils sont utilisés. Les mesures visant à assurer le contrôle humain, telles que proposées par le CICR - telles que les limites des types de cibles, les contraintes sur l'environnement d'utilisation et les exigences en matière de surveillance humaine, d'intervention et de désactivation - peuvent éclairer ces limites convenues au niveau international.

Nous assistons aujourd'hui à une adoption rapide de l'intelligence artificielle (IA) et de l'apprentissage automatique pour une variété d'applications militaires, en particulier dans les applications d'«aide à la décision» ou de «prise de décision automatisée» qui «recommandent» qui, ou quoi, attaquer et quand . Le CICR reste convaincu de la nécessité d'une approche centrée sur l'humain qui laisse suffisamment de temps au contrôle et au jugement humains pour appliquer la loi et garantir que l'action humaine est conservée dans les décisions ayant de graves conséquences sur la vie des personnes. L'IA et les systèmes d'apprentissage automatique sont des outils qui devraient être utilisés pour augmenter et améliorer la prise de décision humaine, et non pour la remplacer.

Campagne pour arrêter les robots tueurs

(13 Octobre) Lire la déclaration complète par la Campagne pour arrêter les robots tueurs.

 

Marie

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous