image de héros de menu
AOAV IGw AWS FINAL 150ppi_LR

Conférence de Chatham House

AOAV IGw AWS FINAL 150ppi_LR

La première Chatham House conférence sur les technologies militaires autonomes à Londres les 24 et 25 février a réuni des individus de différentes circonscriptions pour envisager des armes autonomes et la perspective de déléguer le contrôle humain sur les décisions de ciblage et d'attaque aux machines. La Campagne pour arrêter les robots tueurs a eu le plaisir d'assister à cette conférence bien organisée et opportune tenue sous la règle de Chatham House, qui permet aux participants d'utiliser les informations reçues mais pas de révéler l'identité ou l'affiliation du conférencier ou des participants. La conférence a été une occasion utile de discuter de nos préoccupations concernant les armes entièrement autonomes, de fournir des éclaircissements et de répondre aux questions sur l'orientation et les objectifs de notre coalition.

Certains participants ont depuis donné publiquement leur point de vue sur la conférence, notamment Charles Blanchard sur Opinion Juris (4 mars) et Paul Scharre sur le Droit blog (3 March).

Plusieurs représentants de la Campagne pour arrêter les robots tueurs qui ont assisté à la conférence de Chatham House ont apporté leur contribution à cette publication Web, notamment sur les réflexions publiées par Blanchard et Scharre. Les principaux porte-parole de la campagne, la lauréate du prix Nobel de la paix Jody Williams, le roboticien professeur Noel Sharkey, et Human Rights Watch le directeur des armes Steve Goose s'est adressé à la conférence, tandis que des militants des organisations non gouvernementales étaient présents Action contre la violence armée, Amnesty International, Article 36, Human Rights Watch, Comité international pour le contrôle des armes robotiqueset PAX (anciennement IKV Pax Christi).

La perspective de la Campagne pour arrêter les robots tueurs et son appel à une interdiction des armes entièrement autonomes ont été entendus tout au long de la conférence, mais pour s'assurer que les principales préoccupations ne sont pas minimisées et dans l'esprit de favoriser une compréhension commune sur cette nouvelle question d'intérêt international, nous avons les commentaires suivants sur les réflexions de Blanchard et Scharre.

Blanchard, un ancien avocat général de l'US Air Force, a discours public sur le thème « Technologies autonomes : une force pour le bien ? à Chatham House avec notre porte-parole de campagne Jody Williams, qui a reçu le prix Nobel de la paix 1997 avec la Campagne internationale pour interdire les mines terrestres (ICBL). Il est maintenant associé chez Arnold & Porter LLP, un cabinet d'avocats de Washington DC qui a activement soutenu la négociation du Traité sur les droits des personnes handicapées de 2006 ainsi que les efforts visant à inclure des dispositions d'assistance aux victimes dans le Traité d'interdiction des mines de 1997.

Blanchard considère les « points de vue philosophiques profonds » dans son article, qui examine certains des « disputes » lors de la conférence de Chatham House concernant l'appel à l'interdiction des armes entièrement autonomes afin de consacrer le principe selon lequel seuls les humains devraient décider de tuer d'autres humains. Blanchard craint que « plus de morts » ne résultent d'une interdiction parce que les armes autonomes pourraient être « plus capables que les humains » de se conformer aux lois de la guerre.

Bien que nous ne soyons pas d'accord avec la position sceptique de Blanchard quant aux avantages que pourrait apporter une interdiction des armes entièrement autonomes, nous nous félicitons de sa reconnaissance du contre-argument selon lequel laisser une machine décider qui tuer violerait les notions de dignité humaine. L'évaluation de Blanchard de la viabilité d'une interdiction illustre comment le débat a beaucoup avancé ces derniers mois au point qu'une interdiction est sérieusement envisagée.

Paul Scharre dirige la 20YY Warfare Initiative au Center for a New American Security à Washington DC et a précédemment travaillé pour le département américain de la Défense, où il a dirigé un groupe de travail qui a rédigé la directive politique 2012 de 3000.09 sur l'autonomie des systèmes d'armes. Ses présentations complètes à la conférence de Chatham House ont été bien reçues, et ses réflexions rationnelles, mesurées et bien écrites sur la conférence contiennent de nombreuses observations utiles.

Pourtant, les « essentiels à retenir » de Scharre simplifient à l'excès les « domaines d'accord » et donnent l'impression que les participants étaient d'accord plus souvent qu'ils ne l'étaient en réalité. Son commentaire tente de refléter les points de vue et les domaines de convergence des conférenciers, mais il n'en va pas de même pour le public, composé d'environ 150 participants du gouvernement, de l'armée, de l'industrie, des groupes de réflexion, du monde universitaire, de la société civile et des médias.

En ce qui concerne la portée de ce qui a été discuté à Chatham House, la représentation de Scharre de la conférence se concentrant uniquement sur les systèmes d'armes autonomes « anti-matériels » prête à confusion, car la conférence a abordé tous les types de systèmes d'armes autonomes, y compris « les . " La conférence n'était pas non plus spécifiquement limitée aux armes autonomes « létales » par opposition aux « non létales » ou « moins que létales ». Cela dit, nous nous félicitons des commentaires de Scharre indiquant qu'il n'est pas en faveur de systèmes d'armes antipersonnel entièrement autonomes.

Il y avait en effet une convergence des technologues qui ont parlé des capacités des technologies autonomes actuelles et de l'idée que les précurseurs indiquent quelque chose de plus dangereux à venir.

Tout au long de la conférence, il a semblé y avoir « un accord universel selon lequel les humains devraient rester maîtres des décisions concernant l'utilisation de la force meurtrière ». Le consensus sur ce point a cependant été nuancé par un certain nombre d'orateurs qui ont suggéré que les systèmes sans contrôle humain significatif pourraient être légaux et avoir une utilité militaire. De telles opinions illustrent pourquoi les restrictions au niveau des politiques ne suffiront pas à relever les défis posés par les armes entièrement autonomes et devraient être complétées par une nouvelle loi.

En effet, ce débat a lieu parce que beaucoup envisagent un avenir sans contrôle humain. Pourtant, Scharre n'a accordé qu'une attention minimale aux problèmes de prolifération – développement, production, transfert, stockage – dans la section « objections » de sa réflexion. Des inquiétudes concernant une course aux armements ont été soulevées à plusieurs reprises au cours de la conférence de Chatham House, qui s'est sponsorisé par BAE Systems, fabricant de l'avion autonome Taranis, le meilleur exemple d'un précurseur britannique de la technologie des armes autonomes. Comme l'a montré l'expérience avec les armes nucléaires, les problèmes de prolifération ne peuvent être résolus de façon permanente par la réglementation et le droit international humanitaire en vigueur.

Scharre affirme qu'"un facteur majeur pour savoir si les armes autonomes sont militairement attrayantes ou même nécessaires peut être simplement si d'autres nations les développent", mais il semble mal comprendre le point de stigmatisation dans la section "fin de partie" de ses réflexions. En proposant que la réponse aux préoccupations concernant la « triche » est un « règle du jeu équitable » où tout le monde peut les avoir (et vraisemblablement tous peuvent être des « tricheurs »), Scharre rejette le pouvoir d'une interdiction internationale et juridiquement contraignante de stigmatiser une arme. et assurer le respect de la loi. Une interdiction mondiale pourrait réussir à stigmatiser les armes autonomes dans la mesure où aucune grande puissance militaire ne les utilise, comme cela a été le cas pour le Traité d'interdiction des mines où les grandes puissances n'ont pas utilisé de mines antipersonnel depuis des années.

Scharre considère le secteur commercial comme le moteur de la « technologie sous-jacente derrière l'autonomie », mais cela ignore le fait que l'industrie est réglementée par l'État. Les gouvernements n'empêcheront pas l'industrie de développer la technologie sous-jacente et, comme le note Blanchard, la campagne ne cherche pas à le faire, car la même technologie qui sera utilisée dans la robotique autonome et les systèmes d'IA a de nombreuses fins non militaires et non militaires. Mais les activités de recherche et développement devraient être interdites si elles portent sur une technologie qui ne peut être utilisée que pour des armes entièrement autonomes ou qui est explicitement destinée à être utilisée dans de tels systèmes.

Scharre minimise les préoccupations juridiques dans plusieurs sections de ses réflexions. C'est en partie parce que le panel de la conférence sur le droit international était dominé par des avocats juridiques des armes autonomes. Plusieurs des experts juridiques ont peut-être convenu entre eux que les armes autonomes ne sont « pas des armes illégales interdites en vertu des lois sur les conflits armés », mais ce point de vue n'était pas partagé par tous les participants à la conférence. En particulier, de sérieuses inquiétudes ont été exprimées quant à la nature des armes entièrement autonomes et à leur incapacité probable, lors de la prise de décisions d'attaque, à distinguer les non-combattants et à juger de la proportionnalité des dommages civils attendus par rapport aux gains militaires attendus. Bien que personne ne puisse savoir avec certitude à quoi ressemblera la technologie future, la possibilité que des armes entièrement autonomes soient incapables de se conformer aux lois de la guerre ne peut être écartée à ce stade.

Un intervenant a fait valoir que si des armes entièrement autonomes pouvaient être utilisées légalement en toutes circonstances, elles ne pouvaient être considérées en soi illicite. Ce point peut être légalement correct, mais on peut faire valoir que n'importe quelle arme peut être utilisée légalement dans un scénario soigneusement conçu. La possibilité d'une utilisation aussi limitée ne devrait pas être utilisée pour légitimer des armes entièrement autonomes. L'histoire a bien démontré qu'une fois qu'une arme est mise au point et déployée, elle ne sera pas seulement utilisée de manière limitée et prédéterminée. Le potentiel de préjudice est si grand qu'il annule l'argument de la légalité.

Scharre revendique un accord sur les « utilisations limitées licites », citant trois exemples de son cru. Nous ne sommes certainement pas d'accord.

La responsabilité est un autre domaine où il y avait moins d'accord que ce que dépeint dans les réflexions de Scharre. Comme il le déclare, les machines, telles qu'elles sont actuellement envisagées, ne peuvent être tenues responsables en vertu des lois de la guerre, et il est logique que les programmeurs ou les opérateurs ne soient pas tenus responsables de crimes de guerre à moins qu'ils n'aient l'intention du robot d'en commettre un.

La notion de responsabilité des exploitants a été abordée lors de la conférence de Chatham House, mais elle n'a pas été examinée en profondeur et il est important de noter les inquiétudes persistantes de certains membres de l'auditoire. Par exemple, les « correctifs » que Scharre cite dans la directive du département américain de la Défense sont loin d’être suffisants. En vertu de la directive, les décideurs humains sont chargés de veiller au respect des lois de la guerre lorsque les machines qu'ils mettent en mouvement ne sont pas en mesure de le garantir. Cependant, il est peu probable que les commandants soient tenus responsables de crimes de guerre si des défaillances techniques involontaires peuvent être imputées, tandis que les programmeurs, les ingénieurs et les fabricants sont peu susceptibles d'être tenus responsables s'ils ont agi de bonne foi.

La réponse apparente de Scharre à la question de la responsabilité est un « système totalement prévisible et fiable », mais comment est-ce possible ? Même avec des procédures de test et d'évaluation rigoureuses, l'autonomie rendra considérablement plus difficile d'assurer la prévisibilité et la fiabilité. En fait, une définition de l'autonomie est que le système, même lorsqu'il fonctionne correctement, n'est pas totalement prévisible (en raison de sa complexité et de celle de l'environnement avec lequel il interagit).

En outre, certains se demandent si les opérateurs devraient être tenus directement responsable des conséquences d'actions d'armes totalement autonomes. Ces opérateurs peuvent-ils être traités de la même manière que les opérateurs d'une arme « normale » lorsque des armes entièrement autonomes sont capables de faire des choix par elles-mêmes ?

Scharre semble rejeter la clause de Martens comme une simple question éthique, mais c'est aussi une question juridique. Bien que sa signification précise soit débattue, la clause est un élément du droit international humanitaire qui apparaît dans plusieurs traités. Cela implique que lorsqu'il n'existe pas de loi spécifique en la matière, les armes qui « choquent la conscience humaine » peuvent être considérées comme illégales dans l'attente d'une interdiction explicite. Il soutient également l'adoption d'une interdiction explicite des armes qui violent les « principes d'humanité et les préceptes de la conscience publique ».

Le message de Scharre soulève une objection « pratique » aux armes entièrement autonomes qui n'a pas été prise en compte par la conférence : « Une arme incontrôlable ou vulnérable au piratage n'est pas très précieuse pour les commandants militaires. En fait, une telle arme pourrait être assez dangereuse si elle conduisait à un fratricide systémique. » Cette préoccupation concernant les meurtres accidentels « à grande échelle » est valable, mais le même argument pratique s'applique aux victimes civiles et pas seulement aux militaires.

Comme le note Scharre, il existe de nombreuses préoccupations concernant les armes entièrement autonomes qui existent à plusieurs niveaux fondamentalement différents. Nous convenons que les discussions sur la direction que prend la technologie sont essentielles, mais trouver une solution permanente est encore plus urgente.

L'événement de Chatham House était la première de plusieurs réunions importantes qui devaient se tenir sur les robots tueurs à 2014. Le Comité international de la Croix-Rouge (CICR) organisera sa première réunion d'experts sur les systèmes d'armes autonomes du 26 au 28 mars. La première réunion de la Convention sur les armes classiques (CCW) sur les systèmes d'armes létales autonomes se tiendra à l'ONU à Genève le 13-16 mai. Le rapporteur spécial des Nations Unies, Christof Heyns, doit faire rapport sur les robots autonomes mortels et d'autres questions au Conseil des droits de l'homme à Genève au cours de la semaine du 10 juin.

Le fait que des conférences comme celle tenue par Chatham House aient lieu montre à quel point le défi des robots tueurs s'est hissé au premier rang du contrôle multilatéral traditionnel des armements et du désarmement humanitaire, validant l'importance et l'urgence de la question et contredisant les arguments selon lesquels des armes entièrement autonomes sont "inévitables" et "rien à craindre". La participation forte et diversifiée signifie qu'il est peu probable que ce soit la dernière conférence de Chatham House sur ce sujet.

Immédiatement après la conférence de Chatham House, la Campagne pour arrêter les robots tueurs a organisé une réunion stratégique à laquelle 50 représentants d'ONG ont assisté. La réunion s'est concentrée sur la planification de la stratégie de la campagne pour l'année à venir à la CCW et au Conseil des droits de l'homme, ainsi que sur la manière de lancer une campagne nationale pour influencer l'élaboration de politiques et obtenir un soutien pour une interdiction.

Pour plus d'informations, voir:

Photo : Patricia Lewis, directrice de recherche pour la sécurité internationale à Chatham House (au centre) a présenté le premier panel de la conférence de Chatham House sur les technologies militaires autonomes. (c) Campagne pour arrêter les robots tueurs, 24 février 2014

Marie

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous