De plus en plus, nous voyons des systèmes d’armes dotés de fonctions autonomes, ainsi que des systèmes d’aide à la décision et de recommandation de cibles par l’IA, développés et utilisés dans les conflits en cours, notamment à Gaza et en Ukraine. Ces conflits servent de bancs d’essai pour des technologies de plus en plus autonomes. Bien qu'il n'existe pas encore de rapports vérifiés sur l'utilisation de systèmes d'armes qui utilisent le traitement des capteurs pour choisir une cible et décider où et quand une attaque aura lieu sans l'approbation humaine, les systèmes précurseurs sont déployés par de nombreux États.
Cela est extrêmement préoccupant en l’absence de règles et de limites claires s’appliquant spécifiquement à ces armes et autres systèmes. D’autant plus que les développeurs et les utilisateurs repoussent les limites de ce qui est acceptable selon les normes juridiques et éthiques.
Stop Killer Robots réclame une nouvelle loi internationale (c'est-à-dire un traité) qui impliquerait une combinaison de réglementations et d'interdictions sur les systèmes d'armes autonomes. Même si les tendances montrent un recours accru à l’autonomie dans la guerre, il est important de faire des distinctions entre ce qui est et ce qui n’est pas une arme autonome. Cela nous permet de faire pression efficacement en faveur d’un nouveau droit international tout en soulignant les préoccupations qui se chevauchent entre les armes autonomes, les systèmes d’armes dotés de fonctions autonomes et d’autres systèmes militaires.
Dans les sections ci-dessous, nous expliquons la différence entre ces technologies, décrivons nos position politique et fournir des informations supplémentaires sur notre campagne.
Robots tueurs
Les systèmes d'armes autonomes sont des armes qui détectent et appliquent une force sur une cible sur la base des entrées de capteurs, plutôt que des entrées humaines directes. Une fois que l'utilisateur humain a activé le système d'armes, il existe une période pendant laquelle le système d'armes peut appliquer une force sur une cible sans l'approbation humaine directe. Cela signifie que quoi ou qui sera attaqué, ainsi que où et quand cette attaque se produira, sont déterminés par le traitement des capteurs et non par les humains. Ce ciblage basé sur des capteurs est une fonction d’un système d’armes. Ainsi, un système d’armes fonctionne de manière autonome lorsque le traitement des capteurs peut déclencher automatiquement une application de force. Regardez notre ressource « Explication des armes autonomes » pour mieux comprendre le fonctionnement des systèmes d'armes autonomes..
Les robots tueurs sont des systèmes d’armes autonomes qui ne peuvent pas être utilisés conformément aux normes juridiques et éthiques et devraient être interdits. Il s’agit de systèmes qui ne peuvent pas être utilisés avec un contrôle humain significatif et de systèmes qui ciblent les humains.
Les robots tueurs augmentent problèmes moraux, éthiques et juridiques importants, remettant en question le contrôle humain sur le recours à la force et confiant la prise de décision en matière de vie ou de mort aux machines. Ils soulèvent également des inquiétudes concernant déshumanisation numérique, le processus par lequel les gens sont réduits à des points de données qui sont ensuite utilisés pour prendre des décisions et/ou entreprendre des actions qui affectent négativement leur vie.
Les systèmes qui fonctionnent de cette manière menacent la paix, la sécurité et la stabilité internationales. L’autonomie des systèmes d’armes diminue le contrôle de l’opérateur humain et mine la responsabilisation et la responsabilité dans les conflits. Ces systèmes d'armes suscitent également de sérieuses inquiétudes quant au respect du droit international des droits de l'homme et des principes du droit international humanitaire. distinction, proportionnalité, précaution, et l'interdiction de attaques indiscriminées.
Si elles sont utilisées, les armes autonomes modifieront fondamentalement la nature de la manière dont les guerres sont menées. Elles conduiraient à une guerre encore plus asymétrique et déstabiliseraient la paix et la sécurité internationales en déclenchant une nouvelle course aux armements. Ils déplaceraient également le fardeau du conflit sur les civils. Mais les risques posés par les robots tueurs ne menacent pas seulement les personnes en conflit. L’utilisation de ces armes au sein de nos sociétés de manière plus large pourrait également avoir de graves conséquences.
Pensez aux futures manifestations, au contrôle des frontières, au maintien de l’ordre et à la surveillance, ou même aux autres types de technologies que nous utilisons. Que cela dirait-il sur notre société – et quel impact cela aurait-il sur la lutte pour une technologie éthique – si nous laissions les décisions ultimes de vie ou de mort être prises par des machines ? L’émergence et les conséquences des armes autonomes nous concernent tous.
Certaines personnes affirment que les robots tueurs seraient plus précis – qu’ils seraient plus rapides et plus efficaces que les soldats humains, qu’ils pourraient se rendre dans des endroits difficiles d’accès pour les soldats, qu’ils pourraient être plus précis dans leur ciblage, qu’ils sauveraient des vies en réduisant les « bottes sur le sol ». terrain » et ont un effet dissuasif. Mais des propos similaires ont été dits à propos des mines terrestres, des armes à sous-munitions et des armes nucléaires – des armes aveugles qui ont tué et blessé des centaines de milliers de personnes avant d’être interdites.
Les technologies qui modifient leur propre comportement ou adaptent leur propre programmation de manière indépendante ne peuvent pas être utilisées avec un réel contrôle. D'autres technologies peuvent constituer une « boîte noire », dans laquelle il n'est pas possible de savoir pourquoi ni comment les décisions sont prises. En vertu de la loi, les commandants militaires doivent être capables de juger de la nécessité et de la proportionnalité d’une attaque et de faire la distinction entre les civils et les cibles militaires légitimes.
Cela signifie non seulement comprendre un système d’armes, mais également comprendre le contexte dans lequel il peut être utilisé. Les machines ne comprennent pas le contexte ni les conséquences : la compréhension est une capacité humaine – et sans cette compréhension, nous perdons notre responsabilité morale et nous sapons les règles juridiques existantes. Les menaces et les risques des robots tueurs dépassent de loin les avantages potentiels.
De nombreux systèmes intègrent différentes fonctionnalités automatisées (telles que la reconnaissance automatique de cibles), mais ne le font pas. vous inscrire forcer à (attaquer) des cibles en fonction des entrées des capteurs. La plupart des systèmes d'armes qui utilisent la reconnaissance automatique de cibles, par exemple, ont actuellement un opérateur humain qui doit approuver toute attaque (nous appelons ces systèmes basés sur l'approbation). Cependant, il est difficile de vérifier quel est le niveau d’autonomie d’un système sur telle ou telle fonction. Pour en savoir plus, voir ce rapport de PAX sur les implications juridiques et morales des tendances à l'autonomie des systèmes d'armes.
De tels systèmes soulèvent également des préoccupations morales, juridiques et éthiques, notamment en ce qui concerne la déshumanisation numérique, et la question de savoir si l'utilisateur est en mesure de porter un jugement fondé sur la conformité des effets d'une attaque avec les normes juridiques et éthiques. Notre équipe de recherche et de veille, Recherche décisionnelle automatisée, a créé un Moniteur d'armes ressource avec des exemples de systèmes d'armes dotés de fonctionnalités informatives sur les préoccupations liées à l'augmentation de l'autonomie des armes.
Les incertitudes autour des capacités des systèmes d'armes et de leurs fonctions autonomes (ou leur absence), et une tendance vers une autonomie croissante dans la guerre, y compris dans les conflits actuels, souligner davantage pourquoi une nouvelle loi internationale sur l'autonomie des systèmes d'armes est nécessaire de toute urgence.
Les systèmes de recommandation de cibles ou de génération de cibles par l’IA ne sont pas des systèmes d’armes. Ce sont des systèmes de traitement de données qui traitent et analysent de grandes quantités de données à grande vitesse pour générer des cibles et formuler des recommandations de ciblage. Les données utilisées peuvent inclure des images satellite, des télécommunications, des images de drones, etc. Des exemples de tels systèmes incluent Le système israélien Habsora (alias « Évangile »), celui d'Israël Système lavande et le projet Maven des États-Unis.
Ces systèmes sont des systèmes de recommandation de cibles ou d'« aide à la décision » ; ce ne sont pas des armes. En tant que tels, ils ne relèvent pas du champ d’application d’un traité sur les systèmes d’armes autonomes.
Bien qu'il ne s'agisse pas de systèmes d'armes, ces systèmes soulèvent encore d’importantes questions humanitaires, éthiques, morales et juridiques. Il existe de sérieux risques que les humains fassent trop confiance aux recommandations du système (biais d’automatisation) et deviennent trop dépendants des systèmes automatisés sans comprendre comment les recommandations ont été générées. En outre, le désir d’augmenter la vitesse peut limiter l’engagement cognitif des utilisateurs dans la prise de décision. Ces systèmes peuvent également créer un « écran de fumée » quant à la responsabilité si les recommandations conduisent à des violations du DIH.
Pour en savoir plus sur les problèmes soulevés par de tels systèmes de recommandation de cibles, lisez Article de Lucy Suchman sur « la machine à tuer accélérée par un algorithme » et Article d'Elke Schwarz et Neil Renic, « Inhumain en boucle : ciblage de l'IA et érosion de la retenue morale ».
Les systèmes de « contrôle de tir », qui impliquent un certain nombre de composants travaillant ensemble pour aider un système d'armes à distance à cibler, suivre et frapper, tels que Systèmes SMASH de SmartShooter et Les systèmes AimLock, peut être intégré à des fusils d’assaut et à d’autres armes. Ces systèmes peuvent utiliser des algorithmes (en particulier la reconnaissance d'images) pour détecter, classer ou suivre des cibles, se « verrouiller » sur une cible choisie par un opérateur humain et tirer sur ordre d'un opérateur humain. Comme c'est un humain qui prend la décision de déployer une force (d'attaquer) sur une cible, ce ne sont pas des armes autonomes. Bien que ces systèmes ne soient pas des systèmes d’armes autonomes, ils soulèvent également des questions morales, éthiques et juridiques, ainsi que des inquiétudes concernant la déshumanisation numérique.
Il existe de nombreux types de robots qui peuvent être utilisés à d'autres fins militaires, tels que les robots de déminage, de transport de matériel militaire, de déminage, de recherche et de sauvetage, de surveillance, etc.
Certains robots, tels que robots télécommandés 'chiens', ont reçu une attention considérable ces dernières années, notamment en raison des inquiétudes concernant leur potentielle militarisation et leur utilisation. par les militaires et par les forces de police. Comme pour tous les systèmes d’armes, ces robots ne doivent être utilisés que conformément aux normes juridiques et éthiques.
L'utilisation croissante de ces robots à des fins militaires et Les incertitudes quant à leurs capacités, à l’étendue de leurs fonctions autonomes et à leur potentielle militarisation soulignent encore davantage pourquoi une nouvelle loi internationale sur l’autonomie des systèmes d’armes est nécessaire de toute urgence.
De même, l’utilisation de tels robots dans des contextes non conflictuels, tels que le maintien de l’ordre et le contrôle des frontières, soulève des questions quant à la protection des droits de l’homme et à l’application du droit international des droits de l’homme.
Alors que six entreprises de robotique se sont déjà engagés à ne pas autoriser la militarisation de leurs robots, le développement continu de systèmes robotiques à usage militaire démontre que l’autorégulation ne suffira pas à relever les défis posés à la protection des civils et au droit international humanitaire par les technologies émergentes.
Notre campagne
Arrêter les robots tueurs est une coalition mondiale de plus de 250 organisations non gouvernementales internationales, régionales et nationales et partenaires universitaires travaillant dans plus de 70 pays garantir un contrôle humain significatif sur l’usage de la force grâce au développement d’un nouveau droit international. Nous avons également un Réseau des jeunes qui rassemble de jeunes dirigeants du monde entier pour collaborer et soutenir nos efforts visant à assurer un avenir sans assassinats automatisés.
La campagne Stop aux robots tueurs appelle à une nouvelle loi internationale sur les systèmes d'armes autonomes. Ce nouveau traité devrait interdire les systèmes d'armes autonomes qui ciblent directement les humains, et des systèmes d'armes autonomes qui ne peuvent pas être utilisés de manière significative contrôle humain (c'est ce que nous appelons des robots tueurs). Le traité devrait réglementer tous les autres systèmes d'armes autonomes par la création d'obligations positives (ce que les États doivent faire pour garantir leur conformité, ou les mesures qu'ils doivent prendre pour prévenir les violations du droit international), y compris des règles spécifiques sur la prévisibilité, la compréhensibilité et la dimension temporelle et opérationnelle. limitations spatiales. Le Comité international de la Croix-Rouge recommande également que les systèmes conçus ou utilisés pour cibler des humains et les systèmes d'armes autonomes imprévisibles soient expressément interdits, et que tous les autres systèmes d'armes autonomes soient soumis à des obligations positives.
Stop Killer Robots, comme le Comité international de la Croix-Rouge, appelle à de nouvelles règles internationales juridiquement contraignantes pour interdire et réglementer les systèmes d'armes autonomes, plutôt qu'une « interdiction » totale. En effet, un nouveau droit international, sous la forme d’un mélange d’interdictions et de réglementations, aurait une portée plus large qu’une interdiction, pourrait englober davantage de sujets de préoccupation et créerait le traité international le plus solide possible. En plus d’aborder uniquement l’interdiction des armes autonomes fondamentalement inacceptables, un traité devrait inclure des règles garantissant que d’autres armes autonomes sont utilisées conformément aux normes juridiques et éthiques.
De nouvelles règles internationales sous la forme d’un instrument juridiquement contraignant créeraient un cadre durable et efficace pour l’interdiction et la réglementation du développement et de l’utilisation de systèmes d’armes autonomes. Un instrument doté d’une large portée, d’une structure logique et doté de lignes normatives claires – comme l’interdiction de cibler des personnes – établira une norme contraignante, même pour les États qui n’y adhéreront pas dans un premier temps. Un instrument structuré selon ces principes façonnera le développement des technologies du futur.
Partout dans le monde, l’appel à limiter l’autonomie des systèmes d’armes par le biais d’un nouveau traité international continue de croître. Les robots tueurs sont considérés comme une menace majeure pour l’humanité qui nécessite une réponse multilatérale rapide et forte. Plus récemment, en novembre 2023, le la toute première résolution de l'ONU sur les robots tueurs a été adoptée à l'Assemblée générale des Nations Unies. Cela faisait suite à un série de postes régionaux (c'est-à-dire les déclarations et communiqués) adoptés sur les robots tueurs plus tôt en 2023. Actuellement, une majorité d'États soutenir la négociation de nouvelles règles pour les systèmes d’armes autonomes, tout comme le secrétaire général de l'ONU et le président du Comité international de la Croix-Rouge, qui a lancé un appel commun historique en octobre 2023 appelant les États à négocier un nouvel instrument juridiquement contraignant d’ici 2026.