image de héros de menu

SYNOPSIS : Rapport du Parlement européen sur « Les implications pour les droits de l'homme de l'utilisation de drones et de robots sans pilote

11 Juin 2013
Synopsis préparé par la Campagne pour arrêter les robots tueurs

SYNOPSIS : rapport du Parlement européen sur les « Implications sur les droits de l'homme de l'utilisation de drones et de robots sans pilote dans la guerre », mai 2013

Résumé

En mai 2013, le Parlement européen a publié une étude sur les implications pour les droits de l'homme de l'utilisation de drones et de robots sans pilote dans la guerre, qui comprend des conclusions sur des armes entièrement autonomes. L'étude de 54 pages est disponible en PDF sur : http://bit.ly/125ZQWS.

L'étude conclut que « [pour] l'avenir prévisible … toute application de la force militaire par le biais de drones armés doit nécessairement rester sous le contrôle d'un opérateur humain.

Il recommande que l'UE lance un processus de recherche de consensus intergouvernemental comprenant des réunions d'experts « pour parvenir à un consensus international plus large…

L'étude a été préparée par la direction générale des politiques extérieures (DROI) du Parlement européen à la demande de la sous-commission des droits de l'homme du Parlement. Il a été rédigé par le Dr Nils Melzer du Centre de politique de sécurité de Genève et Chaire suisse de droit international humanitaire à l'Académie de Genève.

La Campagne pour arrêter les robots tueurs se félicite de cette étude et exhorte tous les États à examiner et à élaborer leur politique sur les armes entièrement autonomes, y compris en ce qui concerne la conclusion de l'étude selon laquelle « toute application de la force militaire par le biais de drones armés doit nécessairement rester sous le contrôle d'un être humain. opérateur." La campagne exhorte tous les États membres de l'Union européenne à mettre en œuvre la recommandation du rapport de lancer un processus européen visant à mettre en place un cadre juridique international pour lutter contre les armes entièrement autonomes.

Ce document présente les principaux extraits de l'étude concernant les armes totalement autonomes.

Extraits pertinents

Dans la section sur le « Degré actuel et futur d'autonomie opérationnelle », le rapport constate que « dans un avenir prévisible, l'application licite de la force militaire par le biais de drones armés nécessitera toujours l'implication directe d'un contrôleur humain ». (Page 11) 2

Sur l'état de la technologie, l'étude rapporte :

Pour le moment, aucun drone actuellement opérationnel ne peut distinguer de manière fiable les cibles militaires légitimes des personnes et objets civils, prendre des précautions pour éviter un ciblage erroné ou évaluer la proportionnalité des dommages civils collatéraux attendus. Pour devenir des robots entièrement autonomes, les drones devraient être équipés de systèmes de détection et de vision très précis et discriminants capables d'identifier de manière fiable les cibles visées sur la base d'informations très limitées et souvent trompeuses. De plus, un drone-robot entièrement autonome aurait besoin d'une « conscience de la situation » lui permettant d'évaluer un ensemble extrêmement complexe de circonstances imprévisibles et, grâce à un raisonnement indépendant, de parvenir à une conclusion appropriée conformément à ses objectifs de mission, à la loi applicable et aux militaires et humanitaires sous-jacents. valeurs. Comme cela a été souligné, de tels systèmes robotiques entièrement autonomes appartiennent au domaine des « articles d'espoir » plutôt que des logiciels et, à l'exception d'un saut quantique technologique, il est peu probable qu'ils deviennent une réalité avant plusieurs décennies.32 (page 10)

L'étude examine également les armes humaines « en boucle » et trouve :

Même les systèmes intermédiaires supervisés par l'homme, dans lesquels les décisions de ciblage autonome prises par les drones peuvent être annulées par un contrôleur humain (« man on the loop »), peuvent être problématiques dans la pratique. Premièrement, les défis technologiques liés à l'identification et à la sélection autonomes de cibles sont essentiellement les mêmes et, deuxièmement, de tels systèmes nécessitent généralement que le contrôleur humain décide en quelques secondes ou moins de la pertinence d'une décision de ciblage robotique extrêmement complexe sans être en mesure d'examiner suffisamment , traiter et comprendre les données sous-jacentes.33 (Page 11)

Dans la section « Résumé et perspectives », l'étude reconnaît la tendance à l'autonomie dans la guerre et les systèmes d'armes :

Aujourd'hui, les robots sans pilote ont été introduits dans tous les domaines de la guerre, et il existe une nette tendance à l'augmentation de l'autonomie opérationnelle de ces systèmes à l'avenir. Dans sa « Feuille de route intégrée des systèmes sans pilote FY2011-2036 », le département américain de la Défense formule la vision suivante pour les forces armées de tous les domaines. (Page 13)

Dans une section sur « La technologie des drones et la loi sur les armes », l'étude constate que :

Sans aucun doute, d'un point de vue technologique, les attaques de drones contrôlés par l'homme (« man in the loop ») peuvent viser des objectifs militaires précis et, en principe, les effets de telles attaques sur la cible et la population civile peuvent être limités. comme l'exige le droit humanitaire. Par conséquent, les drones armés actuellement opérationnels ne constituent pas, en tant que tels, un moyen de guerre aveugle interdit par le droit humanitaire. (Page 27)

Mais l'étude constate qu'en mode totalement autonome, « la technologie actuelle des drones serait incapable de respecter la loi du ciblage et, par conséquent, constituerait un système d'arme aveugle interdit par le droit humanitaire ». L'étude explique :

Une conclusion différente devrait être tirée pour l'utilisation de drones armés dans un mode entièrement autonome, dans lequel les drones armés prendraient des décisions de ciblage sans intervention humaine. Comme indiqué précédemment, aucun drone armé actuellement opérationnel n'est capable de distinguer de manière fiable les personnes civiles des cibles militaires légitimes, de prendre les précautions nécessaires pour éviter un ciblage erroné ou d'évaluer la proportionnalité des dommages civils collatéraux attendus. Alors que les systèmes actuels de reconnaissance de cibles peuvent être capables de détecter automatiquement certains types d'objectifs militaires, tels que les systèmes d'armes hostiles et les réseaux de communication, attaquer de telles cibles nécessiterait toujours des mesures de précaution supplémentaires, y compris une évaluation de la proportionnalité, qui ne peut être effectuée que par un être humain. opérateur. Même dans des circonstances exceptionnelles, où la zone d'opérations est telle qu'il ne faut s'attendre à aucun dommage civil (par exemple de grandes formations militaires dans un désert ou un environnement maritime), les drones entièrement autonomes n'ont toujours pas la capacité d'identifier le personnel ennemi ayant droit à une protection contre les attaques, tels que le personnel médical et religieux et les combattants hors de combat. En somme, si elle était utilisée dans un mode totalement autonome, la technologie actuelle des drones serait incapable de respecter la loi du ciblage et, par conséquent, constituerait un système d'arme aveugle interdit par le droit humanitaire.126 Dans un avenir prévisible, donc, toute application de la force militaire à travers des drones armés doit nécessairement rester sous le contrôle d'un opérateur humain. (Page 28)

L'exigence nécessaire pour que les drones armés « restent sous le contrôle en temps réel d'un opérateur humain » est à nouveau répétée dans la section « Les attaques de drones comme moyen de guerre » :

[L]a technologie actuelle des drones ne soulève pas, en tant que telle, de préoccupation particulière, à condition que les attaques soient menées sous le contrôle en temps réel d'un opérateur humain et n'impliquent pas autrement l'utilisation d'armes illégales. Cette évaluation serait presque certainement inversée si les drones armés devaient être utilisés en mode entièrement autonome. Sans un véritable saut quantique dans le développement technologique, les drones armés resteront incapables de faire de manière autonome les distinctions, les appréciations et les jugements requis par la loi du ciblage. En conséquence, s'ils étaient utilisés dans un mode entièrement autonome, les drones armés constitueraient un système d'armes intrinsèquement aveugle interdit par le droit humanitaire. Dans un avenir prévisible, donc, tout usage de la force par le biais de drones armés doit nécessairement rester sous le contrôle en temps réel d'un opérateur humain. (Page 34)

L'étude révèle que « les robots armés ne sont pas, bien sûr, des personnes ou des entités capables d'agir pour ou contre un État au sens humain du terme, mais ce sont des machines utilisées par les humains comme armes ». "[I] il est concevable que l'utilisation de robots entièrement autonomes puisse entraîner des violations involontaires du droit international." (Page 39)

L'étude contient trois recommandations, dont la seconde concerne les armes totalement autonomes :

4 Processus de recherche d'un consensus intergouvernemental : en parallèle, l'UE devrait lancer un dialogue politique intergouvernemental plus large, soutenu par une série de réunions ou de comités d'experts juridiques et techniques, visant à atteindre un consensus international plus large : (a) sur les normes juridiques internationales régissant l'utilisation des systèmes d'armes sans pilote actuellement opérationnels, et (b) sur les contraintes juridiques et/ou les réserves éthiques qui peuvent s'appliquer au développement, à la prolifération et à l'utilisation futurs de systèmes d'armes de plus en plus autonomes. Pour que ce processus de recherche de consensus soit perçu comme légitime, il doit être mené de manière transparente et inclusive, en impliquant non seulement les États, mais également en s'appuyant sur l'expérience et l'expertise précieuses des industries concernées, des institutions multinationales concernées, des organisations de la société civile et des académique. (Pages 44-45)

L'étude est disponible en ligne à l'adresse : http://www.europarl.europa.eu/committees/en/droi/studiesdownload.html?languageD ocument=EN&file=92953 #

Campagne pour arrêter les robots tueurs

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous