image de héros de menu
Enseigne au néon indiquant 'Game on'

Techno-optimisme, droits humains et robots tueurs…

Farah Bogani est la chargée de projet pour la Campagne pour arrêter les robots tueurs, basée à Ottawa, Canada. Elle travaillait auparavant au bureau du secrétariat d'Amnesty International à Londres, au Royaume-Uni.

IC'est difficile d'être prise au sérieux quand on est une jeune femme qui lutte activement contre le développement des technologies. La plupart du temps, lorsque je parle de robots tueurs, je lève les sourcils - parfois d'intérêt, d'autres fois de scepticisme.

Les robots sont depuis si longtemps dans le sci-fi lore qu'ils ne présentent pas comme une menace immédiate dans la réalité. Mais nous ne parlons pas de ces robots humanoïdes que vous avez vus dans les films – nous parlons de vrais systèmes d'armes qui sont programmés pour sélectionner des cibles et tuer de manière autonome. Récemment, en regardant l'explosion de la surveillance et des « solutions » artificiellement intelligentes au COVID-19, il me semble que l'envie de techno-optimisme ne prend pas en compte l'impact à plus long terme que ces technologies auront finalement. Ceci est, et devrait être, préoccupant pour les autres jeunes en raison des implications que cela a pour nos droits humains et notre avenir. La réalité est que l'existence de systèmes d'armes autonomes ne se limiterait pas à une utilisation dans les zones de conflit, et nos préoccupations concernant ces armes ne devraient pas s'arrêter là car nous pourrions les voir dans les forces de police dans un avenir proche. Le développement et l'utilisation de ces armes ne seraient pas seulement constituer violations flagrantes des droits de l'homme, mais serait également considéré comme un recours excessif, arbitraire et inutile à la force.

Wes armes entièrement autonomes ont été discutées dans le contexte des conflits et du désarmement humanitaire à l'ONU (sous le terme d'armes autonomes létales ou LOIS), il est de plus en plus important de considérer le développement et l'utilisation d'armes autonomes dans des situations de non-conflit. En tant que jeune militant et militant des droits de l'homme, la question des robots tueurs devient encore plus urgente lorsque l'on considère à quel point ces armes présentent des risques énormes pour ceux qui assistent aux manifestations. C'est-à-dire peut-être moins « tueur », mais tout aussi mortel. Alors que les droits civils et politiques continuent d'être critiqués tandis que les pouvoirs de surveillance s'étendent, il est essentiel que les gouvernements agissent maintenant pour empêcher que ces armes ne deviennent une réalité. Les armes autonomes « non létales » ou « moins létales » n'existent pas encore, mais ils ne sont pas loin et c'est la normalisation de ces technologies qui présente la plus grande menace pour l'avenir de nos droits humains.

Marche de protestation pacifique colorée marchant sous un pont alors que des policiers sur le pont regardent vers le bas

Photo d'Alex Radelich.

SLa technologie des drones de surveillance n'est pas nouvelle, mais son applicabilité à police pandémique signifie qu'il n'est pas difficile d'imaginer qu'ils soient réutilisés en armes autonomes «moins létales». Après tout, les États-Unis ont utilisé des drones Predator de qualité militaire pour survoler villes pendant protestations, tandis qu'Israël a utilisé des drones pilotés à distance pour disperser gaz lacrymogène sur les manifestants palestiniens. Serait-il alors hors du possible d'imaginer ces armes comme autonomes, planant au-dessus d'une foule de manifestants prêts à disperser des agents chimiques ? En effet, la même technologie de surveillance qui détermine la distanciation physique peut être en mesure d'identifier ou de prédire certains types de activité, alertant une arme autonome de tirer sur des foules à l'aide de munitions non létales ou de gaz lacrymogène. Les drones de surveillance qui utilisent sonner pourrait être équipé de sons qui désorientent et déroutant dans le but de disséminer les manifestants. Et tandis que tout le monde, en vertu de la Déclaration des droits de l'homme des Nations Unies, a le droit de manifester pacifiquement, la croissance des pouvoirs de surveillance a conduit les manifestants à devenir plus vigilants quant à la protection de leur identité contre la persécution par les forces de l'ordre.

Signe de protestation se lit "Ce qui diminue l'un de nous diminue tous".

Photo : Michiele Henderson

Pourtant, grâce à COVID-19, le masquage accru des civils a incité ceux qui développent la technologie de reconnaissance faciale à ajuster leur approche afin que les systèmes puissent reconnaître les visages des personnes lorsqu'elles sont couvertes de masques. En conséquence, de nombreux manifestants qui portaient normalement des masques pour masquer leur identité aux autorités pourraient bientôt perdre cette capacité de « se cacher ». Si des armes autonomes « moins meurtrières » étaient équipé avec la reconnaissance faciale, ils pourraient non seulement présenter des risques pour les manifestants de premier plan et d'autres civils ayant des antécédents de protestation, mais seraient également biaisé, aggravant et codifiant le profilage racial. Enfin, la géolocalisation, que ce soit via des téléphones utilisant certaines applications, photos, vidéos ou autres médias, peut fournir aux autorités des données de localisation précieuses qui leur permettent de suivre les allées et venues des individus et des personnes avec lesquelles ils entrent en contact. Ce type de technologie peut être coopté pour forcer les gens à rester dans certaines zones, restreignant ainsi leur droit de se déplacer librement, et peut même les empêcher de se rassembler en foule pour protester. Cela serait particulièrement préoccupant pour ceux qui vivent dans des territoires hautement surveillés, occupés ou contrôlés où les autorités peuvent forcer les gens à rester dans leurs zones désignées.

NOrmaliser la tendance des solutions technologiques est préoccupant pour l'avenir car si les gens peuvent accepter les innovations technologiques d'aujourd'hui, nous ne sommes pas préparés à leur application dans les systèmes d'armes entièrement autonomes de demain. Les risques pour les droits de l'homme que pose le développement et l'utilisation de cette technologie sont ce qui rend ce problème si urgent, et les armes autonomes ne devraient pas être considérées comme un problème isolé des situations de conflit. Ces armes ont toutes les chances de faire partie de votre propre « arrière-cour », car les forces de l'ordre deviennent de plus en plus militarisées au fil des ans. En tant que jeune militant, ce ne sont pas le genre d'armes auxquelles je veux faire face lorsque je proteste – et personne d'autre ne devrait avoir à y faire face non plus.

FDes armes entièrement autonomes délégueraient les décisions de vie ou de mort à des machines, des programmes et des algorithmes – franchissant une ligne rouge éthique, enfreignant la loi conçue pour protéger les civils, menaçant les droits de l'homme et déstabilisant la sécurité mondiale. Vous voulez en savoir plus sur les risques pour les droits humains posés par les armes entièrement autonomes, et pourquoi il n'est pas trop tard pour les arrêter ? Inscrivez-vous avant le 20 juillet pour nous rejoindre à RightsCon le 30 juillet 2020.

Photo de Farah Bogani devant une sculpture de l'ONU et une foule photographiée avec "Justice Now" sur une pancarte

Farah Bogani est la chargée de projet pour la Campagne pour arrêter les robots tueurs, basée à Ottawa, Canada. Elle travaillait auparavant au bureau du secrétariat d'Amnesty International à Londres, au Royaume-Uni.


Article original publié le Medium.com.

Farah Bogani

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous