1
Rencontrez nos jeunes militants en Amérique latine !
Les jeunes militants d'Amérique latine expliquent pourquoi d'autres jeunes devraient se soucier des robots tueurs.
Lorsque les jeunes se rassemblent, nous pouvons faire écouter le monde.
Les robots tueurs peuvent sembler être de la science-fiction, mais malheureusement, ils sont la prochaine grande étape de la déshumanisation numérique ; cimenter les préjugés et les inégalités des générations précédentes. Les robots tueurs changent la relation entre les gens et la technologie en confiant la prise de décision de vie ou de mort aux machines. Ils remettent en question le contrôle humain sur l'usage de la force, et lorsqu'ils ciblent des personnes, ils nous déshumanisent - nous réduisant à des points de données.
Si nous n'agissons pas, les générations futures devront vivre avec les conséquences des décisions qui sont prises en ce moment - le développement de nouvelles technologies avec un biais algorithmique, le changement climatique, les conflits injustes, les inégalités et les troubles sociaux et politiques... Le monde dans lequel nous vivons peut être complexe, mais nous avons plus de pouvoir pour influencer les événements que nous ne le pensons.
Il y a de nombreux problèmes mondiaux et sociaux auxquels nous devrons faire face au cours de notre vie.
À l'avenir, les jeunes devront affronter la réalité et les conséquences des décisions qui sont prises aujourd'hui. Les jeunes du monde entier s'efforcent d'apporter des changements et un nouvel espoir ; en tant qu'agents de changement dotés de pouvoir et d'influence.
Nous avons grandi à l'ère numérique et nous sommes l'avenir. Les codeurs, programmeurs, ingénieurs, soldats, diplomates, politiciens, activistes, organisateurs et créatifs qui devront faire face aux réalités des robots tueurs.
Nous avons le pouvoir de façonner l'avenir de la technologie, de l'industrie, de la politique. Investir dans nos communautés et plus largement dans l'humanité. Chacun d'entre nous a la possibilité de faire passer le message que tuer ne doit pas être délégué aux machines et que chaque vie humaine a de la valeur.
Il y a des problèmes éthiques, moraux, techniques, juridiques et de sécurité avec les armes autonomes. Que ce soit sur le champ de bataille ou lors d'une manifestation, les machines ne peuvent pas faire de choix éthiques complexes - elles ne peuvent pas comprendre la valeur de la vie humaine. En cas d'erreur ou d'acte illégal, qui serait responsable ? Le programmeur, le constructeur, le commandant militaire ou la machine elle-même ? Cet écart de responsabilité rendrait difficile la garantie de la justice, en particulier pour les victimes. D'autres problèmes avec les robots tueurs incluent l'augmentation déshumanisation numérique, des biais algorithmiques, une perte de contrôle humain significatif, l'abaissement du seuil de la guerre, une course aux armements potentiellement déstabilisatrice et un changement fondamental dans notre relation avec la technologie.
Si elles sont utilisées, les armes autonomes modifieront fondamentalement la nature de la manière dont les guerres sont menées. Ils conduiraient à une guerre plus asymétrique et déstabiliseraient la paix et la sécurité internationales en déclenchant une nouvelle course aux armements. Ils déplaceraient également davantage le fardeau du conflit sur les civils. Mais les risques des robots tueurs ne menacent pas seulement les personnes en conflit. L'utilisation de ces armes au sein de nos sociétés plus largement pourrait également avoir de graves conséquences. Pensez aux manifestations futures, au contrôle des frontières, au maintien de l'ordre et à la surveillance, ou même à d'autres types de technologies que nous utilisons. Que dirait-il de notre société – et quel impact cela aurait-il sur la lutte pour une technologie éthique – si nous laissions les décisions ultimes de vie ou de mort être prises par des machines ? L'émergence et les conséquences des armes autonomes nous concernent tous.
Certaines personnes disent que les robots tueurs seraient plus précis - qu'ils seraient plus rapides et plus efficaces que les soldats humains, qu'ils pourraient aller dans des endroits difficiles à opérer pour les soldats, qu'ils pourraient être plus précis dans le ciblage, sauver des vies en réduisant les "bottes sur le terrain » et avoir un effet dissuasif. Mais des choses similaires ont été dites à propos des mines terrestres, des armes à sous-munitions et des armes nucléaires – des armes aveugles qui ont tué et blessé des centaines de milliers de personnes avant d'être interdites. Les technologies qui modifient leur propre comportement ou adaptent leur propre programmation de manière indépendante ne peuvent pas être utilisées avec un contrôle réel. D'autres technologies peuvent présenter une « boîte noire », où il n'est pas possible de savoir pourquoi ou comment les décisions sont prises. En vertu de la loi, les commandants militaires doivent pouvoir juger de la nécessité et de la proportionnalité d'une attaque et faire la distinction entre les civils et les cibles militaires légitimes. Cela signifie non seulement comprendre un système d'arme, mais aussi comprendre le contexte dans lequel il pourrait être utilisé. Les machines ne comprennent pas le contexte ou les conséquences : la compréhension est une capacité humaine - et sans cette compréhension, nous perdons notre responsabilité morale et nous sapons les règles juridiques existantes. Les menaces et les risques des robots tueurs l'emportent de loin sur les avantages potentiels.
Partout dans le monde, l'élan continue de se développer derrière l'appel à des limites à l'autonomie des systèmes d'armes par le biais d'un nouveau traité international. Les robots tueurs sont considérés comme une menace majeure pour l'humanité qui nécessite une réponse multilatérale rapide et forte.
Plus de 230 ONG soutiennent le mouvement pour stopper les robots tueurs. Nos appels à un traité sont partagés par des experts techniques, des dirigeants mondiaux, des institutions internationales, des organes parlementaires et des champions politiques. 90 États demandent maintenant de nouvelles règles juridiques et des limites sur les systèmes d'armes autonomes. Des centaines d'entreprises technologiques se sont engagées à ne jamais participer ni soutenir le développement, la production ou l'utilisation de systèmes d'armes autonomes. Des milliers d'experts en intelligence artificielle et en robotique ont mis en garde contre ces armes et appelé les Nations Unies à agir. Il y a aussi une inquiétude claire du public. Dans les enquêtes IPSOS publiées en 2019 et 2020, plus de trois personnes sur cinq ont déclaré leur opposition au développement de systèmes d'armes qui sélectionneraient et attaqueraient des cibles sans intervention humaine.
Le secrétaire général de l'ONU, António Guterres, a qualifié les armes autonomes de "moralement répugnantes et politiquement inacceptables", et a fait de multiples déclarations depuis 2018 exhortant les États à négocier un traité. Et le Comité international de la Croix-Rouge a déclaré qu'une nouvelle loi était nécessaire pour traiter de l'autonomie en matière d'armes et a appelé à un traité combinant interdictions et réglementations. Le Parlement européen, les rapporteurs du Conseil des droits de l'homme et 26 lauréats du prix Nobel de la paix ont approuvé les appels à interdire et à réglementer les armes autonomes.
Certains craignent que les entreprises technologiques, en particulier celles travaillant sur des contrats militaires, n'aient pas de politiques pour s'assurer que leur travail ne contribue pas au développement d'armes autonomes. Un rapport de 2019 de PAX a révélé que Microsoft et Amazon sont nommés parmi les entreprises technologiques «à plus haut risque» au monde qui pourraient mettre le monde en danger grâce au développement de robots tueurs. En 2018, des milliers d'employés ont protesté contre le contrat de Google avec le Pentagone dans le cadre d'une initiative appelée Project Maven. L'action des travailleurs techniques a conduit Google à ne pas renouveler le projet Maven et à publier un ensemble de principes pour guider son travail en matière d'intelligence artificielle. Dans ces principes éthiques de l'IA, Google s'est engagé à ne pas « concevoir ou déployer une intelligence artificielle à utiliser dans des armes ».
La technologie devrait être utilisée pour rendre le monde meilleur, et les entreprises technologiques comme Amazon, Google, Microsoft, Facebook et d'autres devraient s'engager publiquement à ne pas contribuer au développement d'armes autonomes. Les travailleurs de la technologie, les roboticiens, les ingénieurs et les chercheurs le savent – c'est pourquoi des milliers d'entre eux ont signé des lettres ouvertes et des engagements appelant à une nouvelle loi internationale pour aborder l'autonomie dans les armes et assurer un contrôle humain significatif sur l'utilisation de la force.
C'est possible. De nombreuses universités ont des instituts de recherche travaillant sur l'intelligence artificielle et l'apprentissage automatique. Si vous voulez en être certain, vous pouvez vérifier si votre université a un positionnement éthique ou une déclaration claire de sa position sur les robots tueurs. Ou s'ils ont des contrats avec des ministères de la Défense ou des entreprises privées qui les ont engagés pour développer des technologies spécifiques. Il est crucial que les universités sachent comment la technologie qu'elles développent pourrait être utilisée à l'avenir. Le rapport PAX « Conflicted Intelligence » met en garde contre les dangers de la recherche et des partenariats universitaires en IA et décrit comment les universités peuvent aider à empêcher le développement d'armes autonomes.
S'il semble que votre université développe des technologies liées aux robots tueurs, pas de panique ! Il y a moyen d'agir. En 2018, le Korean Advanced Institute of Science and Technology (KAIST) a annoncé une collaboration avec le producteur d'armes Hanwha Systems. L'objectif était de "co-développer des technologies d'intelligence artificielle à appliquer aux armes militaires, rejoignant la compétition mondiale pour développer des armes autonomes". L'annonce a conduit à un boycott par des professeurs et des étudiants du monde entier, ce qui a finalement poussé l'université à rassurer publiquement qu'elle ne développerait pas de robots tueurs. Il a mis en place une politique qui stipule que « l'IA ne doit en aucun cas blesser des personnes ». L'espoir vient de l'action. Pour plus d'idées sur la façon d'empêcher votre université de développer des armes autonomes, consultez le brillant livret d'action des universités PAX.
Si vous lisez ceci, c'est que vous contribuez déjà au mouvement. Suivez-nous sur les réseaux sociaux. Rejoignez notre réseau jeunesse. Enseignez aux gens autour de vous - vos amis, votre famille, votre école - les robots tueurs. Partagez vos pensées et opinions sur les médias sociaux. La prise de conscience est la première étape du changement, et plus le message se propage, plus nous serons en mesure d'aller de l'avant avec plus d'élan.
1
Les jeunes militants d'Amérique latine expliquent pourquoi d'autres jeunes devraient se soucier des robots tueurs.
2
Notre coordonnateur hongrois des militants de la jeunesse Illés Katona explique pourquoi les jeunes devraient prendre des mesures pour arrêter les robots tueurs à l'occasion de la Journée internationale de la jeunesse 2020.
3
Marta Kosmyna sur la façon dont les grandes inventions peuvent avoir des conséquences imprévues. Alors, comment protégeons-nous nos robots du côté obscur ? En tant qu'étudiants, vous êtes les acteurs du changement d'aujourd'hui et les leaders de demain. Parlons du rôle de la robotique dans l'application de la loi et la guerre, et comment construire des robots dont nous pouvons être fiers.
Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.
Abonnez-vous