image de héros de menu

Jeunes et robots tueurs

Lorsque les jeunes se rassemblent, nous pouvons faire écouter le monde.

Les robots tueurs peuvent sembler être de la science-fiction, mais malheureusement, ils sont la prochaine grande étape de la déshumanisation numérique ; cimenter les préjugés et les inégalités des générations précédentes. Les robots tueurs changent la relation entre les gens et la technologie en confiant la prise de décision de vie ou de mort aux machines. Ils remettent en question le contrôle humain sur l'usage de la force, et lorsqu'ils ciblent des personnes, ils nous déshumanisent - nous réduisant à des points de données.

Si nous n'agissons pas, les générations futures devront vivre avec les conséquences des décisions qui sont prises en ce moment - le développement de nouvelles technologies avec un biais algorithmique, le changement climatique, les conflits injustes, les inégalités et les troubles sociaux et politiques... Le monde dans lequel nous vivons peut être complexe, mais nous avons plus de pouvoir pour influencer les événements que nous ne le pensons.

 

Texte alternatif de l'image

Il y a de nombreux problèmes mondiaux et sociaux auxquels nous devrons faire face au cours de notre vie.

À l'avenir, les jeunes devront affronter la réalité et les conséquences des décisions qui sont prises aujourd'hui. Les jeunes du monde entier s'efforcent d'apporter des changements et un nouvel espoir ; en tant qu'agents de changement dotés de pouvoir et d'influence.

Nous avons grandi à l'ère numérique et nous sommes l'avenir. Les codeurs, programmeurs, ingénieurs, soldats, diplomates, politiciens, activistes, organisateurs et créatifs qui devront faire face aux réalités des robots tueurs.

Nous avons le pouvoir de façonner l'avenir de la technologie, de l'industrie, de la politique. Investir dans nos communautés et plus largement dans l'humanité. Chacun d'entre nous a la possibilité de faire passer le message que tuer ne doit pas être délégué aux machines et que chaque vie humaine a de la valeur.


 

FAQ

Il y a des problèmes éthiques, moraux, techniques, juridiques et de sécurité avec les armes autonomes. Que ce soit sur le champ de bataille ou lors d'une manifestation, les machines ne peuvent pas faire de choix éthiques complexes - elles ne peuvent pas comprendre la valeur de la vie humaine. En cas d'erreur ou d'acte illégal, qui serait responsable ? Le programmeur, le constructeur, le commandant militaire ou la machine elle-même ? Cet écart de responsabilité rendrait difficile la garantie de la justice, en particulier pour les victimes. D'autres problèmes avec les robots tueurs incluent l'augmentation déshumanisation numérique, des biais algorithmiques, une perte de contrôle humain significatif, l'abaissement du seuil de la guerre, une course aux armements potentiellement déstabilisatrice et un changement fondamental dans notre relation avec la technologie.

Si elles sont utilisées, les armes autonomes modifieront fondamentalement la nature de la manière dont les guerres sont menées. Ils conduiraient à une guerre plus asymétrique et déstabiliseraient la paix et la sécurité internationales en déclenchant une nouvelle course aux armements. Ils déplaceraient également davantage le fardeau du conflit sur les civils. Mais les risques des robots tueurs ne menacent pas seulement les personnes en conflit. L'utilisation de ces armes au sein de nos sociétés plus largement pourrait également avoir de graves conséquences. Pensez aux manifestations futures, au contrôle des frontières, au maintien de l'ordre et à la surveillance, ou même à d'autres types de technologies que nous utilisons. Que dirait-il de notre société – et quel impact cela aurait-il sur la lutte pour une technologie éthique – si nous laissions les décisions ultimes de vie ou de mort être prises par des machines ? L'émergence et les conséquences des armes autonomes nous concernent tous.

Certaines personnes disent que les robots tueurs seraient plus précis - qu'ils seraient plus rapides et plus efficaces que les soldats humains, qu'ils pourraient aller dans des endroits difficiles à opérer pour les soldats, qu'ils pourraient être plus précis dans le ciblage, sauver des vies en réduisant les "bottes sur le terrain » et avoir un effet dissuasif. Mais des choses similaires ont été dites à propos des mines terrestres, des armes à sous-munitions et des armes nucléaires – des armes aveugles qui ont tué et blessé des centaines de milliers de personnes avant d'être interdites. Les technologies qui modifient leur propre comportement ou adaptent leur propre programmation de manière indépendante ne peuvent pas être utilisées avec un contrôle réel. D'autres technologies peuvent présenter une « boîte noire », où il n'est pas possible de savoir pourquoi ou comment les décisions sont prises. En vertu de la loi, les commandants militaires doivent pouvoir juger de la nécessité et de la proportionnalité d'une attaque et faire la distinction entre les civils et les cibles militaires légitimes. Cela signifie non seulement comprendre un système d'arme, mais aussi comprendre le contexte dans lequel il pourrait être utilisé. Les machines ne comprennent pas le contexte ou les conséquences : la compréhension est une capacité humaine - et sans cette compréhension, nous perdons notre responsabilité morale et nous sapons les règles juridiques existantes. Les menaces et les risques des robots tueurs l'emportent de loin sur les avantages potentiels.

Partout dans le monde, l'élan continue de se développer derrière l'appel à des limites à l'autonomie des systèmes d'armes par le biais d'un nouveau traité international. Les robots tueurs sont considérés comme une menace majeure pour l'humanité qui nécessite une réponse multilatérale rapide et forte.

Plus de 230 ONG soutiennent le mouvement pour stopper les robots tueurs. Nos appels à un traité sont partagés par des experts techniques, des dirigeants mondiaux, des institutions internationales, des organes parlementaires et des champions politiques. 90 États demandent maintenant de nouvelles règles juridiques et des limites sur les systèmes d'armes autonomes. Des centaines d'entreprises technologiques se sont engagées à ne jamais participer ni soutenir le développement, la production ou l'utilisation de systèmes d'armes autonomes. Des milliers d'experts en intelligence artificielle et en robotique ont mis en garde contre ces armes et appelé les Nations Unies à agir. Il y a aussi une inquiétude claire du public. Dans les enquêtes IPSOS publiées en 2019 et 2020, plus de trois personnes sur cinq ont déclaré leur opposition au développement de systèmes d'armes qui sélectionneraient et attaqueraient des cibles sans intervention humaine.

Le secrétaire général de l'ONU, António Guterres, a qualifié les armes autonomes de "moralement répugnantes et politiquement inacceptables", et a fait de multiples déclarations depuis 2018 exhortant les États à négocier un traité. Et le Comité international de la Croix-Rouge a déclaré qu'une nouvelle loi était nécessaire pour traiter de l'autonomie en matière d'armes et a appelé à un traité combinant interdictions et réglementations. Le Parlement européen, les rapporteurs du Conseil des droits de l'homme et 26 lauréats du prix Nobel de la paix ont approuvé les appels à interdire et à réglementer les armes autonomes.

Certains craignent que les entreprises technologiques, en particulier celles travaillant sur des contrats militaires, n'aient pas de politiques pour s'assurer que leur travail ne contribue pas au développement d'armes autonomes. Un rapport de 2019 de PAX a révélé que Microsoft et Amazon sont nommés parmi les entreprises technologiques «à plus haut risque» au monde qui pourraient mettre le monde en danger grâce au développement de robots tueurs. En 2018, des milliers d'employés ont protesté contre le contrat de Google avec le Pentagone dans le cadre d'une initiative appelée Project Maven. L'action des travailleurs techniques a conduit Google à ne pas renouveler le projet Maven et à publier un ensemble de principes pour guider son travail en matière d'intelligence artificielle. Dans ces principes éthiques de l'IA, Google s'est engagé à ne pas « concevoir ou déployer une intelligence artificielle à utiliser dans des armes ».

La technologie devrait être utilisée pour rendre le monde meilleur, et les entreprises technologiques comme Amazon, Google, Microsoft, Facebook et d'autres devraient s'engager publiquement à ne pas contribuer au développement d'armes autonomes. Les travailleurs de la technologie, les roboticiens, les ingénieurs et les chercheurs le savent – ​​c'est pourquoi des milliers d'entre eux ont signé des lettres ouvertes et des engagements appelant à une nouvelle loi internationale pour aborder l'autonomie dans les armes et assurer un contrôle humain significatif sur l'utilisation de la force.

C'est possible. De nombreuses universités ont des instituts de recherche travaillant sur l'intelligence artificielle et l'apprentissage automatique. Si vous voulez en être certain, vous pouvez vérifier si votre université a un positionnement éthique ou une déclaration claire de sa position sur les robots tueurs. Ou s'ils ont des contrats avec des ministères de la Défense ou des entreprises privées qui les ont engagés pour développer des technologies spécifiques. Il est crucial que les universités sachent comment la technologie qu'elles développent pourrait être utilisée à l'avenir. Le rapport PAX « Conflicted Intelligence » met en garde contre les dangers de la recherche et des partenariats universitaires en IA et décrit comment les universités peuvent aider à empêcher le développement d'armes autonomes.

S'il semble que votre université développe des technologies liées aux robots tueurs, pas de panique ! Il y a moyen d'agir. En 2018, le Korean Advanced Institute of Science and Technology (KAIST) a annoncé une collaboration avec le producteur d'armes Hanwha Systems. L'objectif était de "co-développer des technologies d'intelligence artificielle à appliquer aux armes militaires, rejoignant la compétition mondiale pour développer des armes autonomes". L'annonce a conduit à un boycott par des professeurs et des étudiants du monde entier, ce qui a finalement poussé l'université à rassurer publiquement qu'elle ne développerait pas de robots tueurs. Il a mis en place une politique qui stipule que « l'IA ne doit en aucun cas blesser des personnes ». L'espoir vient de l'action. Pour plus d'idées sur la façon d'empêcher votre université de développer des armes autonomes, consultez le brillant livret d'action des universités PAX.

Si vous lisez ceci, c'est que vous contribuez déjà au mouvement. Suivez-nous sur les réseaux sociaux. Rejoignez notre réseau jeunesse. Enseignez aux gens autour de vous - vos amis, votre famille, votre école - les robots tueurs. Partagez vos pensées et opinions sur les médias sociaux. La prise de conscience est la première étape du changement, et plus le message se propage, plus nous serons en mesure d'aller de l'avant avec plus d'élan.

Texte alternatif de l'image

Réseau des jeunes

Les jeunes ont le droit et la responsabilité de participer aux décisions qui les concernent. Le Réseau des jeunes est un endroit où les jeunes leaders mettent leurs compétences et leurs forces au service du mouvement pour arrêter les robots tueurs. Le réseau connecte des jeunes du monde entier, facilite la communauté et la collaboration, et fournit des ressources et des opportunités accessibles à tous les jeunes pour assurer un avenir sans meurtre automatisé.
Rejoignez le réseau des jeunes
Texte alternatif de l'image

Universités et robots tueurs

Les universités jouent un rôle important dans le façonnement de la société. Ils stimulent souvent l'innovation et jouent un rôle clé dans la formation de la prochaine génération de dirigeants. De nombreuses inventions importantes utilisées dans la vie quotidienne, des ceintures de sécurité aux écrans tactiles, proviennent de la recherche universitaire – il existe de nombreux impacts positifs et applications que la recherche universitaire peut avoir.

Cependant, toutes les innovations issues des universités ne sont pas bénéfiques. Dans de nombreux pays, l'industrie de la défense parraine des installations de recherche universitaire. Les étudiants et les professeurs pourraient travailler sur un projet qui sera utilisé pour faire avancer le développement d'armes autonomes. C'est pourquoi les universités devraient publier des politiques claires, précisant où elles tracent la frontière entre les technologies qu'elles développeront et ne développeront pas.

Informez-vous, sensibilisez-vous et agissez.
Sauvez votre Uni de Killer Robots
Voir la vidéo Texte alternatif de l'image

Scouts et robots tueurs

À l'été 2019, plus de 40,000 169 scouts de 24 pays ont participé au 10e Jamboree Scout Mondial à la réserve scoute Summit Bechtel en Virginie-Occidentale, aux États-Unis. Pendant plus de XNUMX jours, des scouts des quatre coins du monde se sont réunis pour promouvoir la paix, la compréhension mutuelle, le leadership et les compétences de vie. Notre équipe a parlé à des milliers de scouts, qui nous ont expliqué pourquoi ils voulaient #KeepCtrl sur l'usage de la force.

En 2020, l'Organisation mondiale du Mouvement scout-Région interaméricaine et la Campagne pour arrêter les robots tueurs ont formé un partenariat pour renforcer les capacités des enfants, des adolescents et des bénévoles scouts adultes à appliquer les Objectifs de développement durable, en particulier le n°16 « Paix, Justice et des institutions solides », afin d'atténuer l'impact et les menaces des robots tueurs sur la sécurité et la paix de la population civile. L'entreprise commune vise à promouvoir la capacité d'obtenir et d'améliorer leurs connaissances sur les robots tueurs et les avantages mondiaux de leur interdiction en faveur de la paix mondiale.
Scouts, bienvenue dans la #TeamHuman
Texte alternatif de l'image

Prix ​​de la paix d'Ypres

Tous les trois ans depuis 2002, les élèves des écoles de la ville belge d'Ypres décernent son Prix international de la paix à une organisation, une personne ou une initiative qui a récemment contribué à la paix. Le prix pour 2020 a été décerné à la Campagne pour arrêter les robots tueurs et quatre-vingt-dix pour cent de ceux qui ont voté pour le Prix de la paix d'Ypres étaient âgés de 18 ans ou moins.

Cela nous indique que l'intérêt pour les robots tueurs et l'avenir que nous essayons d'assurer grandit à travers le monde, en particulier chez les jeunes.

En savoir plus sur le Prix de la paix d'Ypres

2

Journée internationale de la jeunesse 2020

Notre coordonnateur hongrois des militants de la jeunesse Illés Katona explique pourquoi les jeunes devraient prendre des mesures pour arrêter les robots tueurs à l'occasion de la Journée internationale de la jeunesse 2020.

3

Les bons robots ont mal tourné

Marta Kosmyna sur la façon dont les grandes inventions peuvent avoir des conséquences imprévues. Alors, comment protégeons-nous nos robots du côté obscur ? En tant qu'étudiants, vous êtes les acteurs du changement d'aujourd'hui et les leaders de demain. Parlons du rôle de la robotique dans l'application de la loi et la guerre, et comment construire des robots dont nous pouvons être fiers.

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous