1
Rencontrez nos jeunes militants en Amérique latine !
Les jeunes militants d'Amérique latine expliquent pourquoi d'autres jeunes devraient se soucier des robots tueurs.
Lorsque les jeunes se rassemblent, nous pouvons faire écouter le monde.
Les robots tueurs peuvent sembler de la science-fiction, mais malheureusement, ils constituent la prochaine grande étape de la déshumanisation numérique ; en cimentant les préjugés et les inégalités des générations précédentes. Mais ils peuvent être évités.
Si nous n'agissons pas, les générations futures devront vivre avec les conséquences des décisions qui sont prises en ce moment – le développement de nouvelles technologies avec des biais algorithmiques, le changement climatique, les conflits injustes, les inégalités sociales et politiques et les troubles… Le monde dans lequel nous vivons peut être complexes, mais nous avons souvent plus de pouvoir pour influencer les événements que nous ne le pensons.
Il y a de nombreux problèmes mondiaux et sociaux auxquels nous devrons faire face au cours de notre vie.
Les dirigeants politiques ne devraient pas investir dans des armes autonomes maintenant, alors que les jeunes devront faire face à la réalité et aux conséquences de leurs décisions à l'avenir. Tout comme avec le changement climatique, en arrêtant le développement de robots tueurs, nous avons l'opportunité d'apporter un nouvel espoir ; être des agents de changement avec pouvoir et influence.
Nous avons grandi à l'ère numérique et nous sommes l'avenir. Les codeurs, programmeurs, ingénieurs, soldats, diplomates, politiciens, activistes, organisateurs et créatifs qui devront faire face aux réalités des robots tueurs.
Nous avons le pouvoir de façonner l'avenir de la technologie, de l'industrie, de la politique. Investir dans nos communautés et plus largement dans l'humanité. Chacun d'entre nous a la possibilité de faire passer le message que tuer ne doit pas être délégué aux machines et que chaque vie humaine a de la valeur.
Les armes autonomes posent des problèmes éthiques, moraux, techniques, juridiques et de sécurité. Les machines manquent de caractéristiques intrinsèquement humaines comme la compassion qui sont nécessaires pour faire des choix éthiques complexes. La technologie n'est pas parfaite, elle n'est pas neutre, et les robots tueurs seraient vulnérables aux défaillances techniques comme le piratage. En cas d'erreur ou d'acte illégal, qui serait responsable ? Le programmeur, le constructeur, le commandant militaire ou la machine elle-même ? L'écart de responsabilité rendrait difficile d'assurer la justice, en particulier pour les victimes. La nature de la guerre changera radicalement car l'envoi de machines à la place des troupes éliminerait la plupart des obstacles des conflits d'aujourd'hui. Les armes autonomes pourraient également être utilisées dans d'autres circonstances, telles que le contrôle des frontières et la police. Ils pourraient également être utilisés pour réprimer les manifestations et soutenir les régimes.
Si elles sont utilisées, des armes entièrement autonomes modifieront fondamentalement la nature de la façon dont les guerres sont menées. Ils conduiraient à une guerre plus asymétrique et déstabiliseraient la paix et la sécurité internationales en déclenchant une nouvelle course aux armements. Ils déplaceraient également davantage le fardeau du conflit sur les civils. Mais, les risques des robots tueurs ne menacent pas seulement les personnes en conflit. L'utilisation de ces armes au sein de nos sociétés plus largement pourrait également avoir de graves conséquences. Pensez aux futures manifestations, au contrôle des frontières, à la police et à la surveillance. Ou même sur d'autres types de technologies que nous utilisons. Que dirait-il de notre société – et quel impact cela aurait-il sur la lutte pour une technologie éthique – si nous laissions les décisions ultimes de vie ou de mort être prises par des machines ? Vraiment, l'émergence et les conséquences des armes autonomes nous affecteraient tous.
Certaines personnes disent que les robots tueurs seraient plus précis - qu'ils seraient plus rapides et plus efficaces que les soldats humains, pourraient aller dans des endroits difficiles à opérer pour les soldats, pourraient être plus précis dans le ciblage, sauver des vies en réduisant "les bottes sur le terrain », et a un effet dissuasif. Mais des choses similaires ont été dites à propos des mines terrestres, des armes à sous-munitions et des armes nucléaires - des armes aveugles qui ont tué et blessé des centaines de milliers de personnes avant d'être interdites. La réalité est que les robots tueurs manqueraient d'empathie et de jugement humain. Ils abaisseraient le seuil de la violence et des conflits et seraient des outils de persécution. C'est une perspective effrayante, et nous devons nous assurer qu'elle ne devienne pas une réalité généralisée. La précision peut être obtenue sans supprimer le contrôle humain significatif de l'utilisation de la force. Les menaces et les risques des robots tueurs l'emportent de loin sur les avantages potentiels.
Partout dans le monde, l'élan continue de se développer derrière l'appel à des limites à l'autonomie des systèmes d'armes par le biais d'un nouveau traité international. Les robots tueurs sont considérés comme une menace majeure pour l'humanité qui nécessite une réponse multilatérale rapide et forte.
Plus de 185 ONG soutiennent le mouvement pour arrêter les robots tueurs. Nos appels à un traité sont partagés par des experts techniques, des dirigeants mondiaux, des institutions internationales, des organes parlementaires et des champions politiques. Près de 100 États ont reconnu l'importance du contrôle humain sur l'usage de la force. Des centaines d'entreprises technologiques se sont engagées à ne jamais participer ni soutenir le développement, la production ou l'utilisation de systèmes d'armes autonomes. Des milliers d'experts en intelligence artificielle et en robotique ont mis en garde contre ces armes et ont appelé les Nations Unies à agir. Il y a aussi une inquiétude manifeste du public. Dans les enquêtes IPSOS publiées en 2019 et 2020, plus de trois personnes sur cinq ont déclaré leur opposition au développement de systèmes d'armes qui sélectionneraient et attaqueraient des cibles sans intervention humaine.
Le secrétaire général de l'ONU, Guterres, a qualifié les armes autonomes de "moralement répugnantes et politiquement inacceptables", et a fait plusieurs déclarations depuis 2018 exhortant les États à négocier un traité. Et le Comité international de la Croix-Rouge a déclaré qu'une nouvelle loi est nécessaire pour traiter l'autonomie des armes et a appelé à un traité combinant interdictions et réglementations. Le Parlement européen, les rapporteurs du Conseil des droits de l'homme, 26 lauréats du prix Nobel de la paix et même des magnats de la technologie comme Elon Musk de Tesla, Demis Hassabis de Google et Steve Wozniak d'Apple, ont approuvé les appels à interdire les armes autonomes.
Certains craignent que les entreprises technologiques, en particulier celles travaillant sur des contrats militaires, n'aient pas de politiques pour s'assurer que leur travail ne contribue pas au développement d'armes autonomes. Un rapport de 2019 de PAX a révélé que Microsoft et Amazon sont nommés parmi les entreprises technologiques «à plus haut risque» au monde qui pourraient mettre le monde en danger grâce au développement de robots tueurs. En 2018, des milliers d'employés ont protesté contre le contrat de Google avec le Pentagone dans le cadre d'une initiative appelée Project Maven. L'action des travailleurs techniques a conduit Google à ne pas renouveler le projet Maven et à publier un ensemble de principes pour guider son travail en matière d'intelligence artificielle. Dans ces principes éthiques de l'IA, Google s'est engagé à ne pas « concevoir ou déployer une intelligence artificielle à utiliser dans des armes ».
La technologie devrait être utilisée pour rendre le monde meilleur, et les entreprises technologiques comme Amazon, Google, Microsoft, Facebook et d'autres devraient s'engager publiquement à ne pas contribuer au développement d'armes autonomes. Les travailleurs de la technologie, les roboticiens, les ingénieurs et les chercheurs le savent – c'est pourquoi des milliers d'entre eux ont signé des lettres ouvertes et des engagements appelant à une nouvelle loi internationale pour aborder l'autonomie dans les armes et assurer un contrôle humain significatif sur l'utilisation de la force.
C'est possible. De nombreuses universités ont des instituts de recherche travaillant sur l'intelligence artificielle et l'apprentissage automatique. Si vous voulez en être certain, vous pouvez vérifier si votre université a un positionnement éthique ou une déclaration claire de sa position sur les robots tueurs. Ou s'ils ont des contrats avec des ministères de la Défense ou des entreprises privées qui les ont engagés pour développer des technologies spécifiques. Il est crucial que les universités sachent comment la technologie qu'elles développent pourrait être utilisée à l'avenir. Le rapport PAX « Conflicted Intelligence » met en garde contre les dangers de la recherche et des partenariats universitaires en IA et décrit comment les universités peuvent aider à empêcher le développement d'armes autonomes.
S'il semble que votre université développe des technologies liées aux robots tueurs, pas de panique ! Il y a moyen d'agir. En 2018, le Korean Advanced Institute of Science and Technology (KAIST) a annoncé une collaboration avec le producteur d'armes Hanwha Systems. L'objectif était de "co-développer des technologies d'intelligence artificielle à appliquer aux armes militaires, rejoignant la compétition mondiale pour développer des armes autonomes". L'annonce a conduit à un boycott par des professeurs et des étudiants du monde entier, ce qui a finalement poussé l'université à rassurer publiquement qu'elle ne développerait pas de robots tueurs. Il a mis en place une politique qui stipule que « l'IA ne doit en aucun cas blesser des personnes ». L'espoir vient de l'action. Pour plus d'idées sur la façon d'empêcher votre université de développer des armes autonomes, consultez le brillant livret d'action des universités PAX.
Si vous lisez ceci, vous contribuez déjà au mouvement. Suivez-nous sur les réseaux sociaux et rejoignez notre réseau jeunesse. Enseignez aux gens autour de vous - vos amis, votre famille, votre école - les robots tueurs. Partagez vos pensées et opinions sur les réseaux sociaux. La prise de conscience est la première étape pour changer, et plus le message se propage, plus nous serons en mesure d'aller de l'avant avec plus d'élan.
1
Les jeunes militants d'Amérique latine expliquent pourquoi d'autres jeunes devraient se soucier des robots tueurs.
2
Notre coordonnateur hongrois des militants de la jeunesse Illés Katona explique pourquoi les jeunes devraient prendre des mesures pour arrêter les robots tueurs à l'occasion de la Journée internationale de la jeunesse 2020.
3
Marta Kosmyna sur la façon dont les grandes inventions peuvent avoir des conséquences imprévues. Alors, comment protégeons-nous nos robots du côté obscur ? En tant qu'étudiants, vous êtes les acteurs du changement d'aujourd'hui et les leaders de demain. Parlons du rôle de la robotique dans l'application de la loi et la guerre, et comment construire des robots dont nous pouvons être fiers.
Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.
Rejoignez-nous