菜单英雄形象

青年和杀手机器人

当年轻人聚集在一起时,我们可以让世界倾听。

杀手机器人可能看起来像科幻小说,但不幸的是,它们是数字非人性化的下一个重要步骤; 巩固前几代人的偏见和不平等。 但它们是可以预防的。

除非我们采取行动,否则子孙后代将不得不承受目前正在做出的决定的后果——具有算法偏见的新技术的发展、气候变化、不公正的冲突、社会和政治的不平等和动荡……我们生活的世界可以是复杂的,但通常我们对事件的影响力比我们想象的要大。

 

图片替代文字

在我们的有生之年,我们将不得不面对许多全球和社会问题。

政治领导人现在不应该投资自主武器,因为年轻人将不得不面对他们未来决定的现实和后果。 就像气候变化一样,通过停止开发杀手机器人,我们有机会带来新的希望; 成为具有权力和影响力的变革推动者。

我们在数字时代长大,我们就是未来。 编码员、程序员、工程师、士兵、外交官、政治家、活动家、组织者和创意人员将不得不应对杀手机器人的现实。

我们有能力塑造技术、工业和政治的未来。 更广泛地投资于我们的社区和人类。 我们每个人都有机会传达这样一个信息,即不应将杀戮委托给机器,每个人的生命都有价值。


 

常见问题解答

自主武器存在伦理、道德、技术、法律和安全问题。 机器缺乏做出复杂道德选择所必需的同情心等固有的人类特征。 技术并不完美,也不是中立的,杀手机器人很容易受到黑客攻击等技术故障的影响。 如果出现错误或违法行为,谁来负责? 程序员、制造商、军事指挥官还是机器本身? 问责制的差距将难以确保伸张正义,尤其是对受害者而言。 战争的性质将发生巨大变化,因为用机器代替军队将消除当今冲突的大部分障碍。 自主武器也可用于其他情况,例如边境控制和警务。 它们还可用于镇压抗议和支持政权。

如果使用,完全自主的武器将从根本上改变战争的性质。 它们将导致更加不对称的战争,并通过引发新的军备竞赛破坏国际和平与安全。 他们还将把冲突的负担进一步转移到平民身上。 但是,杀手机器人的风险不仅威胁到冲突中的人们。 在我们的社会中更广泛地使用这些武器也可能产生严重后果。 想想未来的抗议、边境控制、警务和监视。 甚至关于我们使用的其他类型的技术。 如果我们让机器做出最终的生死决定,它会对我们的社会产生什么影响——它会对道德技术的斗争产生什么影响? 真的,自主武器的出现和后果会影响我们所有人。

有人说杀手机器人会更准确——它们会比人类士兵更快、更高效,可以进入士兵难以操作的地方,可以更精确地瞄准,通过减少“靴子上的靴子”来挽救生命。地面”,并起到威慑作用。 但关于地雷、集束弹药和核武器也有类似的说法——这些不分青红皂白的武器在被禁止之前杀死和伤害了数十万人。现实是,杀手机器人缺乏同情心和人类判断力。 它们会降低暴力和冲突的门槛,成为迫害的工具。 这是一个可怕的前景,我们应该确保它不会成为普遍存在的现实。 无需从使用武力中消除有意义的人为控制即可实现准确性。 杀手机器人的威胁和风险远远超过任何潜在优势。

在通过一项新的国际条约限制武器系统自主性的呼吁背后,世界各地的势头继续增强。 杀手机器人被视为对人类的主要威胁,需要迅速而有力的多边反应。

超过 185 个非政府组织支持阻止杀手机器人的运动。 技术专家、世界领导人、国际机构、议会机构和政治支持者都同意我们对条约的呼吁。 近 100 个州已经承认人类控制武力使用的重要性。 数百家科技公司承诺永远不会参与或支持自主武器系统的开发、生产或使用。 数以千计的人工智能和机器人专家对这些武器发出警告,并呼吁联合国采取行动。 也有明显的公众关注。 在 2019 年和 2020 年发布的 IPSOS 调查中,五分之三以上的人表示反对开发无需人工干预即可选择和攻击目标的武器系统。

联合国秘书长古特雷斯称自主武器“在道德上令人反感和政治上不可接受”,并自 2018 年以来多次发表声明敦促各国谈判一项条约。 红十字国际委员会表示需要制定新的法律来解决武器自主性问题,并呼吁制定一项结合禁令和法规的条约。 欧洲议会、人权理事会报告员、26 位诺贝尔和平奖获得者,甚至像特斯拉的埃隆·马斯克、谷歌的德米斯·哈萨比斯和苹果的史蒂夫·沃兹尼亚克这样的科技巨头,都支持禁止自主武器的呼吁。

有人担心科技公司,尤其是那些从事军事合同的公司,没有政策来确保他们的工作不会促进自主武器的发展。 PAX 2019 年的一份报告发现,微软和亚马逊被列为世界上“风险最高”的科技公司,它们可能通过杀手级机器人的开发将世界置于危险之中。 2018 年,数千名员工就一项名为 Project Maven 的倡议抗议谷歌与五角大楼签订的合同。 技术工作者的行动导致谷歌没有更新 Maven 项目,并发布了一套指导其与人工智能相关工作的原则。 在这些道德 AI 原则中,谷歌承诺不会“设计或部署人工智能用于武器”。

科技应该被用来让世界变得更美好,亚马逊、谷歌、微软、Facebook 等科技公司应该公开承诺不为自主武器的发展做出贡献。 技术工作者、机器人专家、工程师和研究人员都知道这一点——这就是为什么成千上万的人签署了一封公开信和承诺,呼吁制定新的国际法来解决武器的自主性问题,并确保人类对武力的使用进行有意义的控制。

这是可能的。 许多大学都有从事人工智能和机器学习的研究机构。 如果你想确定,你可以检查你的大学是否有道德定位或明确声明他们对杀手机器人的立场。 或者,如果他们与国防部或私营公司签订合同,与他们签订合同以开发特定技术。 对于大学来说,了解他们开发的技术在未来如何使用是至关重要的。 PAX 报告“冲突情报”警告了大学人工智能研究和合作伙伴关系的危险,并概述了大学如何帮助阻止自主武器的发展。

如果看起来您的大学正在开发与杀手机器人相关的技术,请不要惊慌! 有一种行动方式。 2018 年,韩国科学技术高等研究院 (KAIST) 宣布与武器生产商韩华系统公司合作。 目标是“共同开发应用于军事武器的人工智能技术,加入全球竞争开发自主武器”。 该公告导致全球教授和学生的抵制,这最终促使该大学向公众保证不会开发杀手机器人。 它实施了一项政策,即“人工智能在任何情况下都不应该伤害人”。 希望来自行动。 有关如何阻止您的大学开发自主武器的更多想法,请查看精彩的 PAX 大学行动手册。

如果您正在阅读本文,那么您已经在为这项运动做出贡献。 在社交媒体上关注我们并加入我们的青年网络。 教你周围的人——你的朋友、家人、学校——了解杀手机器人。 在社交媒体上分享您的想法和意见。 意识是改变的第一步,信息传播得越多,我们就越有可能以更大的动力推进。

图片替代文字

青年网

青年有权利和责任参与影响他们的决策。 青年网络是年轻领导人将他们的技能和优势带到阻止杀手机器人运动的地方。 该网络将来自世界各地的年轻人联系在一起,促进社区和协作,并为所有年轻人提供可访问的资源和机会,以确保没有自动杀戮的未来。

青年网
图片替代文字

大学和杀手机器人

大学在塑造社会方面发挥着重要作用。 他们经常推动创新,并在培养下一代领导者方面发挥关键作用。 日常生活中使用的许多重要发明,从安全带到触摸屏,都来自大学研究——大学研究可以产生许多积极影响和应用。

然而,并非所有源自大学的创新都是有益的。 在许多国家,国防工业赞助大学研究设施。 学生和教授可能正在从事一个项目,该项目将用于推进自主武器的开发。 这就是为什么大学应该发布明确的政策,明确他们将开发什么技术和不开发什么技术之间的界限。

告知自己,提高认识,并采取行动。

从杀手机器人中拯救你的大学
播放视频 图片替代文字

侦察兵和杀手机器人

2019 年夏天,来自 40,000 个国家/地区的 169 多名童子军参加了在美国西弗吉尼亚州的 Summit Bechtel 童军保护区举行的第 24 届世界童军大会。 在超过 10 天的时间里,来自世界各地的童子军聚集在一起,以促进和平、相互理解、领导力和生活技能。 我们的团队与数千名童子军进行了交谈,他们告诉我们为什么他们想要 #KeepCtrl 而不是使用武力。

2020 年,世界童军运动组织-美洲地区与制止杀手机器人运动结成伙伴关系,以加强儿童、青少年和成年童军志愿者应用可持续发展目标的能力,特别是第 16 号“和平、正义”和坚实的机构”,以减轻杀手机器人对平民安全与和平的影响和威胁。 共同努力的目的是提高获得和提高他们对杀手机器人的了解的能力,以及他们的禁令所带来的全球利益,以支持全球和平。

童子军,欢迎来到#TeamHuman
图片替代文字

伊普尔和平奖

自 2002 年以来,每三年,比利时伊普尔市的学生都会向最近为和平做出贡献的组织、个人或倡议颁发国际和平奖。 2020 年的奖项颁发给了制止杀手机器人运动,投票支持伊普尔和平奖的人中有 18% 的年龄在 XNUMX 岁或以下。

这告诉我们,全世界对杀手机器人和我们正在努力确保的未来的兴趣正在增长,尤其是年轻人。

关于伊普尔和平奖的更多信息

2

2020 年国际青年日

我们的匈牙利青年活动家协调员 Illés Katona 解释了为什么青年应该在 2020 年国际青年日采取行动阻止杀手机器人。

3

好机器人变坏了

Marta Kosmyna 关于伟大的发明如何产生意想不到的后果。 那么我们如何保护我们的机器人免于进入黑暗面呢? 作为学生,你们是今天的变革者和明天的领导者。 让我们谈谈机器人在执法和战争中的作用,以及如何制造我们引以为豪的机器人。

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的