杀手机器人可能看起来像科幻小说,但不幸的是,它们是数字非人化的下一个重要步骤; 巩固前几代人的偏见和不平等。 杀手机器人通过将生死决策权交给机器来改变人与技术之间的关系。 他们挑战人类对使用武力的控制,在他们以人为目标的地方,他们使我们失去人性——将我们简化为数据点。
除非我们采取行动,否则子孙后代将不得不忍受现在做出的决定的后果——带有算法偏见的新技术的发展、气候变化、不公正的冲突、社会和政治的不平等和动荡……我们生活的世界可以很复杂,但我们对事件的影响力比我们想象的要大。

在我们的有生之年,我们将不得不面对许多全球和社会问题。
未来,年轻人将不得不面对今天所做决定的现实和后果。 世界各地的青年正在努力带来变革和新希望; 作为具有权力和影响力的变革推动者。
我们在数字时代长大,我们就是未来。 编码员、程序员、工程师、士兵、外交官、政治家、活动家、组织者和创意人员将不得不应对杀手机器人的现实。
我们有能力塑造技术、工业和政治的未来。 更广泛地投资于我们的社区和人类。 我们每个人都有机会传达这样一个信息,即不应将杀戮委托给机器,每个人的生命都有价值。
常见问题解答
自主武器存在伦理、道德、技术、法律和安全问题。 无论是在战场上还是在抗议活动中,机器都无法做出复杂的道德选择——它们无法理解人类生命的价值。 如果出现错误或违法行为,谁来承担责任? 程序员、制造商、军事指挥官还是机器本身? 这种问责制差距将难以确保伸张正义,尤其是对受害者而言。 杀手机器人的其他问题包括增加 数字非人化、算法偏差、有意义的人类控制的丧失、战争门槛的降低、潜在的破坏稳定的军备竞赛,以及我们与技术关系的根本转变。
如果使用,自主武器将从根本上改变战争方式的性质。 它们将导致更多的不对称战争,并通过引发新的军备竞赛来破坏国际和平与安全的稳定。 它们还将冲突的负担进一步转移到平民身上。 但是,杀手机器人的风险不仅仅威胁冲突中的人们。 在我们的社会中更广泛地使用这些武器也可能产生严重后果。 想想未来的抗议、边境管制、治安和监视,甚至我们使用的其他类型的技术。 如果我们让机器做出最终的生死决定,它会对我们的社会说些什么——它会对道德技术的斗争产生什么影响? 自主武器的出现和后果影响到我们所有人。
有人说杀手机器人会更准确——他们会比人类士兵更快、更有效率,可以进入士兵难以行动的地方,可以更精确地瞄准,通过减少“靴子上的靴子”来挽救生命地面”,并起到威慑作用。 但类似的事情也发生在地雷、集束弹药和核武器上——在被禁止之前造成数十万人伤亡的滥杀滥伤武器。 改变自己的行为或独立调整自己的编程的技术无法在真正的控制下使用。 其他技术可以提供一个“黑匣子”,在那里不可能知道为什么或如何做出决定。 根据法律,军事指挥官必须能够判断攻击的必要性和相称性,并能够区分平民和合法的军事目标。 这意味着不仅要了解武器系统,还要了解可能使用它的环境。 机器不理解上下文或后果:理解是人类的一种能力——如果没有这种理解,我们就会失去道德责任并破坏现有的法律规则。 杀手机器人的威胁和风险远远超过任何潜在优势。
在通过一项新的国际条约限制武器系统自主性的呼吁背后,世界各地的势头继续增强。 杀手机器人被视为对人类的主要威胁,需要迅速而有力的多边反应。
超过 230 个非政府组织支持阻止杀人机器人的运动。 技术专家、世界领导人、国际机构、议会机构和政治拥护者都赞同我们对条约的呼吁。 90 个州现在呼吁对自主武器系统制定新的法律规则和限制。 数百家科技公司已承诺永远不参与或支持自主武器系统的开发、生产或使用。 数以千计的人工智能和机器人专家对这些武器发出警告,并呼吁联合国采取行动。 也有明显的公众关注。 在 2019 年和 2020 年发布的 IPSOS 调查中,超过五分之三的人表示反对开发无需人工干预即可选择和攻击目标的武器系统。
联合国秘书长古特雷斯称自主武器“在道德上令人反感,在政治上是不可接受的”,并自 2018 年以来多次发表声明,敦促各国谈判达成一项条约。 红十字国际委员会表示,需要新的法律来解决武器的自主性问题,并呼吁制定一项结合禁令和法规的条约。 欧洲议会、人权理事会报告员和 26 位诺贝尔和平奖获得者都支持禁止和规范自主武器的呼吁。
有人担心科技公司,尤其是那些从事军事合同的公司,没有政策来确保他们的工作不会促进自主武器的发展。 PAX 2019 年的一份报告发现,微软和亚马逊被列为世界上“风险最高”的科技公司,它们可能通过杀手级机器人的开发将世界置于危险之中。 2018 年,数千名员工就一项名为 Project Maven 的倡议抗议谷歌与五角大楼签订的合同。 技术工作者的行动导致谷歌没有更新 Maven 项目,并发布了一套指导其与人工智能相关工作的原则。 在这些道德 AI 原则中,谷歌承诺不会“设计或部署人工智能用于武器”。
科技应该被用来让世界变得更美好,亚马逊、谷歌、微软、Facebook 等科技公司应该公开承诺不为自主武器的发展做出贡献。 技术工作者、机器人专家、工程师和研究人员都知道这一点——这就是为什么成千上万的人签署了一封公开信和承诺,呼吁制定新的国际法来解决武器的自主性问题,并确保人类对武力的使用进行有意义的控制。
这是可能的。 许多大学都有从事人工智能和机器学习的研究机构。 如果你想确定,你可以检查你的大学是否有道德定位或明确声明他们对杀手机器人的立场。 或者,如果他们与国防部或私营公司签订合同,与他们签订合同以开发特定技术。 对于大学来说,了解他们开发的技术在未来如何使用是至关重要的。 PAX 报告“冲突情报”警告了大学人工智能研究和合作伙伴关系的危险,并概述了大学如何帮助阻止自主武器的发展。
如果看起来您的大学正在开发与杀手机器人相关的技术,请不要惊慌! 有一种行动方式。 2018 年,韩国科学技术高等研究院 (KAIST) 宣布与武器生产商韩华系统公司合作。 目标是“共同开发应用于军事武器的人工智能技术,加入全球竞争开发自主武器”。 该公告导致全球教授和学生的抵制,这最终促使该大学向公众保证不会开发杀手机器人。 它实施了一项政策,即“人工智能在任何情况下都不应该伤害人”。 希望来自行动。 有关如何阻止您的大学开发自主武器的更多想法,请查看精彩的 PAX 大学行动手册。
如果您正在阅读本文,那么您已经在为这项运动做出贡献。 在社交媒体上关注我们。 加入我们的青年网络。 向你周围的人——你的朋友、家人、学校——传授杀手机器人的知识。 在社交媒体上分享您的想法和意见。 意识是改变的第一步,信息传播得越多,我们就越有可能以更大的动力向前推进。

青年网

大学和杀手机器人
然而,并非所有源自大学的创新都是有益的。 在许多国家,国防工业赞助大学研究设施。 学生和教授可能正在从事一个项目,该项目将用于推进自主武器的开发。 这就是为什么大学应该发布明确的政策,明确他们将开发什么技术和不开发什么技术之间的界限。
告知自己,提高认识,并采取行动。

侦察兵和杀手机器人
2020 年,世界童军运动组织-美洲地区与制止杀手机器人运动结成伙伴关系,以加强儿童、青少年和成年童军志愿者应用可持续发展目标的能力,特别是第 16 号“和平、正义”和坚实的机构”,以减轻杀手机器人对平民安全与和平的影响和威胁。 共同努力的目的是提高获得和提高他们对杀手机器人的了解的能力,以及他们的禁令所带来的全球利益,以支持全球和平。

伊普尔和平奖
这告诉我们,全世界对杀手机器人和我们正在努力确保的未来的兴趣正在增长,尤其是年轻人。
3
好机器人变坏了
Marta Kosmyna 关于伟大的发明如何产生意想不到的后果。 那么我们如何保护我们的机器人免于进入黑暗面呢? 作为学生,你们是今天的变革者和明天的领导者。 让我们谈谈机器人在执法和战争中的作用,以及如何制造我们引以为豪的机器人。