菜单英雄形象

自主武器的问题

我们没想到世界上需要一场阻止杀手机器人的运动——但确实如此。

武器系统的自主性是一个深刻的人类问题。 杀手机器人通过将生死决策权交给机器来改变人与技术之间的关系。 他们挑战人类对武力使用的控制,在他们针对人的地方,他们使我们失去人性——将我们减少到数据点。

但是,技术是由人设计和创造的。 我们有责任在可接受和不可接受之间建立界限。 我们有能力做到这一点,保护我们的人性,并确保我们生活的、我们继续建设的社会是一个重视人类生命的社会,而不是量化的。

图片替代文字

政府和公司正在使用新技术和人工智能快速开发自主性越来越高的武器系统。 这些“杀手机器人”可用于冲突地区、警察部队和边境管制。 但不应该让机器决定生死。

联合国专家向安理会报告了最近在利比亚冲突中使用“致命自主武器”的情况。 这些弹药的使用,对其运作方式或使用方式没有具体限制,表明迫切需要制定新的法律。

 

杀手机器人的九大问题 

(和一种解决方案)

 

1. 数字非人化

技术应该赋予社会所有成员权力,而不是让我们沦为刻板印象、标签、物品。 用于对抗人类,支持自主武器的技术将自动分析、模式匹配和处理人类作为数据。 事实是,机器无法将人识别为“人”。 因此,机器决定是否让我们受到攻击是数字非人化的最终形式。

如果我们允许这种非人性化,我们将努力保护自己免受生活其他领域的机器决策的影响。 我们需要禁止用于对付人类的自主武器系统,以防止这种滑向数字非人性化的趋势。

2. 算法偏差

允许以人为目标的自治系统意味着允许系统加强或加剧现有的不平等结构。 我们社会中的偏见存在于我们的数据集、我们的类别、我们的标签和我们的算法中。 根据预先设定的标签和身份杀人总会把我们拉向强化偏见或压迫的结构。 有问题的新技术也经常首先在边缘化社区进行测试和使用。 我们应该挑战不平等的结构,而不是将它们嵌入武器中。

图片替代文字

3. 失去有意义的人类控制

失去有意义的人类控制意味着武器的使用者不再完全参与其行为的后果。 这意味着“人类”的空间更小。 无论是在战场上还是在抗议中,机器都无法做出复杂的伦理选择,它们无法理解人类生命的价值。 机器不理解上下文或后果:理解是人类的能力——如果没有这种理解,我们就失去了道德责任,我们破坏了现有的法律规则。

确保有意义的人类控制意味着了解我们使用的技术,了解我们在哪里使用它们,并充分参与我们行为的后果。

4. 缺乏人为判断和理解 

如果人们不了解他们使用的系统或使用它们的环境,他们就无法做出有意义的判断。

自主系统正变得越来越复杂。 人工智能和机器学习的形式会给理解和可预测性带来障碍。 改变自己的行为或独立调整自己的程序的技术不能在真正的控制下使用。 其他技术可能会出现一个“黑匣子”,在那里不可能知道为什么或如何做出决定。 这可以产生在完成某些任务时非常有效的系统——但在任何意外决定可能意味着生死的情况下,它们的使用是不合适的。 我们需要确保系统具有充分的可解释性——并禁止那些无法在有意义的人工控制下使用的系统。

即使是简单的自治系统也存在挑战。 根据法律,军事指挥官必须能够判断攻击的必要性和相称性,并区分平民和合法的军事目标。 这意味着不仅要了解武器系统,还要了解其可能使用的环境。 在更广泛的领域或更长的时间段内,“背景”变得更加复杂——情况变得越来越不可预测。 需要新的法律规则来限制这种不可预测性并确保有意义的人类控制。

图片替代文字

5. 缺乏问责制

必须对人而不是机器负责。 但是,如果人们没有做出有意义的决定,那么他们就不能正确地被视为对其行为的后果负责。 让一个人对超出其有效控制范围运行的自主武器系统的行为负责是不公正的。 如果我们致力于问责,那么我们需要规则来确保正确的人在使用武力时承担责任。

6. 无法解释发生了什么或为什么

这些控制和问责问题可能会让任何受到伤害的人无处可去。 如果我们无法解释结果是如何发生的,那么我们就会让受害者蒙在鼓里——没有解释也没有责任。 在冲突中失去家人和亲人的人很少能为他们的损失伸张正义。 我们应该努力纠正这一点——而不是通过我们无法解释和/或控制的系统来编程这种无视。

七、降低开战门槛

现有的远程战争方法带来的挑战也将通过自主性的增加而被放大,人类将进一步远离使用武力。 现有的武装无人机已被各国用于在以前无法使用的情况下使用致命武力——将冲突的恐惧和恐怖带到远离活跃战场的地方。

可以理解,所有国家都希望降低本国军队发生冲突的风险。 但是,虽然用机器代替人可能使军事行动在“国内”在政治上更容易被接受,但也可能使冲突更容易发生。 它还将伤害的负担进一步转移到平民身上。

图片替代文字

8. 一场破坏稳定的军备竞赛

大型军事大国正在利用政治紧张局势和国际权力竞争作为投资减少人类控制的技术的理由。 我们听到双方都在争论:我们需要更多的自主权,以防我们的对手拥有更多的自主权”。 武器制造商急于鼓励这种言论以提高利润。 这些动态可能使一些人受益,但对我们其他人不利——将金钱浪费在不必要的军事开支上,加剧紧张局势并增加冲突风险(无论是故意的还是意外的自主反应)。 我们在国际关系中需要更多的人性,而不是更多的非人性化。

9. 我们与技术的关系

可以而且应该开发技术来促进和平、正义、人权和平等。 我们都需要为技术的开发和使用以及它在我们生活中所扮演的角色承担责任。 决定与做出杀人决定的机器划清界限——与在没有真正人为控制的情况下使用武力的技术划清界限——为我们与人工智能和社会各个领域的新技术的关系提供了根本性的考验。 如果我们现在不划清界限,随着国家和商业公司越来越多地投资于发展,它只会变得更加困难。 拒绝数字化非人性化并确保人类对武力的使用进行有意义的控制,是在现在和未来与所有人建立更强大的技术关系的关键步骤。

一个明确的解决方案

我们呼吁制定新的国际法,因为禁止和规范武器的法律为政府和公司在可接受和不可接受之间划定了界限。 我们可以通过使用我们的集体声音和公开要求变革,以更大的势头推动这一进程。

我们可以阻止杀手机器人

 

采取行动

我们走吧!
图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的