菜单英雄形象
+

更少的自主权。 更人性化。

技术应该被用来赋予所有人权力,而不是让我们沦为刻板印象、标签、物体,或者只是一种 1 和 0 的模式。

随着越来越多的数字非人性化,停止杀手机器人联盟致力于确保人类控制使用武力。 我们的竞选活动呼吁制定关于武器系统自主性的新国际法。

我们为什么存在
+

关于数字非人化的事实

去人性化

机器不把我们看作人,只是另一段需要处理和排序的代码。 从智能家居到警察执法使用机器狗,人工智能技术和自动化决策现在在我们的生活中发挥着重要作用。 在自动化范围的最末端是杀手机器人。

杀手机器人不只是出现——我们创造了它们。 如果我们允许这种非人性化,我们将努力保护自己免受生活其他领域的机器决策的影响。 我们需要禁止用于对付人类的自主武器系统,以防止这种滑向数字非人性化的趋势。

人工智能与种族

像面部识别这样的技术更喜欢浅肤色和外表阳刚的脸,而不是深色皮肤和外表女性化的脸。 而且,虽然将努力使数据集多样化,但这不仅仅是不具有代表性的数据的情况。 人工智能技术正在强化现有的歧视制度模式。 刻板印象是由自动决策制定的。

需要制定关于武器系统自主性的新法律,以在可接受和不可接受之间划清界限。 这对于防止数字非人化以及进一步的压迫和暴力循环至关重要。 我们应该挑战不平等的结构,而不是将它们嵌入武器中。

#保持Ctrl

无论是在战场上还是在抗议中,机器都无法做出复杂的伦理选择,它们无法理解人类生命的价值。 机器不理解上下文或后果:理解是人类的能力——如果没有这种理解,我们就会失去道德参与,破坏现有的法律规则。

确保有意义的人类控制意味着了解我们使用的技术,了解我们在哪里使用它们,并充分参与我们行为的后果。 生死决定不应该委托给机器。 现在是新的国际法来规范这些技术的时候了。

图片替代文字

不道德代码是一部思考杀手机器人在日益自动化的世界中的影响的电影——在这个世界中,机器决定杀死谁或摧毁什么。 它检查是否存在在道德上可以接受生命的情况,并且 - 计算机会知道其中的区别吗?

不道德的代码

了解更多

来自世界各地的最新消息

1

加沙将机器人用于军事目的

Stop Killer Robots 严重关切以色列增加使用机器人用于军事目的的报道,包括遥控机器人“狗”,用于加沙的监视目的,以及之前报道的使用自动目标推荐工具。虽然所讨论的机器人和系统似乎并未武器化,但越来越多的使用[...]

2

2023年自动决策研究年总结

2023 年自动化决策研究工作的简短总结——对于我们的小团队来说是非常忙碌的一年。资源和事件 2023 年,自动决策研究发布了一份关于人类控制国家立场趋同的报告,该报告对国家在人类控制立场上的趋同进行了审查 […]

研究和资源

联合国大会决议常见问题解答

关于自主武器系统(AWS)的决议将于 78 年 2023 月提交给第 XNUMX 届联合国大会第一委员会。该决议要求联合国秘书长就解决这一问题征求各国和利益攸关方的意见。法律、道德、人道主义和安全……

联合国大会决议至关重要的 5 个原因

78年2023月举行的第10届联合国大会第一委员会会议为取得进展提供了重要机遇。 经过十年的国际讨论,在《特定常规武器公约》(CCW)内没有取得具体成果后,第一委员会将提出一项决议,呼吁……

阻止杀手机器人:决策者指南

通过增加人工智能的功能和通过算法处理数据,机器开始在武力应用方面取代人类。 这对人类具有不可预测的和潜在的毁灭性后果。 就武器系统自主性的国际商定限制达成一致至关重要。 一个新...

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的