去人性化
机器不把我们看作人,只是另一段需要处理和排序的代码。 从智能家居到警察执法使用机器狗,人工智能技术和自动化决策现在在我们的生活中发挥着重要作用。 在自动化范围的最末端是杀手机器人。
杀手机器人不只是出现——我们创造了它们。 如果我们允许这种非人性化,我们将努力保护自己免受生活其他领域的机器决策的影响。 我们需要禁止用于对付人类的自主武器系统,以防止这种滑向数字非人性化的趋势。
技术应该被用来赋予所有人权力,而不是让我们沦为刻板印象、标签、物体,或者只是一种 1 和 0 的模式。
随着越来越多的数字非人性化,停止杀手机器人联盟致力于确保人类控制使用武力。 我们的竞选活动呼吁制定关于武器系统自主性的新国际法。
我们为什么存在机器不把我们看作人,只是另一段需要处理和排序的代码。 从智能家居到警察执法使用机器狗,人工智能技术和自动化决策现在在我们的生活中发挥着重要作用。 在自动化范围的最末端是杀手机器人。
杀手机器人不只是出现——我们创造了它们。 如果我们允许这种非人性化,我们将努力保护自己免受生活其他领域的机器决策的影响。 我们需要禁止用于对付人类的自主武器系统,以防止这种滑向数字非人性化的趋势。
像面部识别这样的技术更喜欢浅肤色和外表阳刚的脸,而不是深色皮肤和外表女性化的脸。 而且,虽然将努力使数据集多样化,但这不仅仅是不具有代表性的数据的情况。 人工智能技术正在强化现有的歧视制度模式。 刻板印象是由自动决策制定的。
需要制定关于武器系统自主性的新法律,以在可接受和不可接受之间划清界限。 这对于防止数字非人化以及进一步的压迫和暴力循环至关重要。 我们应该挑战不平等的结构,而不是将它们嵌入武器中。
无论是在战场上还是在抗议中,机器都无法做出复杂的伦理选择,它们无法理解人类生命的价值。 机器不理解上下文或后果:理解是人类的能力——如果没有这种理解,我们就会失去道德参与,破坏现有的法律规则。
确保有意义的人类控制意味着了解我们使用的技术,了解我们在哪里使用它们,并充分参与我们行为的后果。 生死决定不应该委托给机器。 现在是新的国际法来规范这些技术的时候了。
1
报道称,美国空军模拟了人工智能操作的无人机决定杀死人类操作员以实现任务目标的场景,这令人深感担忧。 尽管美国空军已确认这不是 AI 模拟,但它仍然表明迫切需要有关自治的国际法 [...]
2
15 年 19 月 2023 日至 XNUMX 日举行的自主武器系统 (AWS) 政府专家组 (GGE) 会议今年的最后一次讨论没有取得实质性进展。 成果报告再次空洞内容,未能为全球迫切需要的AWS防护措施指明方向。 尽管 […]
3
常规武器公约 (CCW) 政府专家组 (GGE) 2023 年关于自主武器系统 (AWS) 的第一次会议于 6 月 10 日至 5 日举行。 在拉丁美洲和加勒比国家发表贝伦公报并提交 XNUMX 份关于 AWS 国际框架的额外书面提案后,各国参与 [...]
实现新国际法的势头越来越大,这是人们普遍认识到武器系统自主性所带来的道德、法律和人道主义危险以及我们需要的解决方案的明确性的结果。 各国在启动新条约谈判方面发挥领导作用的机会已经到来……
通过增加人工智能的功能和通过算法处理数据,机器开始在武力应用方面取代人类。 这对人类具有不可预测的和潜在的毁灭性后果。 就武器系统自主性的国际商定限制达成一致至关重要。 一个新...
本文列出了制止杀手机器人运动对政府专家组主席于 12 年 2021 月 XNUMX 日分发的其他问题的答复。答复涵盖的主题包括: 定义和特征 人机交互和人类控制 伦理
使用非技术语言,该瑞典语资源介绍了自主武器的主题、这些武器的开发和使用所带来的威胁、对这个问题的女权主义观点,以及为什么需要一项条约来确保人类对武器的使用进行有意义的控制力量。 原始出版物可以是...