去人性化
机器不把我们看作人,只是另一段需要处理和排序的代码。 从智能家居到警察执法使用机器狗,人工智能技术和自动化决策现在在我们的生活中发挥着重要作用。 在自动化范围的最末端是杀手机器人。
杀手机器人不只是出现——我们创造了它们。 如果我们允许这种非人性化,我们将努力保护自己免受生活其他领域的机器决策的影响。 我们需要禁止用于对付人类的自主武器系统,以防止这种滑向数字非人性化的趋势。
技术应该被用来赋予所有人权力,而不是让我们沦为刻板印象、标签、物体,或者只是一种 1 和 0 的模式。
随着越来越多的数字非人性化,停止杀手机器人联盟致力于确保人类控制使用武力。 我们的竞选活动呼吁制定关于武器系统自主性的新国际法。
我们为什么存在机器不把我们看作人,只是另一段需要处理和排序的代码。 从智能家居到警察执法使用机器狗,人工智能技术和自动化决策现在在我们的生活中发挥着重要作用。 在自动化范围的最末端是杀手机器人。
杀手机器人不只是出现——我们创造了它们。 如果我们允许这种非人性化,我们将努力保护自己免受生活其他领域的机器决策的影响。 我们需要禁止用于对付人类的自主武器系统,以防止这种滑向数字非人性化的趋势。
像面部识别这样的技术更喜欢浅肤色和外表阳刚的脸,而不是深色皮肤和外表女性化的脸。 而且,虽然将努力使数据集多样化,但这不仅仅是不具有代表性的数据的情况。 人工智能技术正在强化现有的歧视制度模式。 刻板印象是由自动决策制定的。
需要制定关于武器系统自主性的新法律,以在可接受和不可接受之间划清界限。 这对于防止数字非人化以及进一步的压迫和暴力循环至关重要。 我们应该挑战不平等的结构,而不是将它们嵌入武器中。
无论是在战场上还是在抗议中,机器都无法做出复杂的伦理选择,它们无法理解人类生命的价值。 机器不理解上下文或后果:理解是人类的能力——如果没有这种理解,我们就会失去道德参与,破坏现有的法律规则。
确保有意义的人类控制意味着了解我们使用的技术,了解我们在哪里使用它们,并充分参与我们行为的后果。 生死决定不应该委托给机器。 现在是新的国际法来规范这些技术的时候了。
1
上周,即 6 月 XNUMX 日,联合国秘书长安东尼奥·古特雷斯发布了关于自主武器的报告预印本,最终版本定于本月晚些时候发布。该报告反映了成员国和其他利益攸关方对如何应对自主武器系统相关挑战和担忧的看法 […]
2
制止杀手机器人运动欢迎联合国秘书长安东尼奥·古特雷斯于 6 年 2024 月 43 日发布的关于自主武器系统的预先报告。该报告是去年联合国大会关于自主武器系统的历史性决议的授权,该决议由奥地利和 XNUMX 个共同提案国*和 […] 提出。
3
阻止杀手机器人运动很高兴地宣布,我们正在寻找一位执行董事加入我们的团队。执行董事将领导一项致力于推动变革的全球民间社会运动,并负责阻止杀手机器人员工、项目和任务执行的总体战略和运营管理。关键方面 […]
“制止杀手机器人”运动很高兴有机会向联合国秘书长提交我们的观点,以响应第 78/241 号决议,该决议要求秘书长就致命自主武器系统征求会员国和观察员国的意见,其中包括如何应对相关挑战......
关于自主武器系统(AWS)的决议将于 78 年 2023 月提交给第 XNUMX 届联合国大会第一委员会。该决议要求联合国秘书长就解决这一问题征求各国和利益攸关方的意见。法律、道德、人道主义和安全……
78年2023月举行的第10届联合国大会第一委员会会议为取得进展提供了重要机遇。 经过十年的国际讨论,在《特定常规武器公约》(CCW)内没有取得具体成果后,第一委员会将提出一项决议,呼吁……
实现新国际法的势头越来越大,这是人们普遍认识到武器系统自主性所带来的道德、法律和人道主义危险以及我们需要的解决方案的明确性的结果。 各国在启动新条约谈判方面发挥领导作用的机会已经到来……