去人性化
机器不把我们看作人,只是另一段需要处理和排序的代码。 从智能家居到警察执法使用机器狗,人工智能技术和自动化决策现在在我们的生活中发挥着重要作用。 在自动化范围的最末端是杀手机器人。
杀手机器人不只是出现——我们创造了它们。 如果我们允许这种非人性化,我们将努力保护自己免受生活其他领域的机器决策的影响。 我们需要禁止用于对付人类的自主武器系统,以防止这种滑向数字非人性化的趋势。
技术应该被用来赋予所有人权力,而不是让我们沦为刻板印象、标签、物体,或者只是一种 1 和 0 的模式。
随着越来越多的数字非人性化,停止杀手机器人联盟致力于确保人类控制使用武力。 我们的竞选活动呼吁制定关于武器系统自主性的新国际法。
我们为什么存在机器不把我们看作人,只是另一段需要处理和排序的代码。 从智能家居到警察执法使用机器狗,人工智能技术和自动化决策现在在我们的生活中发挥着重要作用。 在自动化范围的最末端是杀手机器人。
杀手机器人不只是出现——我们创造了它们。 如果我们允许这种非人性化,我们将努力保护自己免受生活其他领域的机器决策的影响。 我们需要禁止用于对付人类的自主武器系统,以防止这种滑向数字非人性化的趋势。
像面部识别这样的技术更喜欢浅肤色和外表阳刚的脸,而不是深色皮肤和外表女性化的脸。 而且,虽然将努力使数据集多样化,但这不仅仅是不具有代表性的数据的情况。 人工智能技术正在强化现有的歧视制度模式。 刻板印象是由自动决策制定的。
需要制定关于武器系统自主性的新法律,以在可接受和不可接受之间划清界限。 这对于防止数字非人化以及进一步的压迫和暴力循环至关重要。 我们应该挑战不平等的结构,而不是将它们嵌入武器中。
无论是在战场上还是在抗议中,机器都无法做出复杂的伦理选择,它们无法理解人类生命的价值。 机器不理解上下文或后果:理解是人类的能力——如果没有这种理解,我们就会失去道德参与,破坏现有的法律规则。
确保有意义的人类控制意味着了解我们使用的技术,了解我们在哪里使用它们,并充分参与我们行为的后果。 生死决定不应该委托给机器。 现在是新的国际法来规范这些技术的时候了。
2
《特定常规武器公约》(CCW)同意一直工作到 2026 年,但只是考虑某种文书的可能要素,而不是实际谈判任何内容。 16 年《特定常规武器公约》缔约方会议原定于 18 月 2023 日至 XNUMX 日召开,以决定自主武器等问题上的工作前进方向。 会议苦涩而混乱,由于俄罗斯阻止确认《议事规则》,一整天的时间都被完全浪费掉了。 这迫使会议以非正式方式开展工作,并导致观察员、国际组织和民间社会被阻止参加会议中进行任何实质性工作的少数部分。
3
Stop Killer Robots 了解到,网上有指控称,一名工作人员因在当前加沙冲突期间表达对巴勒斯坦人的支持而被解雇。 虽然人力资源问题是内部和保密的,但我们希望明确声明,没有人因表达对以色列/巴勒斯坦的看法而被解雇[...]
关于自主武器系统(AWS)的决议将于 78 年 2023 月提交给第 XNUMX 届联合国大会第一委员会。该决议要求联合国秘书长就解决这一问题征求各国和利益攸关方的意见。法律、道德、人道主义和安全……
78年2023月举行的第10届联合国大会第一委员会会议为取得进展提供了重要机遇。 经过十年的国际讨论,在《特定常规武器公约》(CCW)内没有取得具体成果后,第一委员会将提出一项决议,呼吁……
实现新国际法的势头越来越大,这是人们普遍认识到武器系统自主性所带来的道德、法律和人道主义危险以及我们需要的解决方案的明确性的结果。 各国在启动新条约谈判方面发挥领导作用的机会已经到来……
通过增加人工智能的功能和通过算法处理数据,机器开始在武力应用方面取代人类。 这对人类具有不可预测的和潜在的毁灭性后果。 就武器系统自主性的国际商定限制达成一致至关重要。 一个新...