去人性化
机器不把我们看作人,只是另一段需要处理和排序的代码。 从智能家居到警察执法使用机器狗,人工智能技术和自动化决策现在在我们的生活中发挥着重要作用。 在自动化范围的最末端是杀手机器人。
杀手机器人不只是出现——我们创造了它们。 如果我们允许这种非人性化,我们将努力保护自己免受生活其他领域的机器决策的影响。 我们需要禁止用于对付人类的自主武器系统,以防止这种滑向数字非人性化的趋势。
技术应该被用来赋予所有人权力,而不是让我们沦为刻板印象、标签、物体,或者只是一种 1 和 0 的模式。
随着越来越多的数字非人性化,停止杀手机器人联盟致力于确保人类控制使用武力。 我们的竞选活动呼吁制定关于武器系统自主性的新国际法。
我们为什么存在机器不把我们看作人,只是另一段需要处理和排序的代码。 从智能家居到警察执法使用机器狗,人工智能技术和自动化决策现在在我们的生活中发挥着重要作用。 在自动化范围的最末端是杀手机器人。
杀手机器人不只是出现——我们创造了它们。 如果我们允许这种非人性化,我们将努力保护自己免受生活其他领域的机器决策的影响。 我们需要禁止用于对付人类的自主武器系统,以防止这种滑向数字非人性化的趋势。
像面部识别这样的技术更喜欢浅肤色和外表阳刚的脸,而不是深色皮肤和外表女性化的脸。 而且,虽然将努力使数据集多样化,但这不仅仅是不具有代表性的数据的情况。 人工智能技术正在强化现有的歧视制度模式。 刻板印象是由自动决策制定的。
需要制定关于武器系统自主性的新法律,以在可接受和不可接受之间划清界限。 这对于防止数字非人化以及进一步的压迫和暴力循环至关重要。 我们应该挑战不平等的结构,而不是将它们嵌入武器中。
无论是在战场上还是在抗议中,机器都无法做出复杂的伦理选择,它们无法理解人类生命的价值。 机器不理解上下文或后果:理解是人类的能力——如果没有这种理解,我们就会失去道德参与,破坏现有的法律规则。
确保有意义的人类控制意味着了解我们使用的技术,了解我们在哪里使用它们,并充分参与我们行为的后果。 生死决定不应该委托给机器。 现在是新的国际法来规范这些技术的时候了。
1
《常规武器公约》(CCW)政府专家组(GGE)会议于 7 月 11 日至 9 日在联合国重新召开。 现在是讨论的第 XNUMX 个年头,据称各国聚集在一起正式考虑“关于自主武器系统的规范和操作框架的详细提案”。 在未能就 […] 达成一致之后
3
在政治和道德领导力的有力展示中,新西兰政府致力于推行新的国际法,禁止和规范武器系统的自主性,以确保人类对武力进行有意义的控制。 30 月 XNUMX 日,裁军和军备控制部长菲尔·特怀福德 (Phil Twyford) 分享了新西兰的新政策立场 [...]
实现新国际法的势头越来越大,这是人们普遍认识到武器系统自主性所带来的道德、法律和人道主义危险以及我们需要的解决方案的明确性的结果。 各国在启动新条约谈判方面发挥领导作用的机会已经到来……
通过增加人工智能的功能和通过算法处理数据,机器开始在武力应用方面取代人类。 这对人类具有不可预测的和潜在的毁灭性后果。 就武器系统自主性的国际商定限制达成一致至关重要。 一个新...
本文列出了制止杀手机器人运动对政府专家组主席于 12 年 2021 月 XNUMX 日分发的其他问题的答复。答复涵盖的主题包括: 定义和特征 人机交互和人类控制 伦理
使用非技术语言,该瑞典语资源介绍了自主武器的主题、这些武器的开发和使用所带来的威胁、对这个问题的女权主义观点,以及为什么需要一项条约来确保人类对武器的使用进行有意义的控制力量。 原始出版物可以是...