菜单英雄形象
AOAV IGw AWS 最终 150ppi_LR

查塔姆宫会议

AOAV IGw AWS 最终 150ppi_LR

第一个查塔姆宫 会议 24 月 25 日至 XNUMX 日在伦敦举行的自主军事技术大会上,来自不同选区的个人聚集在一起,共同思考自主武器以及将人类对目标和攻击决策的控制权委托给机器的前景。 制止杀手机器人运动很高兴能够参加根据查塔姆研究所规则举行的这次组织良好且及时的会议,该会议允许参与者使用收到的信息,但不得透露发言人或参与者的身份或隶属关系。 这次会议是一个有用的机会,可以讨论我们对完全自主武器的担忧,提供澄清并回答有关我们联盟的重点和目标的问题。

此后,一些与会者公开发表了对会议的看法,包括查尔斯·布兰查德 (Charles Blanchard) 法律确信 (4 月 XNUMX 日)和 Paul Scharre 在 法律费用 新闻 (3 3月)。

参加 Chatham House 会议的几位阻止杀手机器人运动的代表为本网络帖子提供了意见,包括 Blanchard 和 Scharre 发表的反思。 该运动的主要发言人诺贝尔和平奖获得者乔迪·威廉姆斯、机器人专家诺埃尔·夏基教授和 人权观察 武器主管史蒂夫·古斯 (Steve Goose) 在会议上发表讲话,同时来自非政府组织的活动家出席了会议 武装暴力行动, 大赦国际, 36条, 人权观察, 国际机器人武器控制委员会PAX (原 IKV Pax Christi)。

在整个会议期间听到了制止杀手机器人运动的观点及其对禁止全自动武器的呼吁,但为了确保关键问题不被淡化,并本着促进对这一新出现的国际关注问题的共识的精神,我们对布兰查德和沙尔的反思有以下评论。

前美国空军总法律顾问布兰查德 公开演讲 主题为“自主技术:一股向善的力量?” 在查塔姆大厦与我们的竞选发言人乔迪·威廉姆斯(Jody Williams)一起,他与国际禁止地雷运动 (ICBL) 一起获得了 1997 年诺贝尔和平奖得主。 他现在是华盛顿特区律师事务所 Arnold & Porter LLP 的合伙人,该律师事务所积极支持 2006 年《残疾人权利条约》的谈判以及将受害者援助条款纳入 1997 年《禁雷条约》的努力。

布兰查德在他的文章中考虑了“深刻的哲学观点”,该文章着眼于查塔姆研究所会议上关于禁止完全自主武器的呼吁的一些“争议”,​​以体现只有人类才能决定杀死其他人的原则。 布兰查德担心禁令可能会导致“更多的死亡”,因为自主武器在遵守战争法方面可能“比人类更有能力”。

虽然我们不同意布兰查德关于禁止完全自主武器可能带来的好处的怀疑立场,但我们欢迎他承认让机器决定杀死谁会违反人类尊严概念的反驳论点。 布兰查德 (Blanchard) 对禁令可行性的评估说明了最近几个月的辩论如何发展到正在认真考虑禁令的地步。

Paul Scharre 在华盛顿特区的新美国安全中心领导 20YY 战争倡议,之前在美国国防部工作,他领导的工作组起草了 2012 年关于武器系统自主性的政策指令 3000.09。 他在查塔姆研究所会议上的综合报告广受好评,他对会议的理性、审慎和精心撰写的反思包含许多有用的观察。

然而,Scharre 的“关键要点”过于简化了“达成共识的领域”,听起来好像参与者达成共识的次数比实际情况要多。 他的评论试图反映会议发言人的观点和融合领域,但对于听众来说却无法做到这一点——包括来自政府、军队、工业、智库、学术界、民间社会和媒体的大约 150 名参与者。

关于在查塔姆大厦讨论的范围,沙尔对会议仅关注“反物质”自主武器系统的描述令人困惑,因为会议讨论了所有类型的自主武器系统,包括“杀伤人员。” 会议也没有特别限于“致命”自主武器,而不是“非致命”或“低于致命”的武器。 也就是说,我们欢迎 Scharre 表示他不赞成完全自主的杀伤性武器系统的评论。

谈到当前自主技术的能力以及前兆预示着更危险即将到来的概念,技术专家们确实达成了共识。

在整个会议期间,似乎确实“普遍同意人类应该继续控制使用致命武力的决定”。 然而,在这一点上的共识得到了一些发言者的认可,他们认为没有有意义的人类控制的系统可能是合法的并具有军事用途。 这些观点说明了为什么政策层面的限制不足以应对完全自主武器带来的挑战,而应以新的法律加以补充。

事实上,这场辩论正在发生,因为许多人正在考虑没有人类控制的未来。 然而,沙尔在他反思的“反对”部分很少考虑扩散问题——开发、生产、转让、储存。 在查塔姆宫会议期间多次提出对军备竞赛的担忧,这是 由 BAE 系统公司赞助, Taranis 自主飞机的制造商,这是英国自主武器技术先驱的主要例子。 从核武器的经验中了解到,扩散问题不能通过监管和现有的国际人道主义法永久解决。

Scharre 声称“自主武器是否具有军事吸引力甚至必要性的一个主要因素可能仅仅是其他国家是否开发它们”,但他似乎误解了他思考的“最终阶段”部分中的污名化点。 通过提出对“作弊”的担忧的答案是一个“公平的竞争环境”,每个人都可以拥有它们(并且大概所有人都可以成为“作弊者”),Scharre 驳回了一项具有法律约束力的国际禁令来污名化武器的权力并确保对法律的尊重。 在没有主要军事力量使用自主武器的情况下,全球禁令可能会成功地污名化自主武器,就像《禁雷条约》的情况一样,主要大国多年来没有使用杀伤人员地雷。

Scharre 将商业部门视为推动“自动驾驶背后的基础技术”,但这忽略了行业受国家监管的事实。 政府不会阻止工业开发底层技术,正如布兰查德所指出的那样,该运动也不会试图这样做,因为将用于自主机器人和人工智能系统的相同技术具有许多非武器和非军事目的。 但是,如果研究和开发活动针对只能用于完全自主武器或明确用于此类系统的技术,则应禁止。

Scharre 在他思考的几个部分中淡化了法律问题。 这部分是因为国际法会议小组由自主武器的法律倡导者主导。 几位法律小组成员可能都同意,自主武器“不是武装冲突法禁止的非法武器”,但这并不是会议所有参与者的共同观点。 特别是,人们对完全自主武器的性质及其在做出攻击决定时可能无法区分非战斗人员和判断预期平民伤害与预期军事收益的相称性表示严重关切。 虽然没有人能确定未来的技术会是什么样子,但在这一点上不能排除完全自主武器无法遵守战争法的可能性。

一位发言者争辩说,如果完全自主武器可以在任何情况下合法使用,就不能被视为 本身 非法的。 这一点在法律上可能是正确的,但可以证明任何武器都可以在精心设计的场景中合法使用。 不应将这种有限使用的可能性用于使完全自主武器合法化。 历史已经很好地证明,一旦武器被开发并投入使用,它不仅会以有限的、预先确定的方式使用。 损害的可能性如此之大,以至于使合法性的论点无效。

Scharre 引用了他自己的三个例子,声称同意“合法的有限使用”。 我们当然不同意。

问责制是另一个与 Scharre 的反思中所描述的不一致的领域。 正如他所说,按照目前的设想,机器不能根据战争法承担责任,程序员或操作员不承担战争罪的责任是有道理的,除非他们打算让机器人犯下战争罪。

查塔姆研究所会议期间触及了运营商问责制的概念,但没有深入考虑,重要的是要注意一些观众挥之不去的担忧。 例如,Scharre 从美国国防部指令中引用的“修复”远远不够。 根据该指令,当人类决策者启动的机器无法确保遵守战争法时,他们有责任确保遵守战争法。 然而,如果可以归咎于非故意的技术故障,指挥官就不太可能承担战争罪的责任,而如果程序员、工程师和制造商本着善意行事,他们就不太可能承担责任。

Scharre 对问责制问题的明显回答是“完全可预测和可靠的系统”,但这怎么可能呢? 即使有严格的测试和评估程序,自主性也会使确保可预测性和可靠性变得更加困难。 事实上,自治的一个定义是系统即使在正常运行时也不能完全预测(由于其复杂性以及与之交互的环境的复杂性)。

此外,还有人质疑运营商是否应该被扣押 直接 对完全自主武器行动的后果负责。 当完全自主的武器能够自己做出选择时,这些操作员是否可以像“普通”武器的操作员一样被对待?

Scharre 似乎认为 Martens 条款只是一个道德问题,但它也是一个法律问题。 尽管其确切含义存在争议,但该条款是出现在若干条约中的国际人道主义法的固定条款。 这意味着,当没有现行法律专门针对这一点时,“震撼人类良知”的武器可被视为非法,预计会被明确禁止。 它还支持通过明确禁止违反“人道原则和公众良心要求”的武器。

Scharre 的帖子对会议未考虑的完全自主武器提出了“实际”反对意见:“无法控制或易受黑客攻击的武器对军事指挥官来说不是很有价值。 事实上,这种武器如果导致系统性的自相残杀,可能会非常危险。” 这种对“大规模”意外死亡的担忧是有道理的,但同样的实际论点也适用于平民伤亡,而不仅仅是军事伤亡。

正如 Scharre 所指出的,对存在于几个根本不同层面上的完全自主武器存在许多担忧。 我们同意关于技术发展方向的讨论至关重要,但找到永久解决方案更为紧迫。

查塔姆研究所的活动是几个重要会议中的第一个,这些会议将在 2014. 红十字国际委员会(红十字委员会)将于 26 月 28 日至 XNUMX 日召开第一次自主武器系统专家会议。 关于致命性自主武器系统的第一次常规武器公约(CCW)会议将于 XNUMX 年在日内瓦联合国召开 13-16月. 联合国特别报告员克里斯托夫·海恩斯(Christof Heyns)将向日内瓦人权理事会报告致命的自主机器人和其他事项。 10 月 XNUMX 日那一周.

像查塔姆研究所这样的会议正在举行这一事实表明,杀手机器人的挑战如何跃升为传统多边军备控制和人道主义裁军的最高级别,证实了该问题的重要性和紧迫性,并削弱了完全自主武器的论点是“不可避免的”和“无需担心”。 强劲而多样的投票结果意味着它不太可能是最后一次关于这个主题的查塔姆研究所会议。

查塔姆研究所会议结束后,“制止杀手机器人运动”立即召开了战略会议,有 50 名非政府组织代表参加。 会议的重点是在《特定常规武器公约》和人权理事会规划未来一年的运动战略,以及如何发起全国运动以影响政策制定和确保对禁令的支持。

有关更多信息,请参阅

照片:查塔姆研究所国际安全研究主任帕特里夏·刘易斯(中)介绍了查塔姆研究所自主军事技术会议的第一个小组。 (c) 制止杀手机器人运动,24 年 2014 月 XNUMX 日

玛丽

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的