菜单英雄形象
AOAV IGw AWS 最终 150ppi_LR

达沃斯杀手机器人专家

AOAV IGw AWS 最终 150ppi_LR

昨天(21 年 2015 月 XNUMX 日),世界经济论坛召开了一个小时的会议 小组讨论 与TIME合作考虑“如果机器人开战会怎样?” 在瑞士达沃斯举行的年会上,有四位发言人:前联合国裁军负责人安吉拉凯恩、BAE 系统公司主席罗杰卡尔爵士、人工智能 (AI) 专家 斯图尔特·罗素 和机器人伦理专家艾伦温菲尔德。

尽管背景不同,但所有参与者都同意自主​​武器系统构成危险,需要迅速采取外交行动来谈判一项具有法律约束力的文书,为不受人类控制的武器划清界限。 在其他小组中提出了杀手机器人的问题,表明人们对达沃斯主题的高度兴趣。

小组成员清楚什么是杀手机器人,什么不是。 拉塞尔说,完全自主的武器可以在没有人为干预的情况下定位或选择目标并开火。 卡尔解释说,它将能够识别和选择目标,在必要时调整其行为,并在没有任何人为干预的情况下部署部队 [火力]。 凯恩指出,目前还没有正式的完全自主武器的定义,但也告诫各州“不要在上面花太多时间”。

Carr 描述了“20 亿美元市场的潜力”,因为约有 40 个国家竞相开发自主武器。 阻止杀手机器人运动已上市 至少 研究、开发或测试自主武器的六个国家:美国、中国、以色列、韩国、俄罗斯和英国。 如果 Carr 能够详细说明长名单中的国家和地区的标准,那么要了解差异会有所帮助。

所有小组成员都同意,将杀手机器人掌握在负责任的政府手中而不是非国家武装团体的手中,即使不是不可能,也是具有挑战性的。 其他战略考虑包括所谓的威慑价值,专家组成员对此不屑一顾。 拉塞尔和卡尔都指出,完全自主的武器将无法遵守战争法,而且没有人认为它们可以满足国际人道主义法的要求。

伦理和道德问题是最尖锐的问题之一,也许最令人惊讶的是军火工业代表卡尔,他说完全自主的武器将“没有责任”并且“没有情感或怜悯之心”。 他警告说:“如果你从人类的努力中去除伦理、判断和道德,无论是在和平时期还是战争时期,你都会将人类带到另一个我们无法理解的水平。”

温菲尔德说,目前在技术上不可能建立一个具有道德能动性的人工系统。 他说科学家们会问为什么有人会想要尝试,因为这样做跨越了“道德红线”。

小组成员多次回到人类控制的概念,强调其在新兴国际辩论中的核心重要性。 Carr 强调,BAE Systems 和英国政府坚信移除人类是“根本错误的”,并肯定没有人愿意让机器选择战斗的内容、地点和方式。

安吉拉·凯恩 (Angela Kane) 现在是维也纳裁军与不扩散中心的研究员,她描述了各国如何利用《常规武器公约》(CCW) 框架来谈判另一项关于自主武器的议定书。 她批评该论坛自 2014 年以来的外交审议步伐“冰冷”,并鼓励美国在外交上“带头”并“提升辩论”,就像法国和德国在 CCW 上对杀手机器人所做的那样。 罗素将接下来的 18 个月到两年描述为实现谈判进程的关键。 Carr 多次重申“需要划清界限”,尤其是因为其他人可能会不负责任地使用杀手机器人。

Carr 将政治领导描述为获得解决杀手机器人问题的“巨大挑战”,因为“对立法做出判断的人并不完全了解挑战或过程”,并建议让立法者参与风险教育过程。 温菲尔德呼吁观众成员和公众联系他们所选的代表或议员,并告诉他们杀手机器人对“我们人民”不可接受。

在小组讨论之前和期间,达沃斯就杀手机器人进行了一项三问题的民意调查。 在小组讨论期间,首次公布了结果,发现达沃斯会议厅内 88% 的人和外面 55% 的人同意,如果受到攻击,他们应该用自主武器而不是人类“儿子和女儿”来保护他们。 小组成员认为这一发现是幼稚的。 温菲尔德表示,它揭示了“对人工智能系统的极度错位和误导的信心”,因为“即使是设计良好的机器人也会在混乱的环境中表现混乱并犯错。” 人们还担心公众会接受媒体对潜在好处的炒作,并过于信任此类系统,而几代人对电子游戏的战争变得麻木不仁。

据一个 刊文 由罗素在 2016 年达沃斯网站上发表,世界经济论坛人工智能和机器人全球议程委员会的许多成员与 3,000 多名人工智能专家一起签署了一份 2015年公开信 呼吁禁止自主武器。

2016 年关于杀手机器人的小组讨论并不是达沃斯第一次考虑这个问题。 2015 年 XNUMX 月, 技术面板 人权观察的罗素和肯罗斯花了大量时间讨论此事。

欲了解更多信息,请访问:

玛丽

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的