菜单英雄形象
AOAV IGw AWS 最终 150ppi_LR

达沃斯考虑杀手机器人

AOAV IGw AWS 最终 150ppi_LR

在 2015 年瑞士达沃斯世界经济论坛上,各种出版物和演讲者都提出了对全自动武器或“杀手机器人”的担忧。 这是来自政府、企业和民间社会的世界领导人年度会议首次考虑武器系统在没有进一步人为干预的情况下选择目标和使用武力所带来的挑战。

在 2015 年世界经济论坛之前发布的几份出版物探讨了这一挑战,包括论坛 2015 全球风险 报告,其中包括“人工智能 – 机器的兴起”(第 40 页)下的简短部分。 根据该报告,“几个国家正在努力开发致命的自主武器系统,可以在没有人为干预的情况下评估信息、选择目标和开火”,这对“国际法和保护非战斗人员提出了新的挑战”。 报告发现,如果自主武器系统违反国际法,谁将承担责任尚不明确,并指出“需要在许多领域开展前瞻性和面向未来的工作,以抵消技术进步超过社会控制的趋势”。技术。'”

这些发现在 15 月 XNUMX 日的 发表 由论坛和加州大学伯克利分校的 Stuart Russell 教授出版,他本月早些时候签署了一份 公开信 敦促研究如何在“避免潜在陷阱的同时”获得人工智能的好处和潜力。 罗素合着了 研究重点 与公开信一起发布的备忘录列出了有关自主武器的问题以及其他需要研究的问题。

22 月 XNUMX 日,在世界经济论坛关于人工智能、智能传感器和社会技术的进步将如何“改变生活”的小组讨论会上,拉塞尔警告说,全自动武器可以完全改变战争的性质,并问观众,“这是方向吗?我们想去吗? 我不确定。”

长达一小时的全男性小组由主播国谷弘子女士代表日本广播公司 NHK 主持。

面板上的另一位发言人是 肯·罗斯,执行董事 人权观察,这是阻止杀手机器人运动的联合创始人。 他解决了法律、道德和扩散问题,并询问机器是否具有“判断谁是战斗员的精确判断力”。 罗斯将“战争的主要障碍”描述为“人类同理心”,并表示怀疑“更好的编程”可以解决提出的问题,并警告说,“道德判断处于危险之中。”

Roth 观察到,对于某些技术,“把精灵留在瓶子里要好得多”,因为“一旦它出来了,就很难再回来了”,举了核武器的例子。 他敦促先发制人地禁止完全自主武器,并描述了 20 年前建立的积极榜样。 常规武器公约 当各国因为发现永久致盲的武器前景如此骇人而先发制人地禁止致盲激光时。

一位参加小组讨论的世界经济论坛参与者是挪威商人 约翰·H·安德烈森,挪威石油基金伦理委员会主席。 在接受挪威商业日报采访时 DN (DagensNæringsliv),安德烈森说完全自主武器的前景让他感到担忧。 根据道德委员会的建议,该基金已从参与生产杀伤人员地雷、集束弹药和核武器的公司撤资。 当被问及该委员会是否应提议将自主武器的生产商排除在外时,安德烈森表示,如果先发制人地禁止这些武器的努力取得成功,他希望不需要做出这样的决定。

欲了解更多信息,请访问:

玛丽

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的