菜单英雄形象
Marta Kosmyna,硅谷领导者,与机器人活动家 David Wreckham 一起参与阻止杀手机器人运动。 照片:阿里·贝塞尔。

硅谷问题的力量

Marta Kosmyna 是硅谷阻止杀手机器人运动的负责人。 她常驻美国旧金山,在她的角色中,她寻求为技术部门注入活力,引发政治参与,并支持技术盟友将他们的专业知识带到联合国。

Marta Kosmyna,硅谷领导者,与机器人活动家 David Wreckham 一起参与阻止杀手机器人运动。 照片:阿里·贝塞尔。

提出问题可以引发一场运动。 只需要 i一个人站起来,质疑现状,批判性地思考当前的状况。 去年我们在 Maven 项目中看到了这一点,我每天都在我作为硅谷阻止杀手机器人运动的领导者的工作中看到它。 迄今为止, 数以千计的技术工人 承诺确保他们的工作永远不会为完全自主的武器做出贡献,并且 在200公司 支持一项条约,以确保永远不会使用这些武器。

当谈到在战争和警务中使用人工智能时,讨论道德是不够的。 虽然指导方针、原则和自我监管是令人钦佩的第一步,但很明显,为了遏制完全自主的武器——“杀手机器人”——对人类构成的威胁,迫切需要立法。 该运动敦促各国政府谈判新的国际法,以保留对使用武力的有意义的人类控制。

每年,我们的竞选活动都记录了科技行业对开发和使用完全自主武器的越来越多的反对。 我们的技术盟友了解这项技术的局限性,并一直在弥合技术与政策之间的差距。

我们已经看到了新兴技术的意外后果。 如果科技工作者担心他们的工作被用于杀手机器人,那么保持警惕,考虑他们开发的技术的最终用途,并质疑参与高风险项目的合作伙伴、客户和投资者,这一点很重要。 下次行业领导者、公司高管或政策制定者上台时,直接向他们询问完全自主武器的情况。 重要的是让他们记录在案,这样他们才能被追究责任,并确保他们的陈述与他们声称代表的价值观、使命和愿景保持一致。

硅谷人行道涂鸦中问题的力量

纽约竞选活动在亚马逊、微软、Palantir 和 Clarafai 办公室附近使用粉笔模板的一个例子。 照片:克莱尔康博伊。

今年,制止杀手机器人运动已在许多技术会议和道德相关活动中登台,以对全自动武器构成的威胁发出警报。 就在今年,我们的活动家们在 Viva技术 在法国, 真北 在加拿大, DEFCON 在美国,Inteligencia Artist y Ética: El Desafío de las Armas Autónomas Letalesin 在阿根廷,以及世界各地的许多其他活动。

我们总是鼓励您向我们提出最棘手的问题,但我们最常听到的一些问题的答案如下:

包括条约谈判人员在内的政府官员将需要技术专家的投入,以确保禁止杀手机器人的条约不会扼杀创新,而是确保人工智能的研发继续不受阻碍。 生物学家没有发现《生物武器公约》损害了他们的研究和发展,化学家也没有抱怨《化学武器公约》对他们的工作产生了负面影响。 事实上,如果允许开发完全自主武器的技术不受监管,许多人工智能专家、机器人专家和技术工作者担心人工智能的积极应用会受到影响。 完全自主武器系统犯下的任何故障、错误或战争罪行都会受到负面宣传,导致公众抵制开发人工智能和其他新兴技术的趋势。

 

硅谷人行道涂鸦 2 中问题的力量

纽约竞选活动在亚马逊、微软、Palantir 和 Clarafai 的办公室附近使用粉笔模板的一个例子。 照片:克莱尔康博伊。

我们是一个单一问题联盟,专注于达成一项条约,以禁止完全自主的武器并保留人类对武力使用的有意义的控制。 我们的成员经常质疑可以为完全自主武器铺平道路的特定军事项目,但我们不要求或主张公司不要与军队或政府合作。 我们建议技术人员考虑与他们合作的伙伴关系、客户和投资者,并批判性地思考他们建立的任何高风险业务关系的后果。

 

 

我们的运动不是反技术。 它一般不反对人工智能和新兴技术的军事或警务应用。 在任何情况下,我们都反对在选择和参与目标的关键职能方面的自主权。 作为一项以人为本的倡议,我们相信禁止杀手机器人的新国际条约将为人类带来许多好处。 新法律将有助于澄清与武器和在战争、警务和其他情况下使用武力有关的人类决策的作用。

目前人工智能和新兴技术的发展速度超过了政策制定者的监管能力,这在完全自主武器的案例中体现得淋漓尽致。 科技公司和工人必须承诺不为完全自主武器的开发做出贡献。 许多正在开发的技术是“双重用途”,这意味着它们可以用于各种场景——民用、军事、警务等。因此,技术部门保持警惕并始终考虑预期的最终用途至关重要。

武器不是用来拯救生命的,而是用来杀死生命的。 完全自主的武器将是不可预测的。 通过以意想不到的方式对环境做出反应,他们可能会导致友军自相残杀或伤害。 无需从个人攻击中消除有意义的人为控制,就可以提高精度。 该运动旨在禁止某些技术的开发和特定应用,对其预期用途进行限制,并确保根据国际法进行问责。 目前还没有杀手机器人的受害者,我们希望保持这种状态。

自 2014 年以来,已有 90 多个国家参加了联合国关于致命自主武器系统的外交会谈,其中大多数国家现在认为需要制定一项禁止或限制此类武器的新条约。 少数军事大国,特别是俄罗斯和美国,反对任何监管此类武器系统的努力。 这些会谈是一种知识积累和透明度的练习,但必须促成一项新条约的谈判。 这是唯一能够解决自主武器对人类构成的威胁的多边反应。 现有的战争法是为人类而不是机器制定的,必须加强以确保问责制和未来技术发展的未来。 一项新条约将建立一个强有力的规范,以消除对使用武力的有意义的人类控制。 这甚至会促使最初未签署的国家和行为者遵守。

www.stopkillerrobots.org 照片:Ari Beser。 图:克莱尔康博

如果这篇文章让您作为一名技术工作者产生共鸣,请查看针对技术工作者的“阻止杀手机器人运动”资源: www.stopkillerrobots.org/tech 或使用#TechAgainstKillerRobots 加入对话


原文章发表于 Medium.com.

玛尔塔·科斯米娜

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的