菜单英雄形象

技术工人和杀手机器人

我们没想到世界上需要一场阻止杀手机器人的运动——但确实如此。

忘掉你在电影中看到的吧——计算机视觉、机器学习、计算能力、机器人技术和人工智能的快速进步正被世界各地的军队急于寻求自动化杀伤决策。 大多数这些技术的固有双重用途和在该领域的大量投资需要新的国际法来解决武器系统的自主性问题,并确保人类对武力使用进行有意义的控制。

Stop Killer Robots 积极寻找技术工人和公司作为盟友,以实现我们的共同目标,即制定一项新条约来规范武器系统的自主性。 私营部门将在防止发展这些武器方面发挥关键作用。

 

 

图片替代文字

自 2015 年以来,数以千计的人工智能专家、机器人专家、科学家和相关专业人士共同签署了各种公开信,呼吁就自主武器达成一项条约。

谷歌、微软和亚马逊等全球公司的技术人员正在推动他们的研究、产品和平台适应用于战争。 Clearpath Robotics 等机器人公司正在积极努力禁止杀手机器人。

特斯拉的埃隆·马斯克、谷歌的德米斯·哈萨比斯和苹果的史蒂夫·沃兹尼亚克都支持禁止自主武器。 其他人将人工智能的发展与核武器进行了比较,但到目前为止,他们只呼吁监管不力,不会解决武器自主性的法律和道德影响。

常见问题解答

一项关于武器系统自主性的条约不会扼杀创新,而是有助于确保人工智能的研究和开发继续不受阻碍。 生物学家没有发现《生物武器公约》损害了他们的研究和发展,化学家也没有抱怨《化学武器公约》对他们的工作产生了负面影响。

事实上,如果制造自主武器的技术被允许在不受监管的情况下发展,许多人工智能专家、机器人专家和技术工作者担心人工智能的积极应用会受到影响。 自主武器系统犯下的任何故障、错误或战争罪行都会受到负面宣传,导致公众对开发人工智能和其他新兴技术的趋势产生抵制。

Stop Killer Robots 是一个单一问题联盟,专注于达成一项条约,以确保人类对武力的使用进行有意义的控制,并禁止以自主武器为目标。 我们的非政府组织联盟经常质疑可以为具有相关自主水平的武器系统铺平道路的特定军事项目,但它并不要求或倡导公司不与特定军队或政府合作。

我们建议技术人员考虑与他们合作的伙伴关系、客户和投资者,并批判性地思考他们建立的任何高风险业务关系的后果。

停止杀手机器人不是反技术。 我们一般不反对人工智能和新兴技术的军事或警务应用。 作为一项以人为本的运动,我们相信一项新的国际条约来规范自主武器将为人类带来许多好处。 新法律将有助于澄清与武器和在战争、警务和其他情况下使用武力有关的人类决策的作用。

人工智能和新兴技术的当前发展超出了政策制定者的监管能力。 科技公司和工人必须承诺不为开发针对人的自主武器做出贡献,并且不能或不能在有意义的人类控制下运作。

许多正在开发的技术是“两用”的,这意味着它们可以用于各种场景(民用、军事、警务等)。 因此,技术部门保持警惕并始终考虑预期或意外的最终用途至关重要。

科技行业能做什么?

公司:

  • 公开支持确保人类对武力使用进行有意义的控制并规范武器系统自主性的呼吁。
  • 公开承诺不为自主武器的发展做出贡献。
  • 将此职位纳入现有原则、政策文件和法律合同,例如可接受的使用政策或服务条款。
  • 确保员工充分了解他们的工作将如何使用,并建立内部流程以鼓励就任何问题进行公开讨论,而不必担心遭到报复。

个人:

  • 支持确保人类对武力使用进行有意义的控制并规范武器系统自主性的呼吁。
  • 让您的公司、行业和同行对其进行的研究和与之合作的客户负责。
  • 有条不紊地进行风险评估,以评估与您开发的技术相关的意外用途、后果或风险。
  • 加入国际机器人武器控制委员会,我们活动的联合创始人 www.icrac.net 
图片替代文字

加入我们的社区

活动家在世界各地开展活动,您并不孤单。 我们可以为您提供进行有意义变革所需的联系和资源——无论是在您的组织、社区、州内还是在国家和国际层面。 你的参与程度完全取决于你——每一个贡献都有帮助。

技术工作者参与的 10 种方式

认识我们的一些科技行业冠军

丽兹·奥沙利文

丽兹·奥沙利文

Liz O'Sullivan 是监视技术监督项目 (STOP) 社区顾问委员会的成员,之前曾担任 STOP 的第一位技术总监。 目前,Liz 是一家新的算法公平公司 Parity 的 CEO,之前是 AI 模型监控公司 Arthur 的联合创始人。

她在科技领域工作了 10 年,主要是在 AI 领域,特别是作为计算机视觉初创公司 Clarifai 的图像注释负责人,在那里她第一次开始反对技术潜在的道德滥用。 Liz 公开谈论了人工智能管道中可能发生的无数危害,并在联合国倡导停止杀手机器人运动。

 

 

劳拉·诺兰

劳拉·诺兰

劳拉·诺兰 (Laura Nolan) 在工业界担任软件工程师已超过 15 年。 她是“取消Maven”公开信的(众多)签署人之一,该信函呼吁谷歌取消参与美国国防部使用人工智能技术分析无人机监控录像的项目。 她在谷歌内部竞选 Maven 项目,然后离开公司以抗议它。 2018 年,Laura 还创立了 TechWontBuildIt Dublin,这是一个关注我们行业和我们所做工作的道德影响的技术工作者组织。

Laura 拥有大学学院高级软件工程硕士学位和都柏林三一学院计算机科学学士学位(Mod),在那里她被选为三位一体学者。

诺埃尔·夏基

诺埃尔·夏基

Noel Sharkey 博士、DSc FIET、FBCS、CITP、FRIN 是英国谢菲尔德大学机器人和人工智能的名誉教授。 他之前的大学工作是在耶鲁大学人工智能实验室、斯坦福大学心理学系、埃塞克斯语言和语言学以及埃克塞特计算机科学系。 他是一名特许电气工程师,是实验心理学协会和演员工会 Equity 的成员。

Noel 是机器人武器控制国际委员会的主席,是负责任机器人基金会的主任,也是制止杀手机器人运动指导委员会的成员。 他为国家报纸撰稿,最广为人知的是英国广播公司的热门电视节目,如“机器人大战”。

图片: 海因里希·伯尔基金会

一项全面的条约是可能的

包括以色列、中国、俄罗斯、韩国、英国和美国在内的80多个国家正在积极参与联合国关于如何处理自主武器系统引发的担忧的会谈。 经过多年的讨论,需要来自技术行业的额外压力就一项国际条约展开正式谈判,以解决武器系统的自主性问题,并确保人类对武力的使用进行有意义的控制。

政策制定者需要世界上最聪明的头脑和处于人工智能突破前沿的研究人员,以防止在战争和警务中使用人工智能造成伤害。

支持停止杀手机器人的呼吁。

表明立场。

 

签署公开信

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的