菜单英雄形象

常见问题

回答您有关自主武器和停止杀手机器人工作的问题。

我们越来越多地看到具有自主功能的武器系统以及人工智能决策支持和目标推荐系统在持续的冲突中被开发和使用,包括在加沙和乌克兰。这些冲突被用作自主水平不断提高的技术的测试平台。虽然尚未证实使用武器系统的报告,这些武器系统使用传感器处理来选择目标并决定在未经人类批准的情况下发生攻击的地点和时间,但前体系统 许多国家正在部署.

由于缺乏专门适用于这些武器和其他系统的明确规则和限制,这一点极为令人担忧。特别是当开发人员和用户正在突破法律和道德规范可接受的极限时。

阻止杀手机器人组织呼吁制定新的国际法(即条约),其中将涉及对自主武器系统的法规和禁令。虽然趋势表明自主武器在战争中的使用有所增加,但区分什么是自主武器和什么不是自主武器很重要。这使我们能够有效游说新的国际法,同时强调自主武器、具有自主功能的武器系统和其他军事系统之间的重叠问题。

在下面的部分中,我们解释了这些技术之间的区别,概述了我们的 政策立场 并提供有关我们活动的更多背景信息。

 

杀手机器人

自主武器系统是根据传感器输入而不是直接人类输入来检测目标并向目标施加力量的武器。人类用户激活武器系统后,在一段时间内武器系统可以在没有人类直接批准的情况下对目标施加武力。 这意味着什么或谁将受到攻击,以及攻击发生的地点和时间,都是由传感器处理决定的,而不是由人类决定的。 这种基于传感器的瞄准是武器系统的一项功能。因此,当传感器处理可以自动触发施力时,武器系统就可以自主运行。 观看我们的“自主武器解释”资源,以更好地了解自主武器系统的工作原理.

杀手机器人是那些不能按照法律和道德规范使用、应该被禁止的自主武器系统。这些系统无法通过有意义的人类控制来使用,并且系统以人类为目标。 

杀手机器人加薪 重大道德、伦理和法律问题,挑战人类对武力使用的控制,并将生死决策权交给机器。他们还提出了以下方面的担忧 数字非人化,将人们简化为数据点的过程,然后使用这些数据点做出决策和/或采取对他们的生活产生负面影响的行动。 

以这种方式运作的体系威胁着国际和平、安全与稳定。武器系统的自主性削弱了操作人员的控制,并削弱了冲突中的问责和责任。这些武器系统还引起人们对遵守国际人权法和国际人道主义法原则的严重关切。 区别, 相称, 预防措施,以及禁止 不分皂白的攻击.

如果使用,自主武器将从根本上改变战争的性质。它们将导致更加不对称的战争,并引发新的军备竞赛,从而破坏国际和平与安全的稳定。他们还将冲突的负担进一步转移到平民身上。但是,杀手机器人的风险不仅仅威胁着冲突中的人们。在我们的社会中更广泛地使用这些武器也可能产生严重后果。

想想未来的抗议、边境管制、治安和监视,甚至我们使用的其他类型的技术。如果我们让机器做出最终的生死决定,这会对我们的社会产生什么影响?这会对道德技术的斗争产生什么影响?自主武器的出现和后果影响着我们所有人。

有人说杀手机器人会更准确——它们会比人类士兵更快、更有效率,可以进入士兵难以行动的地方,可以更精确地瞄准,通过减少“靴子上的靴子”来拯救生命。地”,起到震慑作用。但对于地雷、集束弹药和核武器也有类似的说法——这些武器在被禁止之前曾造成数十万人死伤。

独立改变自身行为或适应自身编程的技术无法在真正的控制下使用。其他技术可能会呈现“黑匣子”,无法知道决策的原因或方式。根据法律,军事指挥官必须能够判断攻击的必要性和相称性,并区分平民和合法军事目标。

这意味着不仅要了解武器系统,还要了解其可能使用的环境。机器无法理解背景或后果:理解是人类的能力——如果没有这种理解,我们就会失去道德责任,并破坏现有的法律规则。杀手机器人的威胁和风险远远超过任何潜在的优势。

许多系统包含不同的自动化功能(例如自动目标识别),但没有 应用 根据传感器输入强制(攻击)目标。例如,大多数使用自动目标识别的武器系统目前都有需要批准任何攻击的人类操作员(我们将这些称为基于批准的系统)。然而,很难验证系统对哪些功能具有何种程度的自主权。有关更多信息,请参阅 PAX 这份关于武器系统自主化趋势的法律和道德影响的报告.

此类系统还引发了道德、法律和伦理方面的担忧,特别是在数字非人性化方面,以及用户是否能够对攻击的影响是否符合法律和伦理规范做出有根据的判断。我们的研究和监测团队, 自动决策研究,创建了一个 武器监视器 资源中包含武器系统的示例,这些系统的特征可以为有关增强武器自主性的担忧提供信息。

武器系统能力及其自主功能(或缺乏自主功能)的不确定性,以及战争中包括当前冲突中自主性增强的趋势, 进一步强调为什么迫切需要关于武器系统自主权的新国际法.

人工智能目标推荐或目标生成系统不是武器系统。它们是数据处理系统,可以高速处理和分析大量数据以生成目标并提出目标建议。使用的数据可以包括卫星图像、电信、无人机镜头等。此类系统的示例包括 以色列的 Habsora(又名“福音”)系统,以色列的 薰衣草系统美国的Maven项目

这些系统是目标推荐或“决策支持”系统;它们不是武器。因此,它们不属于自主武器系统条约的管辖范围。 

虽然它们不是武器系统,但这些系统 仍然引发重大的人道主义、伦理、道德和法律问题。存在严重的风险,即人类会过度信任系统的建议(自动化偏差),并且可能会过度依赖自动化系统而不了解建议是如何生成的。此外,对提高速度的渴望可能会限制用户对决策的认知参与。这些系统还可以创建问责“烟幕弹”,以确定如果建议导致违反国际人道法,谁将负责。

有关此类目标推荐系统提出的问题的更多信息,请阅读 露西·苏克曼(Lucy Suchman)关于“算法加速的杀人机器”的文章Elke Schwarz 和 Neil Renic 的作品“循环中的非人道:人工智能瞄准和道德约束的侵蚀”.

“火控”系统,涉及多个组件协同工作,协助远程武器系统瞄准、跟踪和打击,例如 SmartShooter 的 SMASH 系统AimLock 的系统,可与突击步枪等武器集成。这些系统可以使用算法(特别是图像识别)来检测、分类或跟踪目标,“锁定”人类操作员选择的目标,并根据人类操作员的命令进行射击。由于是人类决定向目标部署武力(攻击),所以这些不是自主武器。虽然此类系统不是自主武器系统,但这些系统也引发了道德、伦理和法律问题,以及对数字非人化的担忧。

有许多类型的机器人可用于其他军事用途,例如用于拆弹的机器人、用于运输军事装备的机器人、用于扫雷的机器人、用于搜索和救援的机器人、用于监视目的的机器人等等。

一些机器人,例如 遥控机器人“狗”近年来受到了极大关注,特别是由于对其潜在武器化和使用的担忧 由军队 由警察部队。与所有武器系统一样,这些机器人只能在符合法律和道德规范的情况下使用。

 此类机器人越来越多地用于军事目的 它们的能力、自主功能的程度及其潜在武器化的不确定性进一步凸显了为什么迫切需要关于武器系统自主性的新国际法。 

同样,在非冲突环境中使用此类机器人,例如治安和边境管制,也会对保护人权和适用国际人权法提出问题。

而六家机器人公司 此前曾承诺不允许他们的机器人武器化军事用途机器人系统的持续发展表明,自我监管不足以应对新兴技术对保护平民和国际人道主义法带来的挑战。

我们的活动

阻止杀手机器人是 由 250 多个国际、区域和国家非政府组织和学术合作伙伴组成的全球联盟,在 70 多个国家/地区开展工作 通过制定新的国际法,确保人类对武力的使用进行有意义的控制。我们还有一个 青年网 它汇集了来自世界各地的年轻领导人,共同合作并支持我们为确保没有自动杀戮的未来而做出的努力。

停止杀手机器人运动 呼吁制定关于自主武器系统的新国际法。这项新条约应禁止自主武器系统 直接针对人类,以及无法有意义地使用的自主武器系统 人为控制 (这些就是我们所说的杀手机器人)。该条约应通过制定积极义务(各国为确保遵守而必须采取的行动,或为防止违反国际法而必须采取的措施)来规范所有其他自主武器系统,包括关于可预测性、可理解性以及时间和时间的具体规则。空间限制。这 国际红十字委员会  还建议明确禁止设计或用于瞄准人类的系统和不可预测的自主武器系统,并且所有其他自主武器系统都应承担积极义务。

与红十字国际委员会一样,“阻止杀手机器人”呼吁制定新的具有法律约束力的国际规则来禁止和监管自主武器系统,而不是全面“禁止”。这是因为以禁令和法规相结合的形式出现的新国际法比禁令的范围更广,可以涵盖更多令人关注的问题,并且可以制定最强有力的国际条约。除了仅仅解决禁止根本上不可接受的自主武器之外,条约还应包括确保其他自主武器的使用符合法律和道德规范的规则。

以具有法律约束力的文书形式制定的新国际规则将为禁止和监管自主武器系统的开发和使用建立持久有效的框架。一项范围广泛、逻辑结构清晰、规范性明确的文书(例如禁止以人为目标)将为即使对于最初没有加入该文书的国家设定一个令人信服的标准。按照这些思路构建的工具将塑造未来技术的发展。

世界各地呼吁通过一项新的国际条约限制武器系统自主权的呼声不断高涨。杀手机器人被视为对人类的主要威胁,需要迅速而强有力的多边反应。最近,即 2023 年 XNUMX 月, 联合国第一个关于杀手机器人的决议获得通过 在联合国大会上。这遵循了 系列区域立场 (即声明和公报)于 2023 年初针对杀手机器人通过。目前,大多数州 支持自主武器系统新规则的谈判,联合国秘书长和红十字国际委员会主席也是如此, 2023 年 XNUMX 月发出具有里程碑意义的联合呼吁 呼吁各国在 2026 年之前谈判一项具有法律约束力的新文书。

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的