菜单英雄形象

致美洲国家组织常设理事会的声明

谢谢主席,也感谢哥斯达黎加盛情邀请在常设理事会上发言。

我代表 Stop Killer Robots 运动发言,这是一个由来自 200 多个国家的 70 多个成员组织组成的国际联盟,呼吁就一项关于自主武器系统的具有法律约束力的新文书进行谈判。 这一谈判呼吁得到了广泛利益攸关方的大力支持,包括联合国秘书长、红十字国际委员会、数以千计的技术和人工智能专家、宗教领袖、民间社会和大多数公众舆论。

众所周知,人工智能和自动化决策技术正在多个领域渗透社会。 在非军事领域,人工智能和算法系统的使用所带来的风险和挑战得到广泛认可,需要有效监管。 2021 年 XNUMX 月,联合国人权事务高级专员的一份报告指出,“如果部署人工智能技术时未充分考虑其对人权的影响,它可能会‘产生负面、甚至灾难性的影响’”。 许多著名的行业人物呼吁政府加强监管并建立新的立法和监管机构,以解决人工智能和机器学习技术带来的严重问题。 在欧盟层面,欧洲议会即将投票通过《人工智能法案》,该法案将于今年年底成为法律,适用于欧盟所有成员国。 人工智能法案将为人工智能技术引入多项标准和保障措施以保护人权,包括透明度要求和高风险人工智能分类,并将禁止在公共场所使用生物识别面部识别系统,以及禁止生物识别分类系统、情绪识别系统和预测警务系统。

迫切需要采取此类措施,因为人工智能和自动决策系统的严重危害已经存在。 我们已经在世界各地看到人工智能和自动化决策技术的使用造成的重大危害。 仅举两个例子,在荷兰,一种算法错误地将家庭标记为实施儿童福利欺诈,特别针对移民家庭,并导致数千人陷入严重的经济困难。 在美国和其他司法管辖区,人们——尤其是有色人种——在被面部和生物特征识别系统错误识别后被捕。 自动化和算法系统引起了对偏见、歧视、不平等和人类尊严的特别关注。 那些将首当其冲受到这些技术影响的人是那些历史上“受新技术和武器系统的影响和伤害最大”的人群。

许多国家和国际机构和组织在民用领域认识到人工智能和机器学习的严重风险和挑战的程度,应被视为对在军事领域使用人工智能的相关担忧的验证。 自主武器系统不是假设的。 我们看到了提高武器系统各种功能自主性的重要趋势,包括目标选择和武力应用等关键功能。 这些系统有许多不同的形状和大小。 有些是无人机或游荡弹药; 有些是无人驾驶的地面车辆,例如坦克。 三个已经投入使用的系统示例包括 STM Kargu-2、卡拉什尼科夫集团的 KUB-BLA 和埃尔比特系统的 LANIUS 系统。 Kargu-2 是一种具有自主飞行能力和自动目标识别系统的游荡弹药,联合国专家小组在 2021 年报告说,Kargu-2 已在利比亚使用,并且“被编程为攻击目标而不需要操作员和弹药之间的数据连接。 据报道,KUB-BLA 已被俄罗斯在乌克兰使用,据称具有“人工智能视觉识别(AIVI)技术,可对目标进行实时识别和分类”。 Elbit Systems 声称其 LANIUS 系统可以进行“敌人检测”和“威胁分类”,区分战斗人员和非战斗人员,或敌对人员和友好人员。

声称能够根据传感器获取并通过算法处理和分类的数据区分战斗员和平民、现役战斗员和那些失去战斗力的人、或平民、平民残疾人和直接参与敌对行动的平民严重的法律、伦理和道德问题。 自主武器不会将我们“视为”人类。 相反,我们被机器“感知”为数据点的集合。 如果此信息匹配或适合目标配置文件,武器系统将施加力量。 没有人参与做出这个生死决定。 基于特定特征将人员减少到数据点所导致的非人性化引发了严重的问题,即算法目标配置文件是如何创建的、这些目标配置文件基于哪些预先存在的数据,以及哪些数据是在哪些系统上进行训练的。 它还提出了用户如何理解武器目标配置文件中的内容以及武器系统为何决定使用武力的问题。 赋予机器决定生死的权力损害了人类的尊严,剥夺了我们的权利。 人不是被视为人,而是被当作对象来处理。

正如我已经指出的那样,人们普遍认识到人工智能和自动决策系统在伦理、法律和道德方面带来了许多风险和挑战,并且需要针对这些风险和挑战采取具体的监管措施。 在军事领域,此类系统,尤其是自主武器系统所带来的风险和危害非常严重,可能导致人员伤亡,并可能剥夺基本人权。 各国必须利用他们的权力制定新的、具有法律约束力的规则,其中包括对自主武器系统的禁令和规定。 各国应禁止无法在有意义的人类控制下使用的自主武器系统,禁止使用传感器直接瞄准人类的系统,并制定积极的义务以确保在所有其他系统中进行有意义的人类控制。 这项技术不会在未来的某个地方等着我们——它就在此时此地,是各国采取行动的时候了。

感谢。

 

 

 

凯瑟琳康诺利博士

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的