菜单英雄形象

美国空军 AI 操作无人机的军事模拟

报道称,美国空军模拟了人工智能操作的无人机决定杀死人类操作员以实现任务目标的场景,这令人深感担忧。 尽管美国空军已确认这不是人工智能模拟,但它仍然表明迫切需要有关武器系统自主性的国际法,以确保人类对武力的使用进行有意义的控制。

各国尚未对自主武器的发展做出充分反应,迄今未能划定一条红线,防止机器杀人。 在这个问题上缺乏政治行动只会导致更多的人命损失,并在冲突、警务、边境控制和社会其他领域加剧数字非人化。 人工智能的危害已经影响到世界各地的边缘化人群,面部识别系统导致错误识别 逮捕 在美国,一个福利系统自动化 在荷兰,到 人工智能驱动的巴勒斯坦人监视. 正是这些社区可能会受到新技术和武器系统的最严重影响。

自主武器引起了人道主义、法律、安全、技术和伦理方面的严重关切。 正如这个军事场景所示,机器不像人那样“看”世界,自主武器将根据数据做出决策,将人简化为物体——待处理的数字。 对人工智能和自动化决策在我们生活中所扮演的角色的担忧和焦虑在整个社会变得越来越普遍。 现在是各国应对这一担忧的时候了,尽管 90 多个国家呼吁制定一项关于武器系统自主性的法律文书,但仍需要切实的政治领导和行动。

Stop Killer Robots 呼吁各州利用所有可用的多边论坛来制定法律保障措施。 现在是开始谈判一项维护人类尊严并确保有意义的人类控制的条约的时候了。

所有的目光和努力现在都在关注 XNUMX 月份的联合国大会,届时各国将有机会支持新国际法的谈判,以保留人类对使用武力的有意义的控制,并确保我们不允许杀人通过机器。

 

评论或采访请求应直接发送至 [电子邮件保护]

 

克莱尔康博

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的