菜单英雄形象

2024 年诺贝尔物理学奖得主对杀手机器人表示担忧

“人工智能教父”杰弗里·辛顿赞同呼吁制定新的国际法来禁止和规范自主武器系统。

制止杀手机器人运动注意到授予 2024诺贝尔物理学奖 分别授予Geoffrey E. Hinton教授和John J. Hopfield教授,以表彰他们在人工智能领域做出的贡献。

辛顿教授是第一批支持制定新国际法以禁止和规范自主武器系统的人工智能专家之一。2013 年 XNUMX 月,辛顿 支持一封公开信 来自 270 多名工程师、计算机科学家和人工智能专家的呼吁,要求禁止在没有任何人类控制的情况下自主决定使用暴力的武器系统。2015 年 XNUMX 月,Hinton 签署了一项呼吁 来自近 35,000 名人工智能和技术专家的呼吁,称军事人工智能军备竞赛是“坏主意”,并敦促对超出人类有效控制范围的自主武器实施预防性禁令。2017 年 XNUMX 月,Hinton 与其他人工智能专家一起 敦促加拿大总理贾斯汀·特鲁多反对自主武器,认为自主武器的研发和使用超越了“明显的道德界限”。

必须重视包括杰弗里·E·辛顿在内的人工智能专家对武器自主性的担忧,以便及时避免他们提出的一系列技术和道德问题。人工智能和自动决策将在我们作为个人、社会和全球社区的生活方式中发挥关键作用,这一点越来越明显,因此制定规则来规定如何使用武力至关重要。我们的活动已经开展了十多年,以确保人类对武力的使用进行有意义的控制,呼吁制定新的国际法来规范武器系统的自主性。我们认为,通过制定条约来制定法律标准对于确保和平与全球稳定至关重要。 

我们看到,实现制定自主武器系统新国际法目标的势头明显且不断增强。2023 年,我们由来自 250 个国家的 70 多个民间社会组织组成的联盟成功游说各国通过了有史以来第一项关于自主武器的联合国决议。这项决议得到了绝大多数国家的通过,表明各国有政治意愿应对自主武器带来的风险。此外,在过去两年中,我们看到跨地区支持通过了一系列关于自主武器的宣言,这些宣言强调了自主武器的法律、道德和人道主义影响以及制定新国际法的必要性。

在过去的十二个月中,有关在持续的国际冲突中使用军事人工智能和具有自主能力的武器的报道越来越多,其中包括 加沙 并且 乌克兰。这具有深远的人道主义意义。在军事背景下接受人工智能导致的非人性化、针对性和杀戮是站不住脚的,并将对警务、边境管制和更广泛的社会产生重大影响。第 79 届联合国大会目前正在进行中,各国有机会响应人工智能专家的呼吁,缩小监管与技术发展之间的差距。通过支持关于自主武器的决议,各国可以在国际条约方面取得有意义的进展。现在是全球社会采取紧急行动并继续在这一问题上发挥政治领导作用的时候了,以确保生死攸关的决定不能委托给机器

停止杀手机器人

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的