菜单英雄形象
图表显示了最反对杀手机器人的国家。

RightsCon:防止数字非人化

10 月 10 日,作为 Access Now 年度 RightsCon 活动的一部分,阻止杀手机器人运动举行了“防止数字非人化”小组会议。 为庆祝成立 7 周年,RightsCon 于 11 年 2021 月 XNUMX 日至 XNUMX 月 XNUMX 日举行,并几乎连续第二年举行。 会议聚集了来自世界各地的个人、利益相关者和活动家,讨论技术和人权领域的关键问题。 这是该运动第二次参加RightsCon。

长达一小时的会议是 直播推特 并专注于探索新兴技术(例如具有自动或自主决策能力的机器)如何复制或加剧社会危害、不平等和压迫。 此次活动的特色是兰卡斯特大学科学与技术人类学名誉教授露西·萨奇曼; 滑铁卢大学博士后、Glassbox 创始人 Sarah Shoker 博士; Laura Nolan,软件工程师,国际机器人武器控制委员会(ICRAC)成员; 以及 AI for the People 执行董事 Mutale Nkonde Nkonde。 活动外展经理 Isabelle Jones 主持了活动,有超过 85 名参与者出席。

会议首先讨论了数字非人化意味着什么,正如之前在 博客文章 通过诺兰。 数字非人性化被描述为一种现象,其中依赖机器和系统的软件来分析、评估和做出有关人类的决定,将一个人简化为“要对[作为]对象采取行动的东西,而不是拥有人权和权​​利的人”。机构。” Nkonde 强调种族歧视是数字非人化的一个方面。 对系统使用有偏见的训练数据集有助于“使用新机器的旧种族主义”的相同结构,这种结构继续助长针对黑人身体的暴力行为并进一步加剧不平等。

这样的系统——从预测性警务到社会评分——可能有善意的意图,但实际上可能会导致有害影响,因为它们会继续使压迫和暴力循环永久化。 扬声器指向机器狗 部署 在纽约市或 错误平台 程序作为如何部署这些技术的示例。 萨奇曼接着谈到了开发本质上是目标系统的“学习”。 训练机器区分苹果和橙子或狗和猫的数据集,与训练系统区分拥有不同人类身份和关系的平民和战斗人员不同。 相反,我们得到的是“非常粗略的刻板印象……然后声称这可以实现更精确和准确的定位。”  

Shoker 还强调,“使用任何类型的机器学习软件,本质上都是在审核人类生活,选择某些属性以进行人工干预”。 由于机器学习的不透明性,这引起了人们的严重担忧,即赋予我们的身份最终会减少人类能动性并侵犯权利。 Shoker 借鉴了使用重男轻女和性别假设来确定军人年龄男性的例子,这通常使 15 岁的男孩被归入战斗人员类别。

会议结束时,每位小组成员都反思了我们可以采取哪些行动并推动政策变革以防止未来的危害。 反思包括呼吁通过审计和人权影响评估来改进对数据的监管、合规指导、重新构想现有的政策变化叙述、去神秘化技术和集体行动。

伊莎贝尔

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的