菜单英雄形象
AOAV IGw AWS 最终 150ppi_LR

人工智能专家呼吁禁止

AOAV IGw AWS 最终 150ppi_LR

超过 3,000 名人工智能研究人员、科学家和相关专业人士 an 公开信 28 年 2015 月 XNUMX 日在布宜诺斯艾利斯发布,呼吁禁止自主武器,这些武器在没有人为干预的情况下选择和攻击目标,从而扩大了迅速发展的全球性武器运动的队伍。 制止杀手机器人运动欢迎来电,可在 官网 未来生命研究所的成员。

这封信于今天(28 年 2015 月 XNUMX 日)在 国际人工智能联席会议 在阿根廷布宜诺斯艾利斯。

这封信的签署人包括超过 14位现任和前任总统 人工智能和机器人组织以及专业协会,如 AAAI、IEEE-RAS、IJCAI 和 ECCAI。 它们包括 谷歌深度思维 首席执行官 Demis Hassabis 及其实验室的 21 名工程师、开发人员和研究科学家。 许多媒体的注意力都集中在《公约》的高级别签署方身上。 邮件比如特斯拉CEO埃隆马斯克、苹果联合创始人史蒂夫沃兹尼亚克、Skype联合创始人贾恩塔林教授 斯蒂芬·霍金,和诺姆乔姆斯基教授。

公开信的著名女性签名者包括哈佛大学的 Higgins 自然科学教授 Barbara Grosz、IBM Watson 设计负责人 Kathryn McElroy、密歇根大学的 Martha E. Pollack 教授、巴塞罗那 CSIC-UPC 机器人研究所的 Carme Torras 教授,帕多瓦大学和哈佛大学的 Francesca Rossi 教授,多伦多大学的 Sheila McIlraith 教授,斯坦福大学的 Allison M. Okamura 教授,兰卡斯特大学的 Lucy Suchman 教授,爱丁堡大学的 Bonnie Weber 教授,以及美国大学的 Mary-Anne Williams 教授悉尼科技大学。

呼吁禁令的 FLI 信函的几位签署人向 2015月XNUMX日的会议 的“致命自主武器系统”政府,包括 斯图尔特·罗素教授 加州大学伯克利分校和 希瑟·罗夫教授 科罗拉多州丹佛大学。 关于自主武器的国际辩论的下一个里程碑将是 13 月 XNUMX 日,届时各国将参加 常规武器公约 以协商一致方式决定是否继续和深化有关该主题的会谈。

根据公开信,“自主武器被描述为继火药和核武器之后的第三次战争革命。” 它发现“人工智能 (AI) 技术已经达到这样的程度,在这种情况下,此类系统的部署 - 实际上如果不合法的话 - 在 几年,而不是几十年.”(斜体补充)

签署方认为“当今人类面临的关键问题”是“是开始全球人工智能军备竞赛还是阻止”,因为“如果任何主要军事力量推进人工智能武器的发展,全球军备竞赛几乎是不可避免的,这条技术轨迹的终点很明显:自主武器。” 签署方“相信军事人工智能军备竞赛不会对人类有益”,并观察到人工智能“可以使人类,尤其是平民的战场更安全,而无需创造新的杀人工具。” 他们发现自主武器可能不需要“昂贵或难以获得的原材料”,这使得它们可能“无处不在且便宜,可供所有重要军事力量大规模生产”,并“出现在黑市上”和恐怖分子、独裁者、军阀等等之手。

作为人工智能研究人员,签署人将自己比作化学家、生物学家和物理学家,他们“对制造化学或生物武器没有兴趣”,因此支持禁止化学和生物武器以及天基核武器和致盲激光武器的条约.

签署方观察到“人工智能研究人员对制造人工智能武器没有兴趣,也不希望其他人这样做会玷污他们的领域,这可能会引起公众对人工智能的强烈反对,从而削弱其未来的社会效益。” 因此,为了防止“军事人工智能军备竞赛”,签署方呼吁“禁止超出人类有意义的控制范围的攻击性自主武器”。

这封信引起了媒体的强烈兴趣,从 监护人纽约时报. 麻省理工学院教授、未来生命研究所创始人 Max Tegmark 告诉我们 VICE主板, “这是正在构建技术的 AI 专家,他们直言不讳地说他们不想与此有任何关系。”

更新:截至 15 年 2016 月 XNUMX 日,共有 3,037 人工智能和机器人 研究人员签署了公开信,呼吁禁止自主武器以及 17,000 多名其他代言人。

欲了解更多信息,请访问:

照片:未来生命研究所的参与者 “人工智能的未来”会议”于 2015 年 2015 月在波多黎各举行 (c) 未来生命研究所,XNUMX 年。

玛丽

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的