菜单英雄形象
AOAV IGw AWS 最终 150ppi_LR

人工智能研究电话

AOAV IGw AWS 最终 150ppi_LR

来自工业界和学术界的杰出科学家和研究人员签署了一份 公开信 呼吁人工智能 (AI) 和智能机器研究专注于开发对人类“强大且有益”的系统。 这封信链接到 文件 概述“有助于最大限度地提高人工智能社会效益的研究方向”,其中包括与“致命自主武器系统”(也称为完全自主武器或杀手机器人)相关的法律、道德和其他问题清单。

15 月 XNUMX 日,其中一个 邮件主要签署人 特斯拉汽车公司SpaceX公司 创始人埃隆·马斯克 公布 捐赠 10 万美元用于研究资助,旨在落实公开信的呼吁,他 说过 他签署是因为“人工智能安全很重要”,他希望“支持旨在让人工智能对人类有益的研究”。

捐赠将由 生命未来研究所,一个由志愿者经营的非营利组织,致力于“减轻对人类的生存风险”。 这 公开信 研究院召开会议后发布 “人工智能的未来”会议” 2 年 4 月 2015 日至 XNUMX 日在波多黎各举行,马斯克和其他数十人出席 签署者 来信如Skype联合创始人Jaan Tallinn。

技术专家 希瑟·罗夫博士 丹佛大学的成员,他是 国际机器人武器控制委员会, 是“制止杀手机器人运动”的联合创始人,受邀参加波多黎各会议并发表演讲 关于自主武器。 制止杀手机器人运动欢迎公开信中表达的对人工智能研究有益于人类的呼吁,并赞赏将自主武器问题列为跨学科研究优先事项。

正如丽贝卡·梅雷特 (Rebecca Merrett) 所言 报道– 不幸的是迄今为止为数不多的严肃评论之一 通过媒体– 12 页的“研究重点” 文件 附在 公开信 询问有关机器中快速发展的智能和自主性的法律和道德问题。 它着眼于自主武器和车辆的责任和法律、机器伦理以及人工智能系统的隐私影响。 该文件由几位合著者起草,其中包括加州大学(伯克利)教授 Stuart Russell、标准人工智能教科书《人工智能:现代方法》的合著者以及 生命未来研究所,麻省理工学院 Max Tegmark 教授。

在“研究重点”中 文件 在“稳健人工智能的计算机科学研究”(第 3 页)部分,作者指出“随着自主系统在社会中变得越来越普遍,它们按预期稳健运行变得越来越重要”,并指出自主武器和其他系统“因此引起了对可以提供强大稳健性保证的高保证系统的兴趣。”

该文件概述了“人工智能系统可能无法按预期执行对应于稳健性研究的不同领域”的四种方式,即验证、有效性、安全性和控制。 受控提出的关键问题是“如何在人工智能系统开始运行后对其进行有意义的人工控制?” 或者“好吧,我构建的系统错了,我可以修复它吗?”

在详细阐述“控制”的部分(第 5 页)下,作者指出“对于某些类型的安全关键 AI 系统——尤其是车辆和武器平台——可能需要保留某种形式的有意义的人类控制,无论这是否意味着一个人在循环中,在循环中,或其他一些协议。” 这 文件 还观察到“将需要进行技术工作以确保维持有意义的人类控制。” 该文件询问“应该如何定义对武器的‘有意义的人类控制’?” 以及“如何才能最好地鼓励在这些问题上的透明度和公共讨论?”

未来生命研究所  人工智能安全研究项目的公开资助竞赛将通过在线申请进行管理,该申请将于下周在其网站上提供: http://futureoflife.org. 根据该研究所的说法,“任何人都可以提交资助提案,无论来自学术界、工业界还是其他地方,最好的想法都会获胜。” 它计划将大部分资助授予人工智能研究人员,其余资助涉及其他领域的人工智能相关研究,包括经济学、法律、伦理和政策。 这笔捐款还将用于召开会议和开展旨在将学术 AI 研究人员、行业 AI 开发人员和其他关键成员聚集在一起的外展计划。

29 月 XNUMX 日,制止杀手机器人运动 发言人 斯蒂芬·鹅 人权观察将 辩论 佐治亚理工学院的 Ron Arkin 教授在德克萨斯州奥斯汀的人工智能促进协会年会上讨论自主武器。 辩论将由俄勒冈州立大学的 AAAI 主席 Thomas G. Dietterich 主持。

截至18月XNUMX日, 公开信 已有4,000多人签署。

有关更多信息,请参见:

图片:(c) 未来生命研究所 艺术品,一月2015

玛丽

图片替代文字
SKR 点图标

停止杀手机器人

来参加我们的

跟上停止杀手机器人运动的最新发展。

来参加我们的