Вызов исследования искусственного интеллекта
Выдающиеся ученые и исследователи из промышленности и академических кругов подписали Открой письмо призывает к исследованиям в области искусственного интеллекта (ИИ) и интеллектуальных машин, чтобы сосредоточиться на разработке систем, которые будут «надежными и полезными» для человечества. В письме есть ссылка на документ изложение «направлений исследований, которые могут помочь максимизировать общественную пользу ИИ», включая список юридических, этических и других вопросов, касающихся «летальных автономных систем оружия», также известных как полностью автономное оружие или роботы-убийцы.
15 января один из письмоосновные подписавшие Tesla Motors и SpaceX основатель Илон Маск объявило пожертвование 10 миллионов долларов США на исследовательские гранты, направленные на реализацию призыва открытого письма, которое он — сказал он подписался, потому что «безопасность ИИ важна» и он хочет «поддержать исследования, направленные на то, чтобы ИИ приносил пользу человечеству».
Пожертвование будет осуществляться Институт будущего жизни, некоммерческая организация, управляемая волонтерами, которая работает «над снижением рисков для человечества». В Открой письмо был выпущен после того, как институт созвал конференция на тему «Будущее искусственного интеллекта.»В Пуэрто-Рико 2–4 января 2015 г., на котором присутствовали Маск и десятки других подписанты к письму, например, соучредитель Skype Яан Таллинн.
Технический эксперт Доктор Хизер Рофф Университета Денвера, который является членом Международный комитет по контролю над роботизированным оружием, который является соучредителем Кампании по борьбе с роботами-убийцами, был приглашен на конференцию в Пуэрто-Рико, чтобы дать presentation по автономному оружию. Кампания по борьбе с роботами-убийцами приветствует высказанный в открытом письме призыв к исследованиям ИИ, которые приносят пользу человечеству, и высоко оценивает включение проблем автономного оружия в качестве приоритета междисциплинарных исследований.
Как сказала Ребекка Мерретт переправу–В одном из, к сожалению, немногих серьезных обзоров на сегодняшний день СМИ–12-страничные «приоритеты исследований» документ прилагается к Открой письмо задает правовые и этические вопросы быстро развивающегося интеллекта и автономии машин. В нем рассматриваются ответственность и закон для автономного оружия и транспортных средств, машинная этика и последствия систем ИИ для конфиденциальности. Документ был разработан несколькими соавторами, включая профессора Стюарта Рассела из Калифорнийского университета (Беркли), соавтора стандартного учебника по искусственному интеллекту «Искусственный интеллект: современный подход» и соучредителя Институт будущего жизни, Профессор Макс Тегмарк из Массачусетского технологического института.
В «приоритетах исследований» документ в разделе «Исследования в области компьютерных наук для надежного ИИ» (стр. 3) авторы отмечают, что «по мере того, как автономные системы становятся все более распространенными в обществе, становится все более важным, чтобы они надежно вели себя так, как задумано», и заявляют, что разработка автономного оружия и другие системы «поэтому вызвали интерес к высоконадежным системам, которые могут гарантировать надежность».
В документе описаны четыре способа, при которых «система ИИ может не работать должным образом, в соответствии с различными областями исследования устойчивости», а именно: проверка, достоверность, безопасность и контроль. Ключевой вопрос, который ставится под контролем, - «как обеспечить осмысленный контроль человека над системой ИИ после того, как она начнет работать?» или «Хорошо, я неправильно построил систему, могу ли я это исправить?»
В разделе, посвященном «контролю» (стр. 5), авторы отмечают, что «для некоторых типов критически важных для безопасности систем ИИ - особенно транспортных средств и оружейных платформ - может быть желательно сохранить некоторую форму значимого человеческого контроля, означает ли это человек в петле, в петле или какой-то другой протокол ». В документ также отмечает, что «потребуется техническая работа, чтобы обеспечить сохранение значимого человеческого контроля». В документе задается вопрос: «Как следует определять« осмысленный контроль человека »над оружием?» и «как можно лучше всего поощрять прозрачность и общественное обсуждение этих вопросов?»
Институт будущего жизни заявил что открытый конкурс грантов на исследовательский проект по безопасности ИИ будет проводиться через онлайн-заявку, которая будет доступна на его веб-сайте на следующей неделе по адресу: http://futureoflife.org. По мнению Института, «любой может прислать заявку на грант, и лучшие идеи выиграют, независимо от того, исходят ли они из академических кругов, промышленности или откуда-то еще». Он планирует предоставить большую часть грантов исследователям ИИ, а оставшуюся часть - исследованиям, связанным с ИИ, в других областях, включая экономику, право, этику и политику. Пожертвование также будет использовано для проведения встреч и проведения информационных программ, направленных на объединение академических исследователей ИИ, отраслевых разработчиков ИИ и других ключевых участников.
29 января кампания по остановке роботов-убийц. докладчик Стивен Гусь Хьюман Райтс Вотч будет дебаты Профессор Рон Аркин из Технологического института Джорджии об автономном оружии на ежегодной конференции Ассоциации по развитию искусственного интеллекта в Остине, штат Техас. Дискуссию будет вести президент AAAI Томас Дж. Диттерих из Университета штата Орегон.
По состоянию на 18 января Открой письмо подписали более 4,000 человек.
Для получения дополнительной информации см.
- Институт будущего жизни веб-сайт для Открой письмо, список подписавших, приоритеты исследований документ, конференция повестка дня, YouTube комментарии Илона Маска и Тома Диттериха
- Хизер Рофф presentation на Конференция "Будущее искусственного интеллекта" и Блог размещать на The Huffington Post.
- Интернет-сообщение, автор: Статья 36, соучредитель кампании.
- Освещение в избранных СМИ Business Insider, ИТ-директор Австралия, Popular Science, Грань, Проводная, Всемирный экономический форум
Изображение: (c) Институт будущего жизни произведение искусства, Январь 2015