изображение главного меню
AOAV IGw AWS ФИНАЛ 150ppi_LR

Вызов исследования искусственного интеллекта

AOAV IGw AWS ФИНАЛ 150ppi_LR

Выдающиеся ученые и исследователи из промышленности и академических кругов подписали Открой письмо призывает к исследованиям в области искусственного интеллекта (ИИ) и интеллектуальных машин, чтобы сосредоточиться на разработке систем, которые будут «надежными и полезными» для человечества. В письме есть ссылка на документ изложение «направлений исследований, которые могут помочь максимизировать общественную пользу ИИ», включая список юридических, этических и других вопросов, касающихся «летальных автономных систем оружия», также известных как полностью автономное оружие или роботы-убийцы.

15 января один из письмоосновные подписавшие Tesla Motors и SpaceX основатель Илон Маск объявило пожертвование 10 миллионов долларов США на исследовательские гранты, направленные на реализацию призыва открытого письма, которое он — сказал он подписался, потому что «безопасность ИИ важна» и он хочет «поддержать исследования, направленные на то, чтобы ИИ приносил пользу человечеству».

Пожертвование будет осуществляться Институт будущего жизни, некоммерческая организация, управляемая волонтерами, которая работает «над снижением рисков для человечества». В Открой письмо был выпущен после того, как институт созвал конференция на тему «Будущее искусственного интеллекта.»В Пуэрто-Рико 2–4 января 2015 г., на котором присутствовали Маск и десятки других подписанты к письму, например, соучредитель Skype Яан Таллинн.

Технический эксперт Доктор Хизер Рофф Университета Денвера, который является членом Международный комитет по контролю над роботизированным оружием, который является соучредителем Кампании по борьбе с роботами-убийцами, был приглашен на конференцию в Пуэрто-Рико, чтобы дать presentation по автономному оружию. Кампания по борьбе с роботами-убийцами приветствует высказанный в открытом письме призыв к исследованиям ИИ, которые приносят пользу человечеству, и высоко оценивает включение проблем автономного оружия в качестве приоритета междисциплинарных исследований.

Как сказала Ребекка Мерретт переправу–В одном из, к сожалению, немногих серьезных обзоров на сегодняшний день СМИ–12-страничные «приоритеты исследований» документ прилагается к Открой письмо задает правовые и этические вопросы быстро развивающегося интеллекта и автономии машин. В нем рассматриваются ответственность и закон для автономного оружия и транспортных средств, машинная этика и последствия систем ИИ для конфиденциальности. Документ был разработан несколькими соавторами, включая профессора Стюарта Рассела из Калифорнийского университета (Беркли), соавтора стандартного учебника по искусственному интеллекту «Искусственный интеллект: современный подход» и соучредителя Институт будущего жизни, Профессор Макс Тегмарк из Массачусетского технологического института.

В «приоритетах исследований» документ в разделе «Исследования в области компьютерных наук для надежного ИИ» (стр. 3) авторы отмечают, что «по мере того, как автономные системы становятся все более распространенными в обществе, становится все более важным, чтобы они надежно вели себя так, как задумано», и заявляют, что разработка автономного оружия и другие системы «поэтому вызвали интерес к высоконадежным системам, которые могут гарантировать надежность».

В документе описаны четыре способа, при которых «система ИИ может не работать должным образом, в соответствии с различными областями исследования устойчивости», а именно: проверка, достоверность, безопасность и контроль. Ключевой вопрос, который ставится под контролем, - «как обеспечить осмысленный контроль человека над системой ИИ после того, как она начнет работать?» или «Хорошо, я неправильно построил систему, могу ли я это исправить?»

В разделе, посвященном «контролю» (стр. 5), авторы отмечают, что «для некоторых типов критически важных для безопасности систем ИИ - особенно транспортных средств и оружейных платформ - может быть желательно сохранить некоторую форму значимого человеческого контроля, означает ли это человек в петле, в петле или какой-то другой протокол ». В документ также отмечает, что «потребуется техническая работа, чтобы обеспечить сохранение значимого человеческого контроля». В документе задается вопрос: «Как следует определять« осмысленный контроль человека »над оружием?» и «как можно лучше всего поощрять прозрачность и общественное обсуждение этих вопросов?»

Институт будущего жизни заявил что открытый конкурс грантов на исследовательский проект по безопасности ИИ будет проводиться через онлайн-заявку, которая будет доступна на его веб-сайте на следующей неделе по адресу: http://futureoflife.org. По мнению Института, «любой может прислать заявку на грант, и лучшие идеи выиграют, независимо от того, исходят ли они из академических кругов, промышленности или откуда-то еще». Он планирует предоставить большую часть грантов исследователям ИИ, а оставшуюся часть - исследованиям, связанным с ИИ, в других областях, включая экономику, право, этику и политику. Пожертвование также будет использовано для проведения встреч и проведения информационных программ, направленных на объединение академических исследователей ИИ, отраслевых разработчиков ИИ и других ключевых участников.

29 января кампания по остановке роботов-убийц. докладчик Стивен Гусь Хьюман Райтс Вотч будет дебаты Профессор Рон Аркин из Технологического института Джорджии об автономном оружии на ежегодной конференции Ассоциации по развитию искусственного интеллекта в Остине, штат Техас. Дискуссию будет вести президент AAAI Томас Дж. Диттерих из Университета штата Орегон.

По состоянию на 18 января Открой письмо подписали более 4,000 человек.

Для получения дополнительной информации см.

Изображение: (c) Институт будущего жизни произведение искусства, Январь 2015

Мария

Альтернативный текст изображения
Значок точек SKR

Остановите роботов-убийц

Присоединяйтесь к нам

Следите за последними достижениями в движении по борьбе с роботами-убийцами.

Присоединяйтесь к нам