изображение главного меню
AOAV IGw AWS ФИНАЛ 150ppi_LR

Эксперты по искусственному интеллекту призывают к запрету

AOAV IGw AWS ФИНАЛ 150ppi_LR

Более 3,000 исследователей, ученых и специалистов в области искусственного интеллекта подписанный an Открой письмо выпущенный в Буэнос-Айресе 28 июля 2015 года, призывающий к запрету автономного оружия, которое выбирает и поражает цели без вмешательства человека, тем самым пополняя ряды быстро растущего глобального движения по борьбе с оружием. Кампания по остановке роботов-убийц приветствует звонок, который доступен на веб-сайт Института будущего жизни.

Письмо вручается сегодня (28 июля 2015 г.) в Международная совместная конференция по искусственному интеллекту в Буэнос-Айресе, Аргентина.

Среди лиц, подписавших письмо, более 14 нынешних и прошлых президентов организаций искусственного интеллекта и робототехники и профессиональных ассоциаций, таких как AAAI, IEEE-RAS, IJCAI и ECCAI. Они включают Google DeepMind исполнительный директор Демис Хассабис и 21 инженер, разработчик и научный сотрудник его лаборатории. Большое внимание СМИ было сосредоточено на высокопоставленных лицах, подписавших письмо, такие как генеральный директор Tesla Илон Маск, соучредитель Apple Стив Возняк, соучредитель Skype Яан Таллин, профессор Stephen Hawking, и профессор Ноам Хомский.

Среди известных женщин, подписавших открытое письмо, - профессор естественных наук Хиггинс Барбара Гросс из Гарвардского университета, руководитель отдела дизайна IBM Watson Кэтрин МакЭлрой, профессор Марта Э. Поллак из Мичиганского университета, профессор Карме Торрас из Института робототехники при CSIC-UPC в Барселоне. , Профессор Франческа Росси из Университета Падуи и Гарварда, профессор Шейла Макилрайт из Университета Торонто, профессор Эллисон М. Окамура из Стэнфордского университета, профессор Люси Сучман из Ланкастерского университета, профессор Бонни Вебер из Эдинбургского университета и профессор Мэри-Энн Уильямс из Университета Сиднейский технологический университет.

Несколько лиц, подписавших письмо FLI с призывом к запрету, обратились к 2015 апреля встреча правительств по «летальным автономным системам оружия», в том числе Профессор Стюарт Рассел Калифорнийского университета в Беркли и Профессор Хизер Рофф Денверского университета в Колорадо. Следующей вехой в международных дебатах по автономному оружию станет 13 ноября, когда государства, участвующие в ежегодном заседании Конвенция об обычном оружии на основе консенсуса решить, следует ли продолжать и углублять переговоры по этой теме.

Согласно открытому письму, «автономное оружие было охарактеризовано как третья революция в войне после пороха и ядерного оружия». Он обнаружил, что «технология искусственного интеллекта (ИИ) достигла точки, когда развертывание таких систем - практически, если не юридически - возможно в пределах годы, а не десятилетия. »(Курсив добавлен)

Подписавшие определяют «ключевой вопрос для человечества сегодня» как «начать ли глобальную гонку вооружений ИИ или предотвратить ее», потому что «если какая-либо крупная военная держава продвинется вперед с разработкой оружия ИИ, глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидна: автономное оружие ». Подписавшие «считают, что военная гонка вооружений ИИ не принесет пользы человечеству», и отмечают, что ИИ «может сделать поля сражений более безопасными для людей, особенно гражданских, без создания новых инструментов для убийства людей». Они обнаруживают, что автономное оружие может не требовать «дорогостоящего или труднодоступного сырья», что делает его «повсеместным и дешевым для массового производства всеми значительными военными державами», а также «появлением на черном рынке» и руки террористов, диктаторов, полевых командиров и т. д.

Как исследователи ИИ, подписавшие сравнивают себя с химиками, биологами и физиками, которые «не заинтересованы в создании химического или биологического оружия» и поэтому поддерживают договоры о запрещении химического и биологического оружия, а также космического ядерного оружия и ослепляющего лазерного оружия. .

Подписанты отмечают, что «исследователи искусственного интеллекта не заинтересованы в создании оружия искусственного интеллекта и не хотят, чтобы другие очерняли их поле зрения, делая это, потенциально вызывая серьезную общественную реакцию против искусственного интеллекта, которая ограничивает его будущие социальные выгоды». Поэтому, чтобы предотвратить «военную гонку вооружений ИИ», подписавшие стороны призывают «запретить наступательное автономное оружие, находящееся вне реального контроля человека».

Письмо вызвало большой интерес со стороны СМИ, так как Опекун в The New York Times. Об этом рассказал Макс Тегмарк, профессор Массачусетского технологического института и основатель Future of Life Institute. VICE Материнская плата«Это эксперты по искусственному интеллекту, которые создают технологию, и говорят, что не хотят иметь с этим ничего общего».

ОБНОВЛЕНИЕ. По состоянию на 15 января 2016 г. в общей сложности 3,037 искусственный интеллект и робототехника исследователи подписали открытое письмо, призывающее к запрету автономного оружия, а также более 17,000 XNUMX других сторонников.

Для получения дополнительной информации, пожалуйста, см.:

На фото: участники Института будущего жизни. конференция на тему «Будущее искусственного интеллекта.», Состоявшейся в Пуэрто-Рико в январе 2015 г. (c) Институт будущего жизни, 2015 г.

Мария

Альтернативный текст изображения
Значок точек SKR

Остановите роботов-убийц

Присоединяйтесь к нам

Следите за последними достижениями в движении по борьбе с роботами-убийцами.

Присоединяйтесь к нам