1
Встречайте наших молодежных активистов в Латинской Америке!
Молодежные кампании в Латинской Америке рассказывают, почему другим молодым людям должны быть небезразличны роботы-убийцы.
Когда молодые люди объединяются, мы можем заставить мир слушать.
Роботы-убийцы могут показаться научной фантастикой, но, к сожалению, они - следующий большой шаг в цифровой дегуманизации; в укреплении предубеждений и неравенства предыдущих поколений. Но их можно предотвратить.
Если мы не будем действовать, будущим поколениям придется жить с последствиями решений, которые принимаются прямо сейчас - развитием новых технологий с алгоритмической предвзятостью, изменением климата, несправедливыми конфликтами, социальным и политическим неравенством и беспорядками ... Мир, в котором мы живем, может быть сложным, но часто у нас больше возможностей влиять на события, чем мы думаем.
Есть много глобальных и социальных проблем, с которыми нам придется столкнуться в нашей жизни.
Политическим лидерам не следует инвестировать в автономное оружие сейчас, когда молодым людям придется столкнуться с реальностью и последствиями своих решений в будущем. Как и в случае с изменением климата, остановив разработку роботов-убийц, у нас есть возможность дать новую надежду; быть агентами перемен с властью и влиянием.
Мы выросли в эпоху цифровых технологий и за нами будущее. Кодеры, программисты, инженеры, солдаты, дипломаты, политики, активисты, организаторы и творческие люди, которым придется иметь дело с реальностями роботов-убийц.
У нас есть возможность формировать будущее технологий, промышленности и политики. Инвестировать в наши сообщества и человечество в более широком смысле. У каждого из нас есть возможность нести послание о том, что убийство не следует делегировать машинам и что каждая человеческая жизнь имеет ценность.
У автономного оружия есть этические, моральные, технические, юридические проблемы и проблемы с безопасностью. Машины лишены присущих человеку характеристик, таких как сострадание, которые необходимы для принятия сложных этических решений. Технологии несовершенны, они не нейтральны, и роботы-убийцы будут уязвимы для технических сбоев, таких как взлом. Кто будет нести ответственность в случае ошибки или противоправного действия? Программист, производитель, военачальник или сама машина? Пробел в подотчетности затруднит обеспечение правосудия, особенно для потерпевших. Природа войны радикально изменится, поскольку отправка машин вместо войск устранит большинство препятствий сегодняшних конфликтов. Автономное оружие также может использоваться в других обстоятельствах, например, при пограничном контроле и охране правопорядка. Их также можно использовать для подавления протестов и поддержки режимов.
В случае использования полностью автономное оружие коренным образом изменит характер ведения войн. Они приведут к более асимметричной войне и дестабилизируют международный мир и безопасность, вызвав новую гонку вооружений. Они также переложили бы бремя конфликта на мирных жителей. Но риски, связанные с роботами-убийцами, угрожают не только людям, находящимся в конфликте. Использование этого оружия в наших обществах в более широком смысле также может иметь серьезные последствия. Подумайте о будущих протестах, пограничном контроле, полиции и наблюдении. Или даже о других типах технологий, которые мы используем. Что это скажет о нашем обществе - и какое влияние это окажет на борьбу за этические технологии - если мы позволим машинам принимать окончательные решения о жизни и смерти? На самом деле появление автономного оружия и его последствия затронут всех нас.
Некоторые люди говорят, что роботы-убийцы были бы более точными - что они были бы быстрее и эффективнее, чем солдаты, могли бы заходить в места, в которых солдатам трудно действовать, могли бы быть более точными в прицеливании, спасать жизни, уменьшая «ботинки на земля », и действовать как сдерживающий фактор. Но то же самое было сказано о наземных минах, кассетных боеприпасах и ядерном оружии - неизбирательном оружии, которое убило и ранило сотни тысяч людей, прежде чем было запрещено. Реальность такова, что роботам-убийцам не хватало бы сочувствия и человеческого суждения. Они снизят порог насилия и конфликтов и станут орудием преследований. Это пугающая перспектива, и мы должны убедиться, что она не станет широко распространенной реальностью. Точность может быть достигнута без устранения значимого человеческого контроля над применением силы. Угрозы и риски, связанные с роботами-убийцами, намного перевешивают любые потенциальные преимущества.
Во всем мире продолжает расти призыв к ограничению автономии систем вооружений посредством нового международного договора. Роботы-убийцы считаются серьезной угрозой человечеству, которая требует быстрого и решительного многостороннего ответа.
Более 185 НПО поддерживают движение за остановку роботов-убийц. Наши призывы к заключению договора разделяют технические эксперты, мировые лидеры, международные институты, парламентские органы и политические лидеры. Почти 100 государств признали важность человеческого контроля над применением силы. Сотни технологических компаний пообещали никогда не участвовать и не поддерживать разработку, производство или использование автономных систем оружия. Тысячи экспертов по искусственному интеллекту и робототехнике предостерегли от этого оружия и призвали ООН принять меры. Есть также явная общественная озабоченность. В опросах IPSOS, опубликованных в 2019 и 2020 годах, более трех из пяти человек заявили о своем несогласии с разработкой систем вооружений, которые будут отбирать и атаковать цели без вмешательства человека.
Генеральный секретарь ООН Гутерриш назвал автономное оружие «морально отвратительным и политически неприемлемым» и с 2018 года сделал несколько заявлений, призывающих государства заключить договор. Международный комитет Красного Креста заявил, что необходим новый закон, чтобы решить проблему автономии оружия, и призвал к заключению договора, сочетающего запреты и правила. Европейский парламент, докладчики Совета по правам человека, 26 лауреатов Нобелевской премии мира и даже технические магнаты, такие как Илон Маск из Tesla, Демис Хассабис из Google и Стив Возняк из Apple, поддержали призывы запретить автономное оружие.
Есть опасения, что технологические компании, особенно работающие по военным контрактам, не имеют политики, гарантирующей, что их работа не способствует развитию автономного оружия. Отчет PAX за 2019 год показал, что Microsoft и Amazon названы одними из технологических компаний с самым высоким уровнем риска, которые могут подвергнуть мир риску из-за разработки роботов-убийц. В 2018 году тысячи сотрудников опротестовали контракт Google с Пентагоном по инициативе Project Maven. Действия технического специалиста привели к тому, что Google не обновил Project Maven и не выпустил набор принципов, которыми он руководствуется в своей работе в отношении искусственного интеллекта. В соответствии с этими этическими принципами искусственного интеллекта Google обязуется не «разрабатывать и не развертывать искусственный интеллект для использования в оружии».
Технологии должны использоваться, чтобы сделать мир лучше, а технологические компании, такие как Amazon, Google, Microsoft, Facebook и другие, должны публично взять на себя обязательство не участвовать в разработке автономного оружия. Технические работники, робототехники, инженеры и исследователи знают это - вот почему тысячи из них подписали открытые письма и обещания, призывающие к новому международному праву, касающемуся автономии в оружии и обеспечению значимого человеческого контроля над применением силы.
Возможно. Во многих университетах есть исследовательские институты, занимающиеся искусственным интеллектом и машинным обучением. Если вы хотите быть уверенным, вы можете проверить, есть ли у вашего университета этическое позиционирование или четкое изложение своей позиции в отношении роботов-убийц. Или если у них есть контракты с министерствами обороны или частными компаниями, которые заключили с ними контракты на разработку конкретных технологий. Для университетов крайне важно знать, как технологии, которые они разрабатывают, могут быть использованы в будущем. Отчет PAX «Конфликтный интеллект» предупреждает об опасностях университетских исследований в области ИИ и партнерских отношений и описывает, как университеты могут помочь предотвратить разработку автономного оружия.
Если похоже, что ваш университет разрабатывает технологии, связанные с роботами-убийцами, не паникуйте! Есть способ действовать. В 2018 году Корейский передовой институт науки и технологий (KAIST) объявил о сотрудничестве с производителем оружия Hanwha Systems. Цель заключалась в том, чтобы «совместно разработать технологии искусственного интеллекта, которые будут применяться к военному оружию, и присоединиться к глобальному соревнованию по разработке автономного оружия». Объявление привело к бойкоту профессоров и студентов по всему миру, что в конечном итоге подтолкнуло университет к публичным заверениям в том, что он не будет разрабатывать роботов-убийц. Он реализовал политику, гласящую, что «ИИ ни при каких обстоятельствах не должен причинять вред людям». Надежда приходит от действий. Дополнительные идеи о том, как удержать ваш университет от разработки автономного оружия, можно найти в великолепном буклете действий для университетов PAX.
Если вы читаете это, значит, вы уже вносите свой вклад в движение. Следуйте за нами в социальных сетях и присоединяйтесь к нашей Молодежной сети. Расскажите окружающим людям - друзьям, семье, школе - о роботах-убийцах. Делитесь своими мыслями и мнениями в социальных сетях. Осведомленность - это первый шаг к изменениям, и чем шире распространяется сообщение, тем больше вероятность, что мы сможем продвигаться вперед с большей динамикой.
1
Молодежные кампании в Латинской Америке рассказывают, почему другим молодым людям должны быть небезразличны роботы-убийцы.
2
Наш венгерский координатор молодежных активистов Илес Катона объясняет, почему молодежь должна принять меры, чтобы остановить роботов-убийц в Международный день молодежи 2020 года.
3
Марта Космина о том, как великие изобретения могут иметь непредвиденные последствия. Так как же защитить наших роботов от перехода на темную сторону? Будучи студентами, вы являетесь теми, кто меняет ситуацию сегодня, и лидерами завтрашнего дня. Давайте поговорим о роли робототехники в правоохранительной деятельности и войне и о том, как создавать роботов, которыми мы можем гордиться.
Следите за последними достижениями в движении по борьбе с роботами-убийцами.
Присоединяйтесь к нам