изображение главного меню

Молодежь и роботы-убийцы

Когда молодые люди объединяются, мы можем заставить мир слушать.

Роботы-убийцы могут показаться научной фантастикой, но, к сожалению, они - следующий большой шаг в цифровой дегуманизации; в укреплении предубеждений и неравенства предыдущих поколений. Но их можно предотвратить.

Если мы не будем действовать, будущим поколениям придется жить с последствиями решений, которые принимаются прямо сейчас - развитием новых технологий с алгоритмической предвзятостью, изменением климата, несправедливыми конфликтами, социальным и политическим неравенством и беспорядками ... Мир, в котором мы живем, может быть сложным, но часто у нас больше возможностей влиять на события, чем мы думаем.

 

Альтернативный текст изображения

Есть много глобальных и социальных проблем, с которыми нам придется столкнуться в нашей жизни.

Политическим лидерам не следует инвестировать в автономное оружие сейчас, когда молодым людям придется столкнуться с реальностью и последствиями своих решений в будущем. Как и в случае с изменением климата, остановив разработку роботов-убийц, у нас есть возможность дать новую надежду; быть агентами перемен с властью и влиянием.

Мы выросли в эпоху цифровых технологий и за нами будущее. Кодеры, программисты, инженеры, солдаты, дипломаты, политики, активисты, организаторы и творческие люди, которым придется иметь дело с реальностями роботов-убийц.

У нас есть возможность формировать будущее технологий, промышленности и политики. Инвестировать в наши сообщества и человечество в более широком смысле. У каждого из нас есть возможность нести послание о том, что убийство не следует делегировать машинам и что каждая человеческая жизнь имеет ценность.


 

ОТВЕТЫ НА ВОПРОСЫ

У автономного оружия есть этические, моральные, технические, юридические проблемы и проблемы с безопасностью. Машины лишены присущих человеку характеристик, таких как сострадание, которые необходимы для принятия сложных этических решений. Технологии несовершенны, они не нейтральны, и роботы-убийцы будут уязвимы для технических сбоев, таких как взлом. Кто будет нести ответственность в случае ошибки или противоправного действия? Программист, производитель, военачальник или сама машина? Пробел в подотчетности затруднит обеспечение правосудия, особенно для потерпевших. Природа войны радикально изменится, поскольку отправка машин вместо войск устранит большинство препятствий сегодняшних конфликтов. Автономное оружие также может использоваться в других обстоятельствах, например, при пограничном контроле и охране правопорядка. Их также можно использовать для подавления протестов и поддержки режимов.

В случае использования полностью автономное оружие коренным образом изменит характер ведения войн. Они приведут к более асимметричной войне и дестабилизируют международный мир и безопасность, вызвав новую гонку вооружений. Они также переложили бы бремя конфликта на мирных жителей. Но риски, связанные с роботами-убийцами, угрожают не только людям, находящимся в конфликте. Использование этого оружия в наших обществах в более широком смысле также может иметь серьезные последствия. Подумайте о будущих протестах, пограничном контроле, полиции и наблюдении. Или даже о других типах технологий, которые мы используем. Что это скажет о нашем обществе - и какое влияние это окажет на борьбу за этические технологии - если мы позволим машинам принимать окончательные решения о жизни и смерти? На самом деле появление автономного оружия и его последствия затронут всех нас.

Некоторые люди говорят, что роботы-убийцы были бы более точными - что они были бы быстрее и эффективнее, чем солдаты, могли бы заходить в места, в которых солдатам трудно действовать, могли бы быть более точными в прицеливании, спасать жизни, уменьшая «ботинки на земля », и действовать как сдерживающий фактор. Но то же самое было сказано о наземных минах, кассетных боеприпасах и ядерном оружии - неизбирательном оружии, которое убило и ранило сотни тысяч людей, прежде чем было запрещено. Реальность такова, что роботам-убийцам не хватало бы сочувствия и человеческого суждения. Они снизят порог насилия и конфликтов и станут орудием преследований. Это пугающая перспектива, и мы должны убедиться, что она не станет широко распространенной реальностью. Точность может быть достигнута без устранения значимого человеческого контроля над применением силы. Угрозы и риски, связанные с роботами-убийцами, намного перевешивают любые потенциальные преимущества.

Во всем мире продолжает расти призыв к ограничению автономии систем вооружений посредством нового международного договора. Роботы-убийцы считаются серьезной угрозой человечеству, которая требует быстрого и решительного многостороннего ответа.

Более 185 НПО поддерживают движение за остановку роботов-убийц. Наши призывы к заключению договора разделяют технические эксперты, мировые лидеры, международные институты, парламентские органы и политические лидеры. Почти 100 государств признали важность человеческого контроля над применением силы. Сотни технологических компаний пообещали никогда не участвовать и не поддерживать разработку, производство или использование автономных систем оружия. Тысячи экспертов по искусственному интеллекту и робототехнике предостерегли от этого оружия и призвали ООН принять меры. Есть также явная общественная озабоченность. В опросах IPSOS, опубликованных в 2019 и 2020 годах, более трех из пяти человек заявили о своем несогласии с разработкой систем вооружений, которые будут отбирать и атаковать цели без вмешательства человека.

Генеральный секретарь ООН Гутерриш назвал автономное оружие «морально отвратительным и политически неприемлемым» и с 2018 года сделал несколько заявлений, призывающих государства заключить договор. Международный комитет Красного Креста заявил, что необходим новый закон, чтобы решить проблему автономии оружия, и призвал к заключению договора, сочетающего запреты и правила. Европейский парламент, докладчики Совета по правам человека, 26 лауреатов Нобелевской премии мира и даже технические магнаты, такие как Илон Маск из Tesla, Демис Хассабис из Google и Стив Возняк из Apple, поддержали призывы запретить автономное оружие.

Есть опасения, что технологические компании, особенно работающие по военным контрактам, не имеют политики, гарантирующей, что их работа не способствует развитию автономного оружия. Отчет PAX за 2019 год показал, что Microsoft и Amazon названы одними из технологических компаний с самым высоким уровнем риска, которые могут подвергнуть мир риску из-за разработки роботов-убийц. В 2018 году тысячи сотрудников опротестовали контракт Google с Пентагоном по инициативе Project Maven. Действия технического специалиста привели к тому, что Google не обновил Project Maven и не выпустил набор принципов, которыми он руководствуется в своей работе в отношении искусственного интеллекта. В соответствии с этими этическими принципами искусственного интеллекта Google обязуется не «разрабатывать и не развертывать искусственный интеллект для использования в оружии».

Технологии должны использоваться, чтобы сделать мир лучше, а технологические компании, такие как Amazon, Google, Microsoft, Facebook и другие, должны публично взять на себя обязательство не участвовать в разработке автономного оружия. Технические работники, робототехники, инженеры и исследователи знают это - вот почему тысячи из них подписали открытые письма и обещания, призывающие к новому международному праву, касающемуся автономии в оружии и обеспечению значимого человеческого контроля над применением силы.

Возможно. Во многих университетах есть исследовательские институты, занимающиеся искусственным интеллектом и машинным обучением. Если вы хотите быть уверенным, вы можете проверить, есть ли у вашего университета этическое позиционирование или четкое изложение своей позиции в отношении роботов-убийц. Или если у них есть контракты с министерствами обороны или частными компаниями, которые заключили с ними контракты на разработку конкретных технологий. Для университетов крайне важно знать, как технологии, которые они разрабатывают, могут быть использованы в будущем. Отчет PAX «Конфликтный интеллект» предупреждает об опасностях университетских исследований в области ИИ и партнерских отношений и описывает, как университеты могут помочь предотвратить разработку автономного оружия.

Если похоже, что ваш университет разрабатывает технологии, связанные с роботами-убийцами, не паникуйте! Есть способ действовать. В 2018 году Корейский передовой институт науки и технологий (KAIST) объявил о сотрудничестве с производителем оружия Hanwha Systems. Цель заключалась в том, чтобы «совместно разработать технологии искусственного интеллекта, которые будут применяться к военному оружию, и присоединиться к глобальному соревнованию по разработке автономного оружия». Объявление привело к бойкоту профессоров и студентов по всему миру, что в конечном итоге подтолкнуло университет к публичным заверениям в том, что он не будет разрабатывать роботов-убийц. Он реализовал политику, гласящую, что «ИИ ни при каких обстоятельствах не должен причинять вред людям». Надежда приходит от действий. Дополнительные идеи о том, как удержать ваш университет от разработки автономного оружия, можно найти в великолепном буклете действий для университетов PAX.

Если вы читаете это, значит, вы уже вносите свой вклад в движение. Следуйте за нами в социальных сетях и присоединяйтесь к нашей Молодежной сети. Расскажите окружающим людям - друзьям, семье, школе - о роботах-убийцах. Делитесь своими мыслями и мнениями в социальных сетях. Осведомленность - это первый шаг к изменениям, и чем шире распространяется сообщение, тем больше вероятность, что мы сможем продвигаться вперед с большей динамикой.

Альтернативный текст изображения

Молодежная сеть

Молодежь имеет право и обязанность участвовать в принятии решений, которые на нее влияют. Молодежная сеть - это место, где молодые лидеры могут поделиться своими навыками и силами с движением, чтобы остановить роботов-убийц. Сеть объединяет молодых людей со всего мира, способствует сообществу и сотрудничеству, а также предоставляет доступные ресурсы и возможности для всей молодежи, чтобы обеспечить будущее без автоматических убийств.

Молодежная сеть
Альтернативный текст изображения

Университеты и роботы-убийцы

Университеты играют большую роль в формировании общества. Они часто стимулируют инновации и играют ключевую роль в обучении следующего поколения лидеров. Многие важные изобретения, используемые в повседневной жизни, от ремней безопасности до сенсорных экранов, являются результатом университетских исследований - университетские исследования могут иметь множество положительных результатов и приложений.

Однако не все инновации, исходящие от университетов, приносят пользу. Во многих странах оборонная промышленность спонсирует исследовательские центры университетов. Студенты и профессора могут работать над проектом, который будет использоваться для развития автономного оружия. Вот почему университеты должны публиковать четкую политику, разъясняющую, где они проводят грань между тем, какие технологии они будут и не будут развивать.

Проинформируйте себя, повысьте осведомленность и примите меры.

Спасите свой Uni от роботов-убийц
Проиграть видео Альтернативный текст изображения

Разведчики и роботы-убийцы

Летом 2019 года более 40,000 169 скаутов из 24 стран посетили 10-й Всемирный скаутский Джамбори в скаутском заповеднике Summit Bechtel в Западной Вирджинии, США. Более XNUMX дней скауты были собраны из самых отдаленных уголков земного шара, чтобы способствовать миру, взаимопониманию, лидерству и жизненным навыкам. Наша команда поговорила с тысячами скаутов, которые рассказали нам, почему они хотят #KeepCtrl над применением силы.

В 2020 году Всемирная организация скаутского движения - Межамериканский регион и Кампания по остановке роботов-убийц сформировали партнерство, чтобы укрепить возможности детей, подростков и взрослых добровольцев-скаутов по достижению целей в области устойчивого развития, в частности № 16 «Мир, справедливость». и солидные институты », чтобы смягчить воздействие и угрозы роботов-убийц для безопасности и мира гражданского населения. Совместное усилие направлено на продвижение способности получать и улучшать свои знания о роботах-убийцах и глобальных преимуществах их запрета в поддержку глобального мира.

Скауты, добро пожаловать в #TeamHuman
Альтернативный текст изображения

Ипрская премия мира

Каждые три года, начиная с 2002 года, школьники по всему бельгийскому городу Ипр вручают Международную премию мира организации, человеку или инициативе, которые недавно внесли свой вклад в дело мира. Приз за 2020 год был присужден Кампании по борьбе с роботами-убийцами, и девяносто процентов голосовавших за Премию мира Ипра были в возрасте 18 лет или моложе.

Это говорит нам о том, что интерес к роботам-убийцам и будущему, который мы пытаемся обеспечить, растет во всем мире, особенно среди молодежи.

Подробнее о Премии мира Ипра

2

Международный день молодежи 2020

Наш венгерский координатор молодежных активистов Илес Катона объясняет, почему молодежь должна принять меры, чтобы остановить роботов-убийц в Международный день молодежи 2020 года.

3

Хорошие роботы испортились

Марта Космина о том, как великие изобретения могут иметь непредвиденные последствия. Так как же защитить наших роботов от перехода на темную сторону? Будучи студентами, вы являетесь теми, кто меняет ситуацию сегодня, и лидерами завтрашнего дня. Давайте поговорим о роли робототехники в правоохранительной деятельности и войне и о том, как создавать роботов, которыми мы можем гордиться.

Альтернативный текст изображения
Значок точек SKR

Остановите роботов-убийц

Присоединяйтесь к нам

Следите за последними достижениями в движении по борьбе с роботами-убийцами.

Присоединяйтесь к нам