изображение главного меню

Молодежь и роботы-убийцы

Когда молодые люди объединяются, мы можем заставить мир слушать.

Роботы-убийцы могут показаться научной фантастикой, но, к сожалению, они представляют собой следующий большой шаг в цифровой дегуманизации; в цементировании предубеждений и неравенства предыдущих поколений. Роботы-убийцы меняют отношения между людьми и технологиями, передавая принятие решений о жизни и смерти машинам. Они бросают вызов человеческому контролю над применением силы, и там, где они нацелены на людей, они дегуманизируют нас, сводя нас к точкам данных.

Если мы не будем действовать, будущим поколениям придется жить с последствиями решений, которые принимаются прямо сейчас – разработка новых технологий с уклоном на алгоритмы, изменение климата, несправедливые конфликты, социальное и политическое неравенство и беспорядки… Мир, в котором мы живем, может быть сложным, но у нас больше возможностей влиять на события, чем мы думаем.

 

Альтернативный текст изображения

Есть много глобальных и социальных проблем, с которыми нам придется столкнуться в нашей жизни.

В будущем молодым людям придется столкнуться с реальностью и последствиями решений, которые принимаются сегодня. Молодежь во всем мире работает над переменами и новыми надеждами; как агенты перемен, обладающие властью и влиянием.

Мы выросли в эпоху цифровых технологий и за нами будущее. Кодеры, программисты, инженеры, солдаты, дипломаты, политики, активисты, организаторы и творческие люди, которым придется иметь дело с реальностями роботов-убийц.

У нас есть возможность формировать будущее технологий, промышленности и политики. Инвестировать в наши сообщества и человечество в более широком смысле. У каждого из нас есть возможность нести послание о том, что убийство не следует делегировать машинам и что каждая человеческая жизнь имеет ценность.


 

ОТВЕТЫ НА ВОПРОСЫ

Автономное оружие связано с этическими, моральными, техническими, юридическими проблемами и проблемами безопасности. Будь то на поле боя или на протесте, машины не могут сделать сложный этический выбор — они не могут понять ценность человеческой жизни. В случае ошибки или противоправного действия, кто будет нести ответственность? Программист, производитель, военачальник или сама машина? Этот пробел в подотчетности затруднит обеспечение справедливости, особенно в отношении потерпевших. Другие проблемы с роботами-убийцами включают увеличение цифровая дегуманизация, алгоритмические предубеждения, потеря значимого человеческого контроля, снижение порога войны, потенциальная дестабилизирующая гонка вооружений и фундаментальный сдвиг в наших отношениях с технологиями.

В случае использования автономное оружие коренным образом изменит характер ведения войн. Они приведут к более асимметричной войне и дестабилизируют международный мир и безопасность, спровоцировав новую гонку вооружений. Они также переложат бремя конфликта на гражданское население. Но риски роботов-убийц угрожают не только людям в конфликте. Более широкое использование этого оружия в наших обществах также может иметь серьезные последствия. Подумайте о будущих протестах, пограничном контроле, полиции и слежке или даже о других типах технологий, которые мы используем. Что это скажет о нашем обществе и какое влияние это окажет на борьбу за этические технологии, если мы позволим машинам принимать окончательные решения о жизни и смерти? Появление и последствия автономного оружия затрагивают всех нас.

Некоторые люди говорят, что роботы-убийцы были бы более точными — они были бы быстрее и эффективнее, чем люди-солдаты, могли бы проникать в места, в которых солдатам трудно действовать, могли бы быть более точными в прицеливании, спасать жизни, уменьшая «сапоги на ботинках». земли» и действовать как сдерживающий фактор. Но то же самое говорили и о противопехотных минах, кассетных боеприпасах и ядерном оружии — неизбирательном оружии, которое убило и ранило сотни тысяч людей, прежде чем было запрещено. Технологии, которые изменяют свое поведение или самостоятельно адаптируют собственное программирование, не могут использоваться с реальным контролем. Другие технологии могут представлять собой «черный ящик», из которого невозможно узнать, почему и как принимаются решения. Согласно закону, военные командиры должны иметь возможность оценить необходимость и соразмерность нападения и провести различие между гражданскими лицами и законными военными целями. Это означает не только понимание системы оружия, но и понимание контекста, в котором она может использоваться. Машины не понимают контекста или последствий: понимание — это человеческая способность, а без этого понимания мы теряем моральную ответственность и подрываем существующие правовые нормы. Угрозы и риски роботов-убийц намного перевешивают любые потенциальные преимущества.

Во всем мире продолжает расти призыв к ограничению автономии систем вооружений посредством нового международного договора. Роботы-убийцы считаются серьезной угрозой человечеству, которая требует быстрого и решительного многостороннего ответа.

Более 250 НПО поддерживают движение за прекращение роботов-убийц. Наши призывы к договору разделяют технические эксперты, мировые лидеры, международные институты, парламентские органы и политические лидеры. Более 110 государств сейчас призывают к новым правовым нормам и ограничениям для автономных систем оружия. Сотни технологических компаний пообещали никогда не участвовать и не поддерживать разработку, производство или использование автономных систем оружия. Тысячи экспертов по искусственному интеллекту и робототехнике предостерегают от этого оружия и призывают Организацию Объединенных Наций принять меры. Также существует очевидная обеспокоенность общественности. В опросах IPSOS, опубликованных в 2019 и 2020 годах, более трех из каждых пяти человек заявили о своем несогласии с разработкой систем оружия, которые будут выбирать и атаковать цели без вмешательства человека.

Генеральный секретарь ООН Гутерриш назвал автономное оружие «морально отвратительным и политически неприемлемым» и с 2018 года неоднократно делал заявления, призывая государства к заключению договора. А Международный комитет Красного Креста заявил, что необходим новый закон, касающийся автономии в отношении оружия, и призвал к заключению договора, сочетающего запреты и правила. Европейский парламент, докладчики Совета по правам человека и 26 лауреатов Нобелевской премии мира поддержали призывы запретить и регулировать автономное оружие.

Есть опасения, что технологические компании, особенно работающие по военным контрактам, не имеют политики, гарантирующей, что их работа не способствует развитию автономного оружия. Отчет PAX за 2019 год показал, что Microsoft и Amazon названы одними из технологических компаний с самым высоким уровнем риска, которые могут подвергнуть мир риску из-за разработки роботов-убийц. В 2018 году тысячи сотрудников опротестовали контракт Google с Пентагоном по инициативе Project Maven. Действия технического специалиста привели к тому, что Google не обновил Project Maven и не выпустил набор принципов, которыми он руководствуется в своей работе в отношении искусственного интеллекта. В соответствии с этими этическими принципами искусственного интеллекта Google обязуется не «разрабатывать и не развертывать искусственный интеллект для использования в оружии».

Технологии должны использоваться, чтобы сделать мир лучше, а технологические компании, такие как Amazon, Google, Microsoft, Facebook и другие, должны публично взять на себя обязательство не участвовать в разработке автономного оружия. Технические работники, робототехники, инженеры и исследователи знают это - вот почему тысячи из них подписали открытые письма и обещания, призывающие к новому международному праву, касающемуся автономии в оружии и обеспечению значимого человеческого контроля над применением силы.

Возможно. Во многих университетах есть исследовательские институты, занимающиеся искусственным интеллектом и машинным обучением. Если вы хотите быть уверенным, вы можете проверить, есть ли у вашего университета этическое позиционирование или четкое изложение своей позиции в отношении роботов-убийц. Или если у них есть контракты с министерствами обороны или частными компаниями, которые заключили с ними контракты на разработку конкретных технологий. Для университетов крайне важно знать, как технологии, которые они разрабатывают, могут быть использованы в будущем. Отчет PAX «Конфликтный интеллект» предупреждает об опасностях университетских исследований в области ИИ и партнерских отношений и описывает, как университеты могут помочь предотвратить разработку автономного оружия.

Если похоже, что ваш университет разрабатывает технологии, связанные с роботами-убийцами, не паникуйте! Есть способ действовать. В 2018 году Корейский передовой институт науки и технологий (KAIST) объявил о сотрудничестве с производителем оружия Hanwha Systems. Цель заключалась в том, чтобы «совместно разработать технологии искусственного интеллекта, которые будут применяться к военному оружию, и присоединиться к глобальному соревнованию по разработке автономного оружия». Объявление привело к бойкоту профессоров и студентов по всему миру, что в конечном итоге подтолкнуло университет к публичным заверениям в том, что он не будет разрабатывать роботов-убийц. Он реализовал политику, гласящую, что «ИИ ни при каких обстоятельствах не должен причинять вред людям». Надежда приходит от действий. Дополнительные идеи о том, как удержать ваш университет от разработки автономного оружия, можно найти в великолепном буклете действий для университетов PAX.

Если вы читаете это, значит, вы уже вносите свой вклад в движение. Следите за нами в социальных сетях. Присоединяйтесь к нашей молодежной сети. Расскажите окружающим вас людям — вашим друзьям, семье, школе — о роботах-убийцах. Поделитесь своими мыслями и мнениями в социальных сетях. Осведомленность — это первый шаг к переменам, и чем больше будет распространяться сообщение, тем больше вероятность того, что мы сможем двигаться вперед с большим импульсом.

Альтернативный текст изображения

Молодежная сеть

Молодежь имеет право и обязанность участвовать в принятии решений, которые на нее влияют. Молодежная сеть - это место, где молодые лидеры могут поделиться своими навыками и силами с движением, чтобы остановить роботов-убийц. Сеть объединяет молодых людей со всего мира, способствует сообществу и сотрудничеству, а также предоставляет доступные ресурсы и возможности для всей молодежи, чтобы обеспечить будущее без автоматических убийств.
Присоединяйтесь к молодежной сети
Альтернативный текст изображения

Университеты и роботы-убийцы

Университеты играют большую роль в формировании общества. Они часто стимулируют инновации и играют ключевую роль в обучении следующего поколения лидеров. Многие важные изобретения, используемые в повседневной жизни, от ремней безопасности до сенсорных экранов, являются результатом университетских исследований - университетские исследования могут иметь множество положительных результатов и приложений.

Однако не все инновации, исходящие от университетов, приносят пользу. Во многих странах оборонная промышленность спонсирует исследовательские центры университетов. Студенты и профессора могут работать над проектом, который будет использоваться для развития автономного оружия. Вот почему университеты должны публиковать четкую политику, разъясняющую, где они проводят грань между тем, какие технологии они будут и не будут развивать.

Проинформируйте себя, повысьте осведомленность и примите меры.
Спасите свой Uni от роботов-убийц
Проиграть видео Альтернативный текст изображения

Разведчики и роботы-убийцы

Летом 2019 года более 40,000 169 скаутов из 24 стран посетили 10-й Всемирный скаутский Джамбори в скаутском заповеднике Summit Bechtel в Западной Вирджинии, США. Более XNUMX дней скауты были собраны из самых отдаленных уголков земного шара, чтобы способствовать миру, взаимопониманию, лидерству и жизненным навыкам. Наша команда поговорила с тысячами скаутов, которые рассказали нам, почему они хотят #KeepCtrl над применением силы.

В 2020 году Всемирная организация скаутского движения - Межамериканский регион и Кампания по остановке роботов-убийц сформировали партнерство, чтобы укрепить возможности детей, подростков и взрослых добровольцев-скаутов по достижению целей в области устойчивого развития, в частности № 16 «Мир, справедливость». и солидные институты », чтобы смягчить воздействие и угрозы роботов-убийц для безопасности и мира гражданского населения. Совместное усилие направлено на продвижение способности получать и улучшать свои знания о роботах-убийцах и глобальных преимуществах их запрета в поддержку глобального мира.
Скауты, добро пожаловать в #TeamHuman
Альтернативный текст изображения

Ипрская премия мира

Каждые три года, начиная с 2002 года, школьники по всему бельгийскому городу Ипр вручают Международную премию мира организации, человеку или инициативе, которые недавно внесли свой вклад в дело мира. Приз за 2020 год был присужден Кампании по борьбе с роботами-убийцами, и девяносто процентов голосовавших за Премию мира Ипра были в возрасте 18 лет или моложе.

Это говорит нам о том, что интерес к роботам-убийцам и будущему, который мы пытаемся обеспечить, растет во всем мире, особенно среди молодежи.

Подробнее о Премии мира Ипра

2

Международный день молодежи 2020

Наш венгерский координатор молодежных активистов Илес Катона объясняет, почему молодежь должна принять меры, чтобы остановить роботов-убийц в Международный день молодежи 2020 года.

3

Хорошие роботы испортились

Марта Космина о том, как великие изобретения могут иметь непредвиденные последствия. Так как же защитить наших роботов от перехода на темную сторону? Будучи студентами, вы являетесь теми, кто меняет ситуацию сегодня, и лидерами завтрашнего дня. Давайте поговорим о роли робототехники в правоохранительной деятельности и войне и о том, как создавать роботов, которыми мы можем гордиться.

Альтернативный текст изображения
Значок точек SKR

Остановите роботов-убийц

Присоединяйтесь к нам

Следите за последними достижениями в движении по борьбе с роботами-убийцами.

Присоединяйтесь к нам