1
Встречайте наших молодежных активистов в Латинской Америке!
Молодежные кампании в Латинской Америке рассказывают, почему другим молодым людям должны быть небезразличны роботы-убийцы.
Когда молодые люди объединяются, мы можем заставить мир слушать.
Роботы-убийцы могут показаться научной фантастикой, но, к сожалению, они представляют собой следующий большой шаг в цифровой дегуманизации; в цементировании предубеждений и неравенства предыдущих поколений. Роботы-убийцы меняют отношения между людьми и технологиями, передавая принятие решений о жизни и смерти машинам. Они бросают вызов человеческому контролю над применением силы, и там, где они нацелены на людей, они дегуманизируют нас, сводя нас к точкам данных.
Если мы не будем действовать, будущим поколениям придется жить с последствиями решений, которые принимаются прямо сейчас – разработка новых технологий с уклоном на алгоритмы, изменение климата, несправедливые конфликты, социальное и политическое неравенство и беспорядки… Мир, в котором мы живем, может быть сложным, но у нас больше возможностей влиять на события, чем мы думаем.
Есть много глобальных и социальных проблем, с которыми нам придется столкнуться в нашей жизни.
В будущем молодым людям придется столкнуться с реальностью и последствиями решений, которые принимаются сегодня. Молодежь во всем мире работает над переменами и новыми надеждами; как агенты перемен, обладающие властью и влиянием.
Мы выросли в эпоху цифровых технологий и за нами будущее. Кодеры, программисты, инженеры, солдаты, дипломаты, политики, активисты, организаторы и творческие люди, которым придется иметь дело с реальностями роботов-убийц.
У нас есть возможность формировать будущее технологий, промышленности и политики. Инвестировать в наши сообщества и человечество в более широком смысле. У каждого из нас есть возможность нести послание о том, что убийство не следует делегировать машинам и что каждая человеческая жизнь имеет ценность.
Автономное оружие связано с этическими, моральными, техническими, юридическими проблемами и проблемами безопасности. Будь то на поле боя или на протесте, машины не могут сделать сложный этический выбор — они не могут понять ценность человеческой жизни. В случае ошибки или противоправного действия, кто будет нести ответственность? Программист, производитель, военачальник или сама машина? Этот пробел в подотчетности затруднит обеспечение справедливости, особенно в отношении потерпевших. Другие проблемы с роботами-убийцами включают увеличение цифровая дегуманизация, алгоритмические предубеждения, потеря значимого человеческого контроля, снижение порога войны, потенциальная дестабилизирующая гонка вооружений и фундаментальный сдвиг в наших отношениях с технологиями.
В случае использования автономное оружие коренным образом изменит характер ведения войн. Они приведут к более асимметричной войне и дестабилизируют международный мир и безопасность, спровоцировав новую гонку вооружений. Они также переложат бремя конфликта на гражданское население. Но риски роботов-убийц угрожают не только людям в конфликте. Более широкое использование этого оружия в наших обществах также может иметь серьезные последствия. Подумайте о будущих протестах, пограничном контроле, полиции и слежке или даже о других типах технологий, которые мы используем. Что это скажет о нашем обществе и какое влияние это окажет на борьбу за этические технологии, если мы позволим машинам принимать окончательные решения о жизни и смерти? Появление и последствия автономного оружия затрагивают всех нас.
Некоторые люди говорят, что роботы-убийцы были бы более точными — они были бы быстрее и эффективнее, чем люди-солдаты, могли бы проникать в места, в которых солдатам трудно действовать, могли бы быть более точными в прицеливании, спасать жизни, уменьшая «сапоги на ботинках». земли» и действовать как сдерживающий фактор. Но то же самое говорили и о противопехотных минах, кассетных боеприпасах и ядерном оружии — неизбирательном оружии, которое убило и ранило сотни тысяч людей, прежде чем было запрещено. Технологии, которые изменяют свое поведение или самостоятельно адаптируют собственное программирование, не могут использоваться с реальным контролем. Другие технологии могут представлять собой «черный ящик», из которого невозможно узнать, почему и как принимаются решения. Согласно закону, военные командиры должны иметь возможность оценить необходимость и соразмерность нападения и провести различие между гражданскими лицами и законными военными целями. Это означает не только понимание системы оружия, но и понимание контекста, в котором она может использоваться. Машины не понимают контекста или последствий: понимание — это человеческая способность, а без этого понимания мы теряем моральную ответственность и подрываем существующие правовые нормы. Угрозы и риски роботов-убийц намного перевешивают любые потенциальные преимущества.
Во всем мире продолжает расти призыв к ограничению автономии систем вооружений посредством нового международного договора. Роботы-убийцы считаются серьезной угрозой человечеству, которая требует быстрого и решительного многостороннего ответа.
Более 250 НПО поддерживают движение за прекращение роботов-убийц. Наши призывы к договору разделяют технические эксперты, мировые лидеры, международные институты, парламентские органы и политические лидеры. Более 110 государств сейчас призывают к новым правовым нормам и ограничениям для автономных систем оружия. Сотни технологических компаний пообещали никогда не участвовать и не поддерживать разработку, производство или использование автономных систем оружия. Тысячи экспертов по искусственному интеллекту и робототехнике предостерегают от этого оружия и призывают Организацию Объединенных Наций принять меры. Также существует очевидная обеспокоенность общественности. В опросах IPSOS, опубликованных в 2019 и 2020 годах, более трех из каждых пяти человек заявили о своем несогласии с разработкой систем оружия, которые будут выбирать и атаковать цели без вмешательства человека.
Генеральный секретарь ООН Гутерриш назвал автономное оружие «морально отвратительным и политически неприемлемым» и с 2018 года неоднократно делал заявления, призывая государства к заключению договора. А Международный комитет Красного Креста заявил, что необходим новый закон, касающийся автономии в отношении оружия, и призвал к заключению договора, сочетающего запреты и правила. Европейский парламент, докладчики Совета по правам человека и 26 лауреатов Нобелевской премии мира поддержали призывы запретить и регулировать автономное оружие.
Есть опасения, что технологические компании, особенно работающие по военным контрактам, не имеют политики, гарантирующей, что их работа не способствует развитию автономного оружия. Отчет PAX за 2019 год показал, что Microsoft и Amazon названы одними из технологических компаний с самым высоким уровнем риска, которые могут подвергнуть мир риску из-за разработки роботов-убийц. В 2018 году тысячи сотрудников опротестовали контракт Google с Пентагоном по инициативе Project Maven. Действия технического специалиста привели к тому, что Google не обновил Project Maven и не выпустил набор принципов, которыми он руководствуется в своей работе в отношении искусственного интеллекта. В соответствии с этими этическими принципами искусственного интеллекта Google обязуется не «разрабатывать и не развертывать искусственный интеллект для использования в оружии».
Технологии должны использоваться, чтобы сделать мир лучше, а технологические компании, такие как Amazon, Google, Microsoft, Facebook и другие, должны публично взять на себя обязательство не участвовать в разработке автономного оружия. Технические работники, робототехники, инженеры и исследователи знают это - вот почему тысячи из них подписали открытые письма и обещания, призывающие к новому международному праву, касающемуся автономии в оружии и обеспечению значимого человеческого контроля над применением силы.
Возможно. Во многих университетах есть исследовательские институты, занимающиеся искусственным интеллектом и машинным обучением. Если вы хотите быть уверенным, вы можете проверить, есть ли у вашего университета этическое позиционирование или четкое изложение своей позиции в отношении роботов-убийц. Или если у них есть контракты с министерствами обороны или частными компаниями, которые заключили с ними контракты на разработку конкретных технологий. Для университетов крайне важно знать, как технологии, которые они разрабатывают, могут быть использованы в будущем. Отчет PAX «Конфликтный интеллект» предупреждает об опасностях университетских исследований в области ИИ и партнерских отношений и описывает, как университеты могут помочь предотвратить разработку автономного оружия.
Если похоже, что ваш университет разрабатывает технологии, связанные с роботами-убийцами, не паникуйте! Есть способ действовать. В 2018 году Корейский передовой институт науки и технологий (KAIST) объявил о сотрудничестве с производителем оружия Hanwha Systems. Цель заключалась в том, чтобы «совместно разработать технологии искусственного интеллекта, которые будут применяться к военному оружию, и присоединиться к глобальному соревнованию по разработке автономного оружия». Объявление привело к бойкоту профессоров и студентов по всему миру, что в конечном итоге подтолкнуло университет к публичным заверениям в том, что он не будет разрабатывать роботов-убийц. Он реализовал политику, гласящую, что «ИИ ни при каких обстоятельствах не должен причинять вред людям». Надежда приходит от действий. Дополнительные идеи о том, как удержать ваш университет от разработки автономного оружия, можно найти в великолепном буклете действий для университетов PAX.
Если вы читаете это, значит, вы уже вносите свой вклад в движение. Следите за нами в социальных сетях. Присоединяйтесь к нашей молодежной сети. Расскажите окружающим вас людям — вашим друзьям, семье, школе — о роботах-убийцах. Поделитесь своими мыслями и мнениями в социальных сетях. Осведомленность — это первый шаг к переменам, и чем больше будет распространяться сообщение, тем больше вероятность того, что мы сможем двигаться вперед с большим импульсом.
1
Молодежные кампании в Латинской Америке рассказывают, почему другим молодым людям должны быть небезразличны роботы-убийцы.
2
Наш венгерский координатор молодежных активистов Илес Катона объясняет, почему молодежь должна принять меры, чтобы остановить роботов-убийц в Международный день молодежи 2020 года.
3
Марта Космина о том, как великие изобретения могут иметь непредвиденные последствия. Так как же защитить наших роботов от перехода на темную сторону? Будучи студентами, вы являетесь теми, кто меняет ситуацию сегодня, и лидерами завтрашнего дня. Давайте поговорим о роли робототехники в правоохранительной деятельности и войне и о том, как создавать роботов, которыми мы можем гордиться.
Следите за последними достижениями в движении по борьбе с роботами-убийцами.
Присоединяйтесь к нам