изображение главного меню

Технические работники и роботы-убийцы

Мы не ожидали, что в мире понадобится кампания «Остановить роботов-убийц», но это так.

Забудьте то, что вы видели в фильмах - быстрые достижения в области компьютерного зрения, машинного обучения, вычислительной мощности, робототехники и искусственного интеллекта с нетерпением ждут военные по всему миру для автоматизации принятия решений об убийствах. Неотъемлемое двойное использование большинства этих технологий и крупные инвестиции в эту область требуют нового международного права для решения проблемы автономии систем вооружений и обеспечения реального контроля со стороны человека при применении силы.

Stop Killer Robots активно ищет технологов и компании в качестве союзников для достижения нашей общей цели нового договора о регулировании автономии в системах вооружений. Частный сектор будет играть ключевую роль в предотвращении разработки этого оружия.

 

 

Альтернативный текст изображения

С 2015 года тысячи экспертов по искусственному интеллекту, робототехников, ученых и других специалистов подписали различные открытые письма, призывающие к соглашению об автономном оружии.

Технические специалисты глобальных компаний, таких как Google, Microsoft и Amazon, отказываются от своих исследований, продуктов и платформ, адаптированных для использования в войне. Робототехнические компании, такие как Clearpath Robotics, активно работают над запретом роботов-убийц.

Илон Маск из Tesla, Демис Хассабис из Google и Стив Возняк из Apple поддержали запрет на автономное оружие. Другие сравнивали разработки в области ИИ с ядерным оружием, но до сих пор призывали только к слабому регулированию, которое не решало бы правовых и этических последствий автономии в оружии.

ОТВЕТЫ НА ВОПРОСЫ

Договор об автономии систем оружия не будет сдерживать инновации, а скорее поможет обеспечить беспрепятственное продолжение исследований и разработок искусственного интеллекта. Биологи не обнаружили, что Конвенция о запрещении биологического оружия нанесла ущерб их исследованиям и разработкам, а химики не жалуются, что Конвенция о запрещении химического оружия отрицательно повлияла на их работу.

Фактически, если технологии для создания автономного оружия будет разрешено разрабатывать без регулирования, многие эксперты по искусственному интеллекту, робототехники и технологи опасаются, что положительные применения искусственного интеллекта пострадают. Любые сбои, ошибки или военные преступления, совершенные автономными системами оружия, получат негативную огласку, что приведет к отрицательному отношению общественности к тенденции развития искусственного интеллекта и других новых технологий.

Stop Killer Robots - это коалиция, занимающаяся одним вопросом, цель которой - заключить договор об обеспечении значимого человеческого контроля над применением силы и запрете нацеливания на людей с помощью автономного оружия. Наша коалиция неправительственных организаций часто ставит под сомнение конкретные военные проекты, которые могут проложить путь для систем вооружений с определенным уровнем автономии, но она не требует и не призывает компании не работать с конкретными вооруженными силами или правительствами.

Мы советуем технологам учитывать партнерские отношения, клиентов и инвесторов, с которыми они работают, и критически относиться к последующим результатам любых рискованных деловых отношений, в которые они вступают.

Stop Killer Robots - это не антитехнология. Мы не выступаем против применения искусственного интеллекта и новых технологий в военных или полицейских целях. В качестве кампании, ориентированной на человека, мы считаем, что новый международный договор о регулировании автономного оружия принесет много пользы человечеству. Новые законы помогут прояснить роль человеческих решений, связанных с оружием и применением силы в войне, полиции и других обстоятельствах.

Текущее развитие ИИ и новых технологий опережает способность директивных органов регулировать. Технологические компании и работники должны взять на себя обязательство не вносить свой вклад в разработку автономного оружия, которое нацелено на людей и не может или не может работать под осмысленным человеческим контролем.

Многие разрабатываемые технологии имеют «двойное назначение», что означает, что они могут использоваться в различных сценариях (гражданские, военные, полицейские и т. Д.). Поэтому крайне важно, чтобы технический сектор оставался бдительным и всегда учитывал ожидаемое или непредвиденное конечное использование.

Что может сделать технический сектор?

Компании:

  • Публично поддержать призыв обеспечить реальный человеческий контроль над применением силы и регулировать автономность систем вооружений.
  • Примите публичное обязательство не способствовать развитию автономного оружия.
  • Включите эту позицию в существующие принципы, программные документы и юридические контракты, такие как политики допустимого использования или условия обслуживания.
  • Убедитесь, что сотрудники хорошо осведомлены о том, как будет использоваться их работа, и установите внутренние процессы для поощрения открытых обсуждений по любым вопросам, не опасаясь репрессалий.

Физические лица:

  • Поддержите призыв обеспечить реальный человеческий контроль над применением силы и регулировать автономность систем вооружений.
  • Привлекайте вашу компанию, отрасль и коллег к ответственности за исследования, которые они проводят, и за клиентов, с которыми они работают.
  • Методически проводите оценку рисков для оценки непреднамеренного использования, последствий или рисков, связанных с разработанной вами технологией.
  • Присоединяйтесь к Международному комитету по контролю за роботизированным оружием, соучредителю нашей кампании на www.icrac.net 
Альтернативный текст изображения

Присоединяйтесь к нашей Сообщества

Вы не одиноки с активистами, действующими по всему миру. Мы можем предоставить вам связи и ресурсы, необходимые для внесения значимых изменений - будь то в вашей организации, сообществе, государстве или на национальном или международном уровне. Ваш уровень участия полностью зависит от вас - каждый вклад помогает.

10 способов участия технических работников

Познакомьтесь с некоторыми из наших чемпионов технологического сектора

Лиз О'Салливан

Лиз О'Салливан

Лиз О'Салливан является членом Консультативного совета сообщества по проекту надзора за технологиями видеонаблюдения (STOP), а ранее занимала должность первого директора STOP по технологиям. В настоящее время Лиз является генеральным директором новой компании, занимающейся алгоритмической справедливостью, Parity, а ранее была соучредителем Arthur, компании по мониторингу моделей искусственного интеллекта.

Она проработала 10 лет в сфере технологий, в основном в области искусственного интеллекта, в частности, в качестве руководителя отдела аннотаций к изображениям в стартапе Clarifai, занимающемся компьютерным зрением, где она впервые начала выступать против возможности этического злоупотребления технологиями. Лиз публично рассказывала о бесчисленном количестве вреда, который может нанести искусственный интеллект, и выступает за кампанию «Остановить роботов-убийц» в Организации Объединенных Наций.

 

 

Лаура Нолан

Лаура Нолан

Лаура Нолан работает инженером-программистом в отрасли более 15 лет. Она была одной из (многих) подписавших открытое письмо «отменить Maven», в котором содержится призыв к Google отказаться от участия в проекте Министерства обороны США по использованию технологии искусственного интеллекта для анализа видеозаписей с дронов. Она провела кампанию в Google против Project Maven, прежде чем покинуть компанию в знак протеста против него. В 2018 году Лаура также основала TechWontBuildIt Dublin, организацию для технологических работников, обеспокоенных этическими последствиями нашей отрасли и работы, которую мы выполняем.

Лаура имеет степень магистра в области передовой программной инженерии Университетского колледжа и степень бакалавра компьютерных наук в Тринити-колледже Дублина, где она была избрана стипендиатом Тринити.

Ноэль Шарки

Ноэль Шарки

Ноэль Шарки, доктор философии, FIET, FBCS, CITP, FRIN, является почетным профессором робототехники и искусственного интеллекта в Университете Шеффилда, Великобритания. Его предыдущие должности в университете были в Йельских лабораториях искусственного интеллекта, Стэнфордском факультете психологии, Эссексском языке и лингвистике и Эксетерских компьютерных науках. Он дипломированный инженер-электрик, член общества экспериментальной психологии и союза актеров Equity.

Ноэль возглавляет Международный комитет по контролю за роботизированным оружием, является директором Фонда ответственной робототехники и членом руководящего комитета Кампании по борьбе с роботами-убийцами. Он пишет для национальных газет и наиболее известен публике по популярным телешоу BBC, таким как «Войны роботов».

Фото: Фонд Генриха Бёлля

Возможен всеобъемлющий договор

Более 80 стран, включая Израиль, Китай, Россию, Южную Корею, Великобританию и США, активно участвуют в переговорах ООН о том, как решать проблемы, вызываемые автономными системами оружия. После долгих лет обсуждений требуется дополнительное давление со стороны технологической индустрии, чтобы начать официальные переговоры по международному договору, касающемуся автономии в системах вооружений и обеспечения реального контроля человека над применением силы.

Директивным органам нужны самые блестящие умы и исследователи, ведущие прорывы в области искусственного интеллекта, чтобы предотвратить вред от использования ИИ в войне и полицейской деятельности.

Поддержите призыв остановить роботов-убийц.

Занять позицию.

 

Подпишите открытое письмо

Альтернативный текст изображения
Значок точек SKR

Остановите роботов-убийц

Присоединяйтесь к нам

Следите за последними достижениями в движении по борьбе с роботами-убийцами.

Присоединяйтесь к нам