Забудьте то, что вы видели в фильмах - быстрые достижения в области компьютерного зрения, машинного обучения, вычислительной мощности, робототехники и искусственного интеллекта с нетерпением ждут военные по всему миру для автоматизации принятия решений об убийствах. Неотъемлемое двойное использование большинства этих технологий и крупные инвестиции в эту область требуют нового международного права для решения проблемы автономии систем вооружений и обеспечения реального контроля со стороны человека при применении силы.
Stop Killer Robots активно ищет технологов и компании в качестве союзников для достижения нашей общей цели нового договора о регулировании автономии в системах вооружений. Частный сектор будет играть ключевую роль в предотвращении разработки этого оружия.
Технические специалисты глобальных компаний, таких как Google, Microsoft и Amazon, отказываются от своих исследований, продуктов и платформ, адаптированных для использования в войне. Робототехнические компании, такие как Clearpath Robotics, активно работают над запретом роботов-убийц.
Илон Маск из Tesla, Демис Хассабис из Google и Стив Возняк из Apple поддержали запрет на автономное оружие. Другие сравнивали разработки в области ИИ с ядерным оружием, но до сих пор призывали только к слабому регулированию, которое не решало бы правовых и этических последствий автономии в оружии.
ОТВЕТЫ НА ВОПРОСЫ
Договор об автономии систем оружия не будет сдерживать инновации, а скорее поможет обеспечить беспрепятственное продолжение исследований и разработок искусственного интеллекта. Биологи не обнаружили, что Конвенция о запрещении биологического оружия нанесла ущерб их исследованиям и разработкам, а химики не жалуются, что Конвенция о запрещении химического оружия отрицательно повлияла на их работу.
Фактически, если технологии для создания автономного оружия будет разрешено разрабатывать без регулирования, многие эксперты по искусственному интеллекту, робототехники и технологи опасаются, что положительные применения искусственного интеллекта пострадают. Любые сбои, ошибки или военные преступления, совершенные автономными системами оружия, получат негативную огласку, что приведет к отрицательному отношению общественности к тенденции развития искусственного интеллекта и других новых технологий.
Stop Killer Robots - это коалиция, занимающаяся одним вопросом, цель которой - заключить договор об обеспечении значимого человеческого контроля над применением силы и запрете нацеливания на людей с помощью автономного оружия. Наша коалиция неправительственных организаций часто ставит под сомнение конкретные военные проекты, которые могут проложить путь для систем вооружений с определенным уровнем автономии, но она не требует и не призывает компании не работать с конкретными вооруженными силами или правительствами.
Мы советуем технологам учитывать партнерские отношения, клиентов и инвесторов, с которыми они работают, и критически относиться к последующим результатам любых рискованных деловых отношений, в которые они вступают.
Stop Killer Robots - это не антитехнология. Мы не выступаем против применения искусственного интеллекта и новых технологий в военных или полицейских целях. В качестве кампании, ориентированной на человека, мы считаем, что новый международный договор о регулировании автономного оружия принесет много пользы человечеству. Новые законы помогут прояснить роль человеческих решений, связанных с оружием и применением силы в войне, полиции и других обстоятельствах.
Текущее развитие ИИ и новых технологий опережает способность директивных органов регулировать. Технологические компании и работники должны взять на себя обязательство не вносить свой вклад в разработку автономного оружия, которое нацелено на людей и не может или не может работать под осмысленным человеческим контролем.
Многие разрабатываемые технологии имеют «двойное назначение», что означает, что они могут использоваться в различных сценариях (гражданские, военные, полицейские и т. Д.). Поэтому крайне важно, чтобы технический сектор оставался бдительным и всегда учитывал ожидаемое или непредвиденное конечное использование.
Что может сделать технический сектор?
Компании:
- Публично поддержать призыв обеспечить реальный человеческий контроль над применением силы и регулировать автономность систем вооружений.
- Примите публичное обязательство не способствовать развитию автономного оружия.
- Включите эту позицию в существующие принципы, программные документы и юридические контракты, такие как политики допустимого использования или условия обслуживания.
- Убедитесь, что сотрудники хорошо осведомлены о том, как будет использоваться их работа, и установите внутренние процессы для поощрения открытых обсуждений по любым вопросам, не опасаясь репрессалий.
Физические лица:
- Поддержите призыв обеспечить реальный человеческий контроль над применением силы и регулировать автономность систем вооружений.
- Привлекайте вашу компанию, отрасль и коллег к ответственности за исследования, которые они проводят, и за клиентов, с которыми они работают.
- Методически проводите оценку рисков для оценки непреднамеренного использования, последствий или рисков, связанных с разработанной вами технологией.
- Присоединяйтесь к Международному комитету по контролю за роботизированным оружием, соучредителю нашей кампании на www.icrac.net
Присоединяйтесь к нашей Сообщества
Познакомьтесь с некоторыми из наших чемпионов технологического сектора
Лаура Нолан
Лаура Нолан
Лаура Нолан работает инженером-программистом в отрасли более 15 лет. Она была одной из (многих) подписавших открытое письмо «отменить Maven», в котором содержится призыв к Google отказаться от участия в проекте Министерства обороны США по использованию технологии искусственного интеллекта для анализа видеозаписей с дронов. Она провела кампанию в Google против Project Maven, прежде чем покинуть компанию в знак протеста против него. В 2018 году Лаура также основала TechWontBuildIt Dublin, организацию для технологических работников, обеспокоенных этическими последствиями нашей отрасли и работы, которую мы выполняем.
Лаура имеет степень магистра в области передовой программной инженерии Университетского колледжа и степень бакалавра компьютерных наук в Тринити-колледже Дублина, где она была избрана стипендиатом Тринити.
Ноэль Шарки
Ноэль Шарки
Ноэль Шарки, доктор философии, FIET, FBCS, CITP, FRIN, является почетным профессором робототехники и искусственного интеллекта в Университете Шеффилда, Великобритания. Его предыдущие должности в университете были в Йельских лабораториях искусственного интеллекта, Стэнфордском факультете психологии, Эссексском языке и лингвистике и Эксетерских компьютерных науках. Он дипломированный инженер-электрик, член общества экспериментальной психологии и союза актеров Equity.
Ноэль возглавляет Международный комитет по контролю за роботизированным оружием, является директором Фонда ответственной робототехники и членом руководящего комитета Кампании по борьбе с роботами-убийцами. Он пишет для национальных газет и наиболее известен публике по популярным телешоу BBC, таким как «Войны роботов».
Фото: Фонд Генриха Бёлля
Возможен всеобъемлющий договор
Более 80 стран, включая Израиль, Китай, Россию, Южную Корею, Великобританию и США, активно участвуют в переговорах ООН о том, как решать проблемы, вызываемые автономными системами оружия. После долгих лет обсуждений требуется дополнительное давление со стороны технологической индустрии, чтобы начать официальные переговоры по международному договору, касающемуся автономии в системах вооружений и обеспечения реального контроля человека над применением силы.
Директивным органам нужны самые блестящие умы и исследователи, ведущие прорывы в области искусственного интеллекта, чтобы предотвратить вред от использования ИИ в войне и полицейской деятельности.
Поддержите призыв остановить роботов-убийц.