изображение главного меню
Марта Космина, руководитель кампании Кремниевой долины по борьбе с роботами-убийцами вместе с активистом кампании Дэвидом Рэкхэмом. Фото: Ари Безер.

Сила вопроса в Кремниевой долине

Марта Космина - руководитель кампании Кремниевой долины по борьбе с роботами-убийцами. Она живет в Сан-Франциско, США, и в своей роли она стремится активизировать технологический сектор, привлечь политическое участие и поддержать технических союзников, чтобы они могли поделиться своим опытом с Организацией Объединенных Наций.

Марта Космина, руководитель кампании Кремниевой долины по борьбе с роботами-убийцами вместе с активистом кампании Дэвидом Рэкхэмом. Фото: Ари Безер.

Задание вопроса может вызвать движение. Все, что нужно is чтобы один человек встал, поставил под сомнение статус-кво и критически подумал о текущем положении дел. Мы видели это в прошлом году с Project Maven, и я вижу это каждый день в своей работе в качестве руководителя кампании Кремниевой долины по борьбе с роботами-убийцами. Так далеко, тысячи технических работников обещали гарантировать, что их работа никогда не будет способствовать созданию полностью автономного оружия, и более 200 компаний поддержать договор, гарантирующий, что это оружие никогда не будет использовано.

Когда дело доходит до использования искусственного интеллекта в войне и полиции, обсуждения этики недостаточно. Хотя руководящие принципы, принципы и саморегулирование - замечательный первый шаг, ясно, что для сдерживания угрозы, которую представляет для человечества полностью автономное оружие - «роботы-убийцы», необходимо безотлагательное законодательство. Кампания призывает правительства вести переговоры о новом международном праве, который сохранит значимый человеческий контроль над применением силы.

Каждый год наша Кампания фиксирует растущее противодействие технологической индустрии разработке и использованию полностью автономного оружия. Наши технологические союзники понимают ограничения этой технологии и сокращают разрыв между технологиями и политикой.

Мы уже видели непредвиденные последствия появления новых технологий. Если технические работники обеспокоены тем, что их работа будет использоваться в роботах-убийцах, важно сохранять бдительность, учитывать конечное использование разрабатываемых ими технологий и подвергать сомнению партнерские отношения, клиентов и инвесторов, участвующих в проектах с высоким уровнем риска. В следующий раз, когда лидер отрасли, руководитель компании или политик выйдет на сцену, спросите его напрямую о полностью автономном оружии. Важно зафиксировать их в протоколе, чтобы их можно было привлечь к ответственности и чтобы их заявление соответствовало ценностям, миссии и видению, которые они, по их словам, представляют.

Сила вопроса на тротуаре Силликоновой долины Граффитти

Один из примеров трафаретной печати мелом Кампании в Нью-Йорке возле офисов Amazon, Microsoft, Palantir и Clarafai. Фото: Клэр Конбой.

Кампания по борьбе с роботами-убийцами в этом году была отмечена на многих технических конференциях и мероприятиях по этике, чтобы поднять тревогу по поводу угрозы, исходящей от полностью автономного оружия. Только в этом году наши участники были представлены на Viva Technology во франции, Правда Северо в Канаде, Defcon в США и Inteligencia Artificial y Ética: El Desafío de las Armas Autónomas Letalesin в Аргентине, среди многих других мероприятий по всему миру.

Мы всегда рекомендуем вам задавать нам самые сложные вопросы, но ответы на некоторые из вопросов, которые мы слышим чаще всего, приведены ниже:

Правительственным чиновникам, в том числе переговорщикам по договору, потребуется помощь технических экспертов, чтобы договор, запрещающий роботов-убийц, не подавлял инновации, а вместо этого обеспечивал беспрепятственное продолжение исследований и разработок искусственного интеллекта. Биологи не обнаружили, что Конвенция о запрещении биологического оружия нанесла ущерб их исследованиям и разработкам, а химики не жалуются, что Конвенция о запрещении химического оружия отрицательно повлияла на их работу. Фактически, если технологиям для разработки полностью автономного оружия будет разрешено разрабатывать без регулирования, многие эксперты по искусственному интеллекту, робототехники и технологи опасаются, что положительные применения искусственного интеллекта пострадают. Любые сбои, ошибки или военные преступления, совершенные полностью автономными системами вооружений, получат негативную огласку, что приведет к отрицательному отношению общественности к тенденции развития искусственного интеллекта и других новых технологий.

 

Сила вопроса на тротуаре Силликоновой долины Граффитти 2

Один из примеров трафаретной печати мелом Кампании в Нью-Йорке возле офисов Amazon, Microsoft, Palantir и Clarafai. Фото: Клэр Конбой.

Мы являемся коалицией, занимающейся одним вопросом, сосредоточенной на заключении договора о запрещении полностью автономного оружия и сохранении значимого человеческого контроля над применением силы. Наши члены часто ставят под сомнение конкретные военные проекты, которые могут проложить путь к полностью автономному оружию, но мы не просим и не призываем компании не сотрудничать с вооруженными силами или правительствами. Мы советуем технологам учитывать партнерские отношения, клиентов и инвесторов, с которыми они работают, и критически относиться к последующим результатам любых рискованных деловых отношений, в которые они вступают.

 

 

Наша Кампания не направлена ​​против технологий. Он не выступает против военных или полицейских приложений искусственного интеллекта и новых технологий в целом. Мы выступаем против автономии в важнейших функциях выбора и поражения целей при любых обстоятельствах. В качестве инициативы, ориентированной на человека, мы считаем, что новый международный договор, запрещающий роботов-убийц, принесет много пользы человечеству. Новый закон поможет прояснить роль человеческого принятия решений, связанных с оружием и применением силы в войне, полиции и других обстоятельствах.

Текущее развитие искусственного интеллекта и новых технологий опережает способность директивных органов регулировать, и это ярко проявляется в случае полностью автономного оружия. Технологические компании и рабочие должны взять на себя обязательство не вносить вклад в разработку полностью автономного оружия. Многие разрабатываемые технологии имеют «двойное назначение», что означает, что они могут использоваться в различных сценариях - гражданском, военном, полицейском и т. Д. Поэтому крайне важно, чтобы технический сектор оставался бдительным и всегда учитывал предполагаемое конечное использование.

Оружие не предназначено для спасения жизней, оно предназначено для того, чтобы отнимать жизни. Полностью автономное оружие было бы непредсказуемо. Взаимодействуя со своим окружением неожиданным образом, они могли нанести братоубийство или нанести вред дружественным войскам. Повышение точности может быть достигнуто без потери значимого человеческого контроля над отдельными атаками. Кампания направлена ​​на то, чтобы запретить разработку и конкретное применение определенных технологий, кодифицировать ограничения на их предполагаемое использование и обеспечить подотчетность в соответствии с международным правом. Пока нет жертв от роботов-убийц, и мы хотим, чтобы так и было.

С 2014 года более 90 стран приняли участие в дипломатических переговорах по автономным системам смертоносного оружия в Организации Объединенных Наций, и большинство из этих государств теперь видят необходимость в новом договоре о запрещении или ограничении такого оружия. Горстка военных держав, особенно Россия и США, выступают против любых попыток регулировать такие системы вооружений. Эти переговоры являются упражнением в наращивании знаний и транспарентности, но они должны привести к переговорам по новому договору. Это единственный многосторонний ответ, способный устранить угрозу человечеству, создаваемую автономным оружием. Существующие законы войны были написаны для людей, а не для машин, и их необходимо усилить, чтобы обеспечить подотчетность и защиту от дальнейшего технологического развития. Новый договор установит мощную норму, запрещающую устранение значимого человеческого контроля над применением силы. Это побудит к соблюдению даже тех стран и субъектов, которые изначально не подписали.

www.stopkillerrobots.org Фото: Ари Безер. Рисунок: Клэр Конбой

Если эта статья находит отклик у вас, как у технического работника, ознакомьтесь с ресурсами Кампании по остановке роботов-убийц для технологических работников: www.stopkillerrobots.org/tech или присоединяйтесь к беседе с помощью #TechAgainstKillerRobots


Оригинальная статья размещена на Medium.com.

Марта Космина

Альтернативный текст изображения
Значок точек SKR

Остановите роботов-убийц

Присоединяйтесь к нам

Следите за последними достижениями в движении по борьбе с роботами-убийцами.

Присоединяйтесь к нам