изображение главного меню

Заявление Постоянному совету Организации американских государств

Спасибо, Председатель, и спасибо Коста-Рике за их любезное приглашение выступить в Постоянном совете.

Я говорю от имени кампании Stop Killer Robots, международной коалиции, объединяющей более 200 организаций-членов из более чем 70 стран, призывающих к переговорам по новому юридически обязывающему документу об автономных системах вооружения. Этот призыв к переговорам получил огромную поддержку со стороны широкого круга заинтересованных сторон, включая Генерального секретаря ООН, МККК, тысячи экспертов в области технологий и искусственного интеллекта, религиозных лидеров, гражданское общество и большую часть общественного мнения.

Как всем нам, без сомнения, известно, искусственный интеллект и технологии автоматизированного принятия решений проникают в общество во многих областях. В невоенной сфере широко признаются риски и проблемы, связанные с использованием искусственного интеллекта и алгоритмических систем, а также необходимость эффективного регулирования. В сентябре 2021 года в отчете Верховного комиссара ООН по правам человека отмечалось, что «технологии искусственного интеллекта могут иметь негативные, даже катастрофические последствия, если они используются без должного учета их воздействия на права человека». Многочисленные видные деятели отрасли призвали правительства усилить регулирование и создать новое законодательство и регулирующие органы для решения серьезных проблем, возникающих в связи с технологиями искусственного интеллекта и машинного обучения. На уровне Европейского Союза Европейский парламент вскоре проголосует за принятие Закона об искусственном интеллекте, который станет законом к концу этого года и будет применяться ко всем странам-членам Европейского Союза. Закон об ИИ введет ряд стандартов и гарантий для технологий ИИ в целях защиты прав человека, включая требования прозрачности и классификации ИИ с высоким уровнем риска, а также запретит использование биометрических систем распознавания лиц в общественных местах, а также запрет биометрических системы категоризации, системы распознавания эмоций и интеллектуальные полицейские системы.

Такие меры крайне необходимы, потому что серьезный вред от ИИ и автоматизированных систем принятия решений уже существует. Во всем мире мы наблюдаем значительный вред от использования ИИ и технологий автоматизированного принятия решений. Приведу лишь два примера: в Нидерландах алгоритм ошибочно помечал семьи как совершающие мошенничество в сфере защиты детей, в частности, нацелившись на семьи мигрантов, что привело к серьезным финансовым трудностям для тысяч людей. В Соединенных Штатах и ​​​​других юрисдикциях людей, особенно цветных, арестовывали после того, как их ошибочно идентифицировали с помощью систем распознавания лиц и биометрических данных. Автоматизированные и алгоритмические системы вызывают особую обеспокоенность в отношении предвзятости, дискриминации, неравенства и человеческого достоинства. Те, кто понесет на себе основную тяжесть воздействия этих технологий, — это те группы населения, которые исторически «наиболее пострадали и пострадали от появления новых технологий и систем вооружения».

Степень, в которой серьезные риски и проблемы, связанные с ИИ и машинным обучением, признаются многими государствами и международными органами и организациями в гражданской сфере, следует рассматривать как подтверждение соответствующих опасений по поводу использования ИИ в военной сфере. Автономные системы вооружения не являются гипотетическими. Мы наблюдаем значительную тенденцию к увеличению автономности различных функций систем вооружений, в том числе таких важнейших функций, как выбор цели и применение силы. Эти системы бывают разных форм и размеров. Некоторые из них представляют собой дроны или барражирующие боеприпасы; некоторые из них представляют собой беспилотные наземные транспортные средства, такие как танки. Три примера систем, вызывающих озабоченность, которые уже используются, включают СТМ Каргу-2, КУБ-БЛА Группы Калашникова и систему LANIUS компании Elbit System. Каргу-2 представляет собой барражирующий боеприпас с возможностями автономного полета и автоматической системой распознавания целей, и в 2021 году группа экспертов ООН сообщила, что Каргу-2 использовался в Ливии и был «запрограммирован на атаку целей без необходимости возможность передачи данных между оператором и боеприпасом». КУБ-БЛА, как сообщается, использовался Россией в Украине и, как утверждается, имеет «технологию визуальной идентификации искусственного интеллекта (AIVI) для распознавания и классификации целей в реальном времени». Elbit Systems утверждает, что ее система LANIUS может выполнять «обнаружение противника» и «классификацию угроз», различая комбатантов и некомбатантов, а также враждебных и дружественных людей.

Претензия на способность различать комбатантов и гражданских лиц, активных комбатантов и лиц, вышедших из строя, или гражданских лиц, гражданских лиц с ограниченными возможностями и гражданских лиц, непосредственно участвующих в боевых действиях, на основе данных, полученных датчиками, а также обработанных и классифицированных алгоритмами, повышает серьезные юридические, этические и моральные проблемы. Автономное оружие не «видит» нас как людей. Вместо этого машина «воспринимает» нас как набор точек данных. Если эта информация совпадает или соответствует профилю цели, система вооружения применит силу. В принятии этого решения о жизни или смерти нет человека. Дегуманизация, возникающая в результате сведения людей к точкам данных на основе определенных характеристик, поднимает серьезные вопросы о том, как создаются алгоритмические целевые профили, на каких ранее существовавших данных эти целевые профили основаны и на данных, на которых обучались системы. Это также вызывает вопросы о том, как пользователь может понять, что попадает в целевой профиль оружия и почему система вооружения решила применить силу. Предоставление машинам права принимать решения о жизни или смерти подрывает человеческое достоинство и лишает нас наших прав. Вместо того, чтобы восприниматься как люди, люди воспринимаются как объекты.

Как я уже отмечал, широко признано, что ИИ и автоматизированные системы принятия решений сопряжены с многочисленными рисками и проблемами — с этической, юридической и моральной точек зрения — и что требуются конкретные регулятивные меры для этих рисков и проблем. В военном пространстве риски и вред, связанные с такими системами, в частности с автономными системами вооружения, являются серьезными, включая возможность гибели и ранения людей и лишение основных прав человека. Государства должны использовать свою власть для создания новых юридически обязательных правил, содержащих смесь запретов и правил для автономных систем вооружений. Государствам следует запретить автономные системы вооружений, которые не могут быть использованы под значимым контролем со стороны человека, запретить системы, использующие датчики для непосредственного нацеливания на людей, и установить позитивные обязательства по обеспечению значимого контроля со стороны человека во всех других системах. Эта технология не ждет нас где-то в будущем – она здесь и сейчас, и государствам пора действовать.

Спасибо.

 

 

 

Доктор Кэтрин Коннолли

Альтернативный текст изображения
Значок точек SKR

Остановите роботов-убийц

Присоединяйтесь к нам

Следите за последними достижениями в движении по борьбе с роботами-убийцами.

Присоединяйтесь к нам