Что такое Закон об искусственном интеллекте и Конвенция Совета Европы
Потенциальные лазейки в новом европейском законодательстве означают, что навязчивые технологии искусственного интеллекта могут использоваться всякий раз, когда ссылаются на соображения «национальной безопасности».
*Этот блог был написан Франческой Фануччи, Старший юрисконсульт Европейского центра некоммерческого права (ECNL) и Кэтрин Коннолли, «Остановить роботов-убийц». Менеджер по автоматизированному исследованию решений.
Три законодательных института Европейского Союза – Европейская комиссия, Европейский парламент и Совет ЕС – в настоящее время обсуждают предложение по регулированию искусственного интеллекта (ИИ) в 27 государствах-членах Европейского Союза. В частности, Закон ЕС об искусственном интеллекте (Закон об ИИ) установит общие правила и обязательства для поставщиков и пользователей (то есть развертывателей) систем на основе ИИ на внутреннем рынке ЕС. Ожидается, что AIA будет завершена до конца 2023 года.
В то же время Совет Европы (СЕ) — другая межправительственная организация, состоящая из 46 государств-членов, в том числе 27 государств-членов ЕС, — ведет переговоры о международном договоре, также известном как «Рамочная конвенция», о разработка, проектирование и применение систем искусственного интеллекта на основе стандартов Совета Европы в области прав человека, демократии и верховенства закона. Рамочная конвенция будет открыта для присоединения и других неевропейских государств, превращаясь в глобальный инструмент по установлению стандартов в области ИИ.
Два правовых документа — Закон ЕС об искусственном интеллекте и Рамочная программа Совета Европы — могут частично совпадать по некоторым вопросам, но по существу будут дополнять друг друга, поскольку первый установит общие правила для гармонизации внутреннего рынка систем искусственного интеллекта в ЕС, а второй сосредоточится на системах искусственного интеллекта. ' соблюдение международно признанных прав человека, демократии и верховенства права. Однако, переговоры как ЕС, так и Совета Европы рассматривают возможность исключения систем ИИ, спроектированных, разработанных и используемых для военных целей, вопросов национальной обороны и национальной безопасности. из сферы их окончательной нормативно-правовой базы.
Как гражданское общество и защитники прав человека, мы серьезно обеспокоены этими предлагаемыми исключениями и их совокупным эффектом, если они будут одобрены как ЕС, так и Советом Европы: если ЕС в своих 27 государствах-членах не согласует правила для систем ИИ для военных целей, национальной обороны и национальной безопасности, а Совет Европы не установит обязательные стандарты прав человека, применимые к системам ИИ для национальной обороны и национальной безопасности в своих 47 государств-членов и других участников Рамочной конвенции, мы столкнемся с огромным пробелом в регулировании, влияющим на проектирование, развертывание и использование таких систем. Чтобы быть абсолютно ясным: мы не утверждаем, что никакие правила не будут применяться к ним, поскольку отдельные государства сохранят за собой право принимать правила в пределах своей юрисдикции. Однако потенциально разные правила на национальном уровне не будут эффективными, поскольку национальная оборонная политика неизбежно взаимосвязана друг с другом, имеет влияние за пределами национальной территории, а также должна учитывать действия крупных международных игроков, таких как США, Китай и Российская Федерация. Что нам нужно, так это минимальные общие основные нормативные гарантии, включая обязательные оценки воздействия на права человека, для систем на основе ИИ, которые могут разрабатываться и использоваться в этих контекстах.
Когда мы говорим о проектировании, разработке и использовании систем ИИ в военном секторе или для национальной обороны, мы можем инстинктивно сразу же думать об автономном оружии или других системах вооружений с поддержкой ИИ. А вот военный сектор и сектор национальной обороны могут использовать — а в некоторых случаях уже используют на практике — другие типы ИИ, например:
- Устройства распознавания угроз с помощью мобильных кооперативных и автономных датчиков, таких как, например, воздушные и наземные транспортные средства, которые обнаруживают угрозы, такие как вражеские корабли и их прогнозируемое поведение, с помощью искусственного интеллекта (такие предметы уже был разработан армией США);
- Устройства, отображающие поля сражений в режиме реального времени, по-прежнему с помощью мобильных кооперативных и автономных датчиков, чтобы идентифицировать цели для атаки и не учитывать гражданские районы;
- Средства распознавания лиц, развернутые на границах для обнаружения проникновения противника (см., например, использование Clearview AI для выявления россиян)
- Устройства для найма на работу, используемые агентствами национальной обороны, основанные на системах искусственного интеллекта, которые выявляют подходящих кандидатов путем сортировки резюме, изучения существующих баз данных посещений/запросов, полученных в прошлом, и выявления тенденций (например, успешные кандидаты, скорее всего, принадлежат к определенной этнической группе или образование и др.);
- Учебные инструменты на основе ИИ, которые предлагают контент для подготовки и измерения прогресса, достигнутого военнослужащими (уже используются, например, в США в пилотных программах ВВС).
- Системы искусственного интеллекта добавлены в автономные транспортные средства чтобы военнослужащие могли получить помощь в поездке.
Если подумать, то большинство этих не связанных с оружием устройств, даже если они специально исследованы или разработаны для использования в военном секторе, имеют характер «двойного назначения», потому что их можно адаптировать и перепрофилировать для гражданского использования. а также: например, устройства распознавания угроз на основе ИИ уже используются для обучения автономных транспортных средств распознавать опасности на улице; распознавание эмоций уже используется для проверки реакция клиентов на рекламируемые продукты; Устройства для найма на основе ИИ могут использоваться частными компаниями или даже университетами для помочь им выбрать лучших кандидатов; Картографирование территорий на основе ИИ используется в системах GPS-навигации. fили определение оптимальных маршрутов (например, кратчайших, наименее загруженных маршрутов и т. д.). Кроме того, их воздействие как на гражданские, так и на военные объекты может быть ненужным и непропорциональным, даже если оно не приводит к гибели людей, поскольку оно все же может поставить под угрозу их права человека, такие как право на неприкосновенность частной жизни и недискриминацию (например, см. печально известный случай Инструмент рекрутинга Amazon что в конечном итоге отдавало предпочтение только кандидатам-мужчинам).
Команда Пегас печально известного NSO Group шпионских программ также является прекрасным примером технологии, номинально именуемой «разработанной или используемой исключительно в целях национальной безопасности и обороны». Однако практика показала, что эта технология также использовалась якобы в целях национальной безопасности или правоохранительных органов (и действительно, компания хвасталась тем, что помогла властям раскрыть сети наркоторговли и другую преступную деятельность) и даже при таких обстоятельствах подвергалась злоупотреблениям, что привело к нарушения прав человека: яркие примеры таких нарушений включают неизбирательное массовое наблюдение за политическими диссидентами, адвокатами, правозащитниками, журналистами, учеными, высокопоставленными правительственными чиновниками, представителями гражданского общества и т. д., чьи мобильные телефоны были взломаны, а их данные просочились их правительствами. которые приобрели эту технологию и переназначили ее для своей шпионской деятельности.
So почему предполагаемое предназначение систем ИИ для вооруженных сил, сектора национальной безопасности или национальной обороны должно полностью освобождать их от оценки воздействия, минимальных обязательств по прозрачности и подотчетности, что мы ожидаем, когда те же системы применяются в гражданском секторе?
Европейский центр некоммерческого права (ECNL) ранее указано Что касается AIA, «без надлежащих нормативных гарантий интрузивные технологии на основе ИИ, в том числе с результатами массового наблюдения, могут использоваться в государственном секторе без каких-либо специальных ограничений или гарантий всякий раз, когда государство-член ссылается на соображения «национальной безопасности». Даже те системы ИИ, которые представляют «неприемлемый» уровень риска и поэтому запрещены AIA, могут быть легко «оживлены» или «переработаны». для исключительная цель национальной безопасности, влияющая, среди прочего, на нашу свободу передвижения, собраний, выражения мнений, участия и неприкосновенности частной жизни».
Искать исключения для систем ИИ спроектированы, разработаны и используются для военных целей, вопросов национальной обороны и национальной безопасности как на уровне Европейского Союза, так и на уровне Совета Европы, еще раз подчеркивает более широкие пробелы в международном регулировании, когда речь идет об ИИ и его использовании в военных целях, в целях национальной безопасности и национальной обороны. Как отмечалось выше, системы ИИ будут использоваться для самых разных военных целей, в том числе в системах вооружения с автономными возможностями.
Что касается регулирования автономного оружия, то Международный комитет Красного Креста призвал государства согласовать новые, юридически обязывающие правила автономии в системах вооружений, содержащие как запреты, так и правила. Уже почти десять лет в рамках Конвенции о конкретных видах обычного оружия (КОО) ведутся дискуссии на уровне ООН по автономным системам вооружений. Большинство государств, вовлеченных в эти обсуждения поддерживать переговоры о новых международных правилах по автономным системам вооружения; однако небольшое меньшинство сильно милитаризованных государств продолжать блокировать прогресс. На уровне ЕС в обоих 2021 и 2018Европейский парламент принял резолюции, призывающие к началу переговоров по юридически обязывающему документу об автономном оружии. В отчете Специального комитета Европейского парламента по искусственному интеллекту в цифровую эпоху (AIDA) за 2022 г. призвал к начало переговоров, утверждая, что «машины не могут принимать человеческие решения, связанные с правовыми принципами различия, пропорциональности и предосторожности». Между тем технологические достижения в этой области продолжаются быстрыми темпами и расти в распространенностишестидесяти процентов многочисленные системы теперь включает в себя различные автономные функции, такие как распознавание целей и классификация угроз возможности. Настоятельная необходимость в новых международных правилах автономии систем вооружений не может быть более очевидной.
Однако дискуссии об автономии систем вооружений в ООН и в органах ЕС до сих пор были в основном сосредоточены на использовании таких систем в конфликте и в контексте международного гуманитарного права. Крайне важно, чтобы государства и международные органы и организации также учитывали права человека при рассмотрении ИИ в системах вооружений, а также при рассмотрении всех других систем ИИ, используемых в военных целях, в целях национальной безопасности и национальной обороны.
Границы между технологиями войны и технологиями государственной и полицейской власти всегда были пористыми. Цифровая дегуманизация и документально подтвержденный вред от систем ИИ, которые особенно затрагивают маргинализированные группы и наиболее уязвимые слои нашего общества, не будут ограничиваться гражданским сектором. ЕС и Совет Европы должны обеспечить, чтобы: а) не было общих исключений для Системы искусственного интеллекта, спроектированные, разработанные и используемые для военных целей, вопросов национальной обороны и национальной безопасности; b) такие системы проводят оценку риска и воздействия до их развертывания и во время их использования. Если такие системы не будут включены в рамки ОИП и СЕ, это будет серьезным отступлением от ответственности со стороны этих учреждений. ECNL призывает всех граждан и жителей ЕС и Совета Европы связаться с представителями своего правительства и парламента и призвать их призвать свои правительства обеспечить отсутствие общих исключений и необходимость оценки рисков в переговорах по Закону ЕС о искусственном интеллекте. и в рамках Рамочной конвенции Совета Европы по ИИ. Stop Killer Robots призывает к срочным переговорам по новому международному закону об автономии в системах вооружений — чтобы выразить свою поддержку, пожалуйста, подпишите нашу петицию. здесь.