imagen de héroe de menú

Declaración ante el Consejo Permanente de la Organización de los Estados Americanos

Gracias Presidente y gracias a Costa Rica por su amable invitación a dirigirse al Consejo Permanente.

Hablo en nombre de la campaña Stop Killer Robots, una coalición internacional de más de 200 organizaciones miembros de más de 70 países que piden la negociación de un nuevo instrumento legalmente vinculante sobre sistemas de armas autónomos. Este llamado a la negociación cuenta con un enorme apoyo de una amplia gama de partes interesadas, incluido el Secretario General de la ONU, el CICR, miles de expertos en tecnología e IA, líderes religiosos, la sociedad civil y la mayoría de la opinión pública.

Como sin duda todos sabemos, la IA y las tecnologías de toma de decisiones automatizadas están impregnando la sociedad en múltiples áreas. En el ámbito no militar, los riesgos y desafíos que acompañan al uso de la inteligencia artificial y los sistemas algorítmicos son ampliamente reconocidos, al igual que la necesidad de una regulación eficaz. En septiembre de 2021, un informe del Alto Comisionado de las Naciones Unidas para los Derechos Humanos señaló que "las tecnologías de IA pueden 'tener efectos negativos, incluso catastróficos, si se implementan sin tener suficientemente en cuenta su impacto en los derechos humanos'. Numerosas figuras notables de la industria han pedido a los gobiernos que refuercen la regulación y creen nuevas leyes y organismos reguladores para abordar los graves problemas planteados por la IA y las tecnologías de aprendizaje automático. A nivel de la Unión Europea, el Parlamento Europeo votará pronto para aprobar la Ley de Inteligencia Artificial, que se convertirá en ley a fines de este año y se aplicará a todos los países miembros de la Unión Europea. La Ley de IA introducirá una serie de estándares y garantías para las tecnologías de IA con el fin de proteger los derechos humanos, incluidos los requisitos de transparencia y las clasificaciones de IA de alto riesgo, y prohibirá el uso de sistemas biométricos de reconocimiento facial en espacios públicos, así como la prohibición de sistemas biométricos. sistemas de categorización, sistemas de reconocimiento de emociones y sistemas de vigilancia predictiva.

Tales medidas son muy necesarias, porque ya existen daños graves de la IA y los sistemas automatizados de toma de decisiones. Hemos visto daños significativos, en todo el mundo, por el uso de IA y tecnologías de toma de decisiones automatizadas. Para dar solo dos ejemplos, en los Países Bajos, un algoritmo marcó erróneamente a las familias por cometer fraude en el bienestar infantil, apuntando en particular a las familias inmigrantes y provocando graves dificultades financieras para miles de personas. En los Estados Unidos y otras jurisdicciones, las personas, en particular las personas de color, han sido arrestadas después de haber sido identificadas erróneamente por los sistemas de reconocimiento facial y biométrico. Los sistemas automatizados y algorítmicos generan preocupaciones particulares con respecto al sesgo, la discriminación, la desigualdad y la dignidad humana. Quienes soportarán la peor parte de los impactos de estas tecnologías son aquellas poblaciones que históricamente han 'sido las más afectadas y perjudicadas por la aparición de nuevas tecnologías y sistemas de armas'.

La medida en que los riesgos y desafíos graves de la IA y el aprendizaje automático son reconocidos por muchos estados y organismos y organizaciones internacionales en el espacio civil debe tomarse como validación de las preocupaciones relacionadas con el uso de la IA en el espacio militar. Los sistemas de armas autónomos no son hipotéticos. Estamos viendo una tendencia significativa hacia el aumento de la autonomía en varias funciones de los sistemas de armas, incluso en funciones críticas como la selección de objetivos y la aplicación de la fuerza. Estos sistemas vienen en muchas formas y tamaños diferentes. Algunos son drones o municiones merodeadoras; algunos son vehículos terrestres no tripulados, como tanques. Tres ejemplos de sistemas de preocupación que ya están en uso incluyen el STM Kargu-2, el KUB-BLA del Grupo Kalashnikov y el sistema LANIUS de Elbit System. El Kargu-2 es una munición merodeadora con capacidades de vuelo autónomo y un sistema automático de reconocimiento de objetivos, y en 2021, un panel de expertos de la ONU informó que el Kargu-2 se había utilizado en Libia y había sido 'programado para atacar objetivos sin necesidad de conectividad de datos entre el operador y la munición.' Según los informes, Rusia ha utilizado el KUB-BLA en Ucrania y se dice que tiene 'tecnología de identificación visual de inteligencia artificial (AIVI) para el reconocimiento y la clasificación de objetivos en tiempo real. Elbit Systems afirma que su sistema LANIUS puede llevar a cabo la 'detección de enemigos' y la 'clasificación de amenazas', diferenciando entre combatientes y no combatientes, o individuos hostiles versus amistosos.

Pretender ser capaz de distinguir entre combatientes y civiles, entre combatientes activos y fuera de combate, o entre civiles, personas civiles con discapacidad y civiles que participan directamente en las hostilidades sobre la base de datos adquiridos por sensores y procesados ​​y clasificados por algoritmos plantea serias preocupaciones legales, éticas y morales. Las armas autónomas no nos 'ven' como seres humanos. En cambio, la máquina nos 'siente' como una colección de puntos de datos. Si esta información coincide o se ajusta al perfil del objetivo, el sistema de armas aplicará fuerza. No hay ningún ser humano involucrado en tomar esta decisión de vida o muerte. La deshumanización que resulta de reducir a las personas a puntos de datos basados ​​en características específicas plantea serias dudas sobre cómo se crean los perfiles objetivo algorítmicos, en qué datos preexistentes se basan estos perfiles objetivo y en qué datos se entrenaron los sistemas. También plantea preguntas sobre cómo el usuario puede entender qué cae en el perfil de objetivo de un arma y por qué el sistema de armas decidió usar la fuerza. Dar a las máquinas el poder de tomar decisiones de vida o muerte socava la dignidad humana y nos niega nuestros derechos. En lugar de ser vistas como personas, las personas son procesadas como objetos.

Como ya he señalado, existe un reconocimiento generalizado de que la IA y los sistemas automatizados de toma de decisiones presentan numerosos riesgos y desafíos, éticos, legales y morales, y que se requieren respuestas regulatorias específicas a estos riesgos y desafíos. En el espacio militar, los riesgos y daños que surgen de dichos sistemas, en particular los sistemas de armas autónomos, son graves, lo que implica la posibilidad de muerte y lesiones a las personas y la privación de los derechos humanos fundamentales. Los estados deben usar su poder para crear nuevas reglas legalmente vinculantes, que contengan una combinación de prohibiciones y regulaciones para los sistemas de armas autónomos. Los Estados deben prohibir los sistemas de armas autónomos que no se pueden usar con un control humano significativo, prohibir los sistemas que usan sensores para atacar directamente a los humanos y crear obligaciones positivas para garantizar un control humano significativo en todos los demás sistemas. Esta tecnología no nos espera en algún lugar del futuro: está aquí y ahora, y es hora de que los estados actúen.

Gracias por su atención.

 

 

 

Dra. Catalina Connolly

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros