imagen de héroe de menú

COMUNICADO DE PRENSA: Centrarse en el control humano significativo de los sistemas de armas - Tercera reunión de las Naciones Unidas sobre asesino r

11 de abril de 2016
Geneva

PRESIONE SOLTAR:
Enfoque en el control humano significativo de los sistemas de armas: se abre en Ginebra la tercera reunión de las Naciones Unidas sobre robots asesinos

Los países deben afirmar la necesidad de un control humano significativo sobre la capacidad de seleccionar y atacar objetivos, y acordar comenzar a negociar una prohibición preventiva de armas totalmente autónomas, dijo la Campaña para detener a los robots asesinos como una tercera ronda de conversaciones multilaterales sobre el tema abierta hoy. en las Naciones Unidas en Ginebra.

“Cualquier decisión de usar la fuerza debe tomarse con gran cuidado y respeto para proteger el valor de la vida y la dignidad humanas, que solo los seres humanos son capaces de hacer”, dijo la Sra. Jody Williams, Premio Nobel de la Paz de la Iniciativa de Mujeres Nobel, una co- fundador de la Campaña para detener a los robots asesinos. "Los países deben adoptar el principio de un control humano significativo sobre las decisiones de selección y muerte y acordar comenzar rápidamente las negociaciones sobre una prohibición preventiva de los robots asesinos".

Los sensores de bajo costo y los avances en inteligencia artificial hacen que sea cada vez más posible diseñar sistemas de armas que apunten y ataquen sin más intervención humana. Si la tendencia hacia una autonomía cada vez mayor continúa, la preocupación es que los humanos comenzarán a desaparecer del circuito de toma de decisiones, primero reteniendo solo un rol de supervisión limitado, y luego ningún rol en absoluto. Varias naciones con ejércitos de alta tecnología, en particular Estados Unidos, China, Israel, Corea del Sur, Rusia y el Reino Unido, se están moviendo hacia sistemas que darían una mayor autonomía de combate a las máquinas.

La Campaña para detener a los robots asesinos se opone fundamentalmente a permitir que las máquinas acaben con una vida humana en el campo de batalla o en la vigilancia, el control de fronteras y otras circunstancias. Lanzada en abril de 2013, la coalición global de más de 60 organizaciones no gubernamentales pide una prohibición preventiva del desarrollo, la producción y el uso de sistemas de armas totalmente autónomos. Esto se puede lograr mediante la creación de un nuevo derecho internacional así como mediante la legislación nacional.

La cuestión de los “sistemas de armas autónomas letales” (otro término para las armas totalmente autónomas) está siendo considerada por los países en la Convención de Armas Convencionales (CCW) de 1980, un tratado marco que prohíbe o restringe ciertos tipos de armas convencionales de interés. Su protocolo de 1995 que prohíbe los láseres cegadores es un ejemplo de un arma que se prohíbe preventivamente antes de ser adquirida o utilizada.

Se espera que muchas de las 122 "altas partes contratantes" de la CCW asistan a la tercera reunión sobre sistemas de armas autónomos letales en la ONU en Ginebra del 11 al 15 de abril de 2016, además de las agencias de la ONU, el Comité Internacional de la Cruz Roja y grupos de la sociedad coordinados por la Campaña para detener a los robots asesinos. Presidida por el Embajador Michael Biontino de Alemania, la reunión continúa las deliberaciones sobre el tema celebradas en abril de 2015 y mayo de 2014.

“Varios países y fabricantes afirman que 'no tienen planes' para desarrollar sistemas de armas autónomos letales. Tales promesas son bienvenidas, pero insuficientes, ya que no son una solución permanente a lo que se avecina si los estados no toman medidas ”, dijo el profesor Noel Sharkey del Comité Internacional para el Control de Armas Robóticas, cofundador de la Campaña para detener a los robots asesinos. “Los compromisos políticos de no desarrollar o utilizar estos sistemas de armas pueden desmoronarse tan pronto como los oponentes los adquieran. Los riesgos son demasiado altos para ignorarlos, por lo que la única forma lógica de evitarlos es legislar la prohibición ".

Nueve países han respaldado el llamado a la prohibición de armas totalmente autónomas desde 2013: Bolivia, Cuba, Ecuador, Egipto, Ghana, Santa Sede, Pakistán, Estado de Palestina y Zimbabwe.

Muchos países se han sentido atraídos por la noción de un control humano significativo sobre los sistemas de armas desde el inicio del debate internacional. Más de 30 estados han abordado específicamente el principio o concepto de control humano en sus declaraciones de la CCW, usualmente caracterizándolo como significativo, apropiado o efectivo. La mayoría de estos estados apoyan explícitamente el requisito de un control humano significativo y casi todos han pedido discusiones más profundas sobre el enfoque.

"Si los estados no confirman que debe haber un control humano significativo sobre las armas, entonces están dejando deliberadamente la puerta abierta a los sistemas que pueden matar a personas sin ese control", dijo Richard Moyes del Artículo 36, cofundador de la Campaña para Detén a Killer Robots. "La tecnología puede ser complicada, pero la solución es simple: iniciar las negociaciones para un tratado internacional que ilegalice las armas autónomas letales".

Al artículo 36 se le ocurrió el término “control humano significativo” en un memorando de 2013 a los delegados de la CCW y Moyes explicará sus elementos clave en su presentación en la sesión de la mañana del martes de la CCW sobre definiciones de sistemas de armas autónomos letales. El artículo 36 ha preparado varias publicaciones para la reunión de la CCW, incluida una sobre la posición actual del Reino Unido sobre las revisiones de armas totalmente autónomas.

La agenda de la tercera reunión de la CCW está repleta de 34 expertos que presentan más de ocho sesiones sobre autonomía, definiciones, leyes de la guerra, derechos humanos y ética, y preocupaciones de seguridad, incluidos los riesgos operativos. Los amigos de la presidencia incluyen representantes diplomáticos de Chile, Colombia, Finlandia, Francia, Sierra Leona, Corea del Sur, Sri Lanka y Suiza. Varios países —Canadá, Santa Sede, Japón y Suiza— han proporcionado documentos de trabajo antes de la reunión en los que exponen sus puntos de vista sobre los temas clave que se están debatiendo.

Los países que participan en la reunión de Ginebra no tomarán ninguna decisión formal, ya que el objetivo es continuar construyendo una base común de conocimiento sobre cuestiones técnicas, éticas, legales, operativas, de seguridad y otras relacionadas con las armas. Sin embargo, “pueden acordar por consenso recomendaciones para el trabajo futuro para su consideración” por la CAC en su Quinta Conferencia de Revisión el 16 de diciembre de 2016.

Los expertos de la sociedad civil están desempeñando un papel de liderazgo para ayudar a aumentar la comprensión del control humano significativo e informar este aspecto central del debate. Por ejemplo:

  • Bonnie Docherty se dirigirá a una sesión informativa paralela el jueves para presentar su informe de 16 páginas para Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard sobre "Robots asesinos y el concepto de control humano significativo". El informe revisa los precedentes legales para el control y encuentra que un control humano significativo sobre el uso de armas promueve el cumplimiento de los principios del derecho internacional humanitario, en particular la distinción y la proporcionalidad, y también es crucial para el derecho internacional de los derechos humanos. Human Rights Watch es cofundador y coordina la Campaña para detener a los robots asesinos.
  • La Dra. Heather Roff de la Universidad Estatal de Arizona, quien también es miembro del ICRAC, ha escrito un nuevo informe sobre “Control humano significativo, inteligencia artificial y armas autónomas” junto con Moyes del Artículo 36. El lunes por la tarde, Roff se dirigirá a un Sesión de la CCW para considerar el “mapeo de la autonomía”, así como una sesión informativa para un evento paralelo.
  • El profesor Toby Walsh, de la Universidad de Nueva Gales del Sur, quien habló en un evento paralelo el jueves, ayudó a redactar una carta abierta emitida en julio de 2015 y firmada por más de 3,000 expertos en inteligencia artificial que pide la prohibición de la "ofensiva autónoma". armas más allá del control humano significativo ".

Para obtener más información sobre la tercera reunión de la CCW sobre robots asesinos, consulte: http://www.stopkillerrobots.org/2016/04/thirdccw/

Para obtener más información sobre la Convención sobre Armas Convencionales, visite: http://www.unog.ch/80256EE600585943/(httpPages)/37D51189AC4FB6E1C1257F4 D004CAFB2? OpenDocument

Información de contacto de la Campaña para detener a los robots asesinos:

  • Sitio web: www.stopkillerrobots.org
  • Facebook: http://www.facebook.com/#!/stopkillerrobots
  • Twitter - @BanKillerRobots
  • Flickr: http://www.flickr.com/people/stopkillerrobots
  • YouTube: http://www.youtube.com/user/StopKillerRobots

Clara Conboy

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros