imagen de héroe de menú
AOAV IGw AWS FINAL 150ppi_LR

Conferencia de Chatham House

AOAV IGw AWS FINAL 150ppi_LR

La primera casa Chatham conferencia sobre tecnologías militares autónomas en Londres del 24 al 25 de febrero reunió a personas de diferentes distritos electorales para contemplar las armas autónomas y la perspectiva de delegar el control humano sobre las decisiones de ataque y selección de objetivos a las máquinas. La Campaña para detener a los robots asesinos se complació en poder asistir a esta conferencia bien organizada y oportuna celebrada bajo la regla de Chatham House, que permite a los participantes usar la información recibida pero no revelar la identidad o afiliación del orador o participantes. La conferencia fue una oportunidad útil para discutir nuestras preocupaciones con armas totalmente autónomas, proporcionar aclaraciones y responder preguntas sobre el enfoque y los objetivos de nuestra coalición.

Desde entonces, algunos participantes han expresado públicamente sus puntos de vista sobre la conferencia, incluido Charles Blanchard sobre Opinión jurisprudencial (4 de marzo) y Paul Scharre en el La guerra de leyes blog (3 marzo).

Varios de los representantes de la Campaign to Stop Killer Robots que asistieron a la conferencia de Chatham House han aportado información para esta publicación web, incluidas las reflexiones publicadas por Blanchard y Scharre. Los portavoces principales de la campaña, la Premio Nobel de la Paz Jody Williams, el profesor de robótica Noel Sharkey y Human Rights Watch El director de armas Steve Goose se dirigió a la conferencia, mientras que los activistas de las organizaciones no gubernamentales estuvieron presentes. Acción contra la violencia armada, Amnistía Internacional, Artículo 36, Observador de derechos humanos, Comité Internacional para el Control de Armas Robóticasy PAX (anteriormente IKV Pax Christi).

La perspectiva de la Campaña para detener a los robots asesinos y su llamado a la prohibición de las armas totalmente autónomas se escucharon durante toda la conferencia, pero para asegurar que las preocupaciones clave no sean minimizadas y con el espíritu de promover un entendimiento común sobre este tema emergente de interés internacional, tenemos los siguientes comentarios sobre las reflexiones de Blanchard y Scharre.

Blanchard, ex abogado general de la Fuerza Aérea de los EE. UU., charla pública sobre el tema "Tecnologías autónomas: ¿una fuerza para el bien?" en Chatham House junto con nuestra portavoz de campaña Jody Williams, quien recibió el premio Nobel de la Paz en 1997 junto con la Campaña Internacional para la Prohibición de las Minas Terrestres (ICBL). Ahora es socio de Arnold & Porter LLP, un bufete de abogados de Washington DC que apoyó activamente la negociación del Tratado de Derechos de Discapacidad de 2006, así como los esfuerzos para incluir disposiciones de asistencia a las víctimas en el Tratado de Prohibición de Minas de 1997.

Blanchard considera "puntos de vista filosóficos profundos" en su artículo, que analiza algunas de las "disputas" en la conferencia de Chatham House sobre el llamado a la prohibición de armas totalmente autónomas para consagrar el principio de que solo los humanos deben decidir matar a otros humanos. A Blanchard le preocupa que "más muerte" pueda resultar de una prohibición porque las armas autónomas podrían ser "más capaces que los humanos" de cumplir con las leyes de la guerra.

Si bien no estamos de acuerdo con la posición escéptica de Blanchard en cuanto a los beneficios que podría proporcionar una prohibición de las armas totalmente autónomas, agradecemos su reconocimiento del contraargumento de que dejar que una máquina decida a quién matar violaría las nociones de dignidad humana. La evaluación de Blanchard sobre la viabilidad de una prohibición ilustra cómo el debate ha avanzado mucho en los últimos meses hasta el punto de que se está contemplando seriamente una prohibición.

Paul Scharre encabeza la Iniciativa de Guerra 20YY en el Centro para una Nueva Seguridad Estadounidense en Washington DC y anteriormente trabajó para el Departamento de Defensa de EE. UU., Donde dirigió un grupo de trabajo que redactó la directiva de política de 2012 3000.09 sobre autonomía en sistemas de armas. Sus completas presentaciones en la conferencia de Chatham House fueron bien recibidas y sus reflexiones racionales, mesuradas y bien escritas sobre la conferencia contienen muchas observaciones útiles.

Sin embargo, las "conclusiones clave" de Scharre simplifican demasiado las "áreas de acuerdo" y hacen que parezca que los participantes estuvieron de acuerdo con más frecuencia de lo que realmente lo hicieron. Su comentario intenta reflejar los puntos de vista de los oradores de la conferencia y las áreas de convergencia, pero no se puede hacer lo mismo con la audiencia, que comprende aproximadamente 150 participantes del gobierno, el ejército, la industria, los think tanks, la academia, la sociedad civil y los medios de comunicación.

Con respecto al alcance de lo que se discutió en Chatham House, la descripción de Scharre de que la conferencia se centró solo en sistemas de armas autónomos "antimateriales" es confusa, ya que la conferencia abordó todos los tipos de sistemas de armas autónomos, incluido el "antipersonal". . " La conferencia tampoco se limitó específicamente a las armas autónomas "letales" en contraposición a las "no letales" o "menos que letales". Dicho esto, acogemos con agrado los comentarios de Scharre que indican que no está a favor de sistemas de armas antipersonal totalmente autónomos.

De hecho, hubo convergencia de los tecnólogos que hablaron sobre las capacidades de las tecnologías autónomas actuales y la noción de que los precursores indican algo más peligroso por venir.

A lo largo de la conferencia, pareció haber un "acuerdo universal de que los humanos deberían mantener el control de las decisiones sobre el uso de la fuerza letal". Sin embargo, el consenso sobre este punto fue calificado por varios oradores que sugirieron que los sistemas sin un control humano significativo podrían ser legales y tener utilidad militar. Estos puntos de vista ilustran por qué las restricciones a nivel de políticas no serán suficientes para abordar los desafíos que plantean las armas totalmente autónomas y deben complementarse con una nueva ley.

De hecho, este debate ocurre porque muchos están contemplando un futuro sin control humano. Sin embargo, Scharre dio una mínima consideración a las preocupaciones sobre la proliferación —desarrollo, producción, transferencia, almacenamiento— en la sección de “objeciones” de su reflexión. Las preocupaciones sobre una carrera armamentista se plantearon varias veces en el transcurso de la conferencia de Chatham House, que fue patrocinado por BAE Systems, fabricante del avión autónomo Taranis, el principal ejemplo de un precursor británico de la tecnología de armas autónomas. Como se ha aprendido de la experiencia con las armas nucleares, las preocupaciones sobre la proliferación no se pueden abordar de forma permanente mediante la reglamentación y el derecho internacional humanitario existente.

Scharre afirma que “un factor importante en si las armas autónomas son militarmente atractivas o incluso necesarias puede ser simplemente si otras naciones las desarrollan”, pero parece no entender el punto de la estigmatización en la sección del “final del juego” de sus reflexiones. Al proponer que la respuesta a las preocupaciones sobre el "engaño" es un "campo de juego parejo" donde todos pueden tenerlos (y presumiblemente todos pueden ser "tramposos"), Scharre descarta el poder de una prohibición internacional y legalmente vinculante para estigmatizar un arma. y asegurar el respeto a la ley. Una prohibición global podría tener éxito en estigmatizar las armas autónomas en la medida en que ninguna potencia militar importante las use, como ha sido el caso del Tratado de Prohibición de Minas, donde las principales potencias no han usado minas terrestres antipersonal en años.

Scharre considera que el sector comercial impulsa la “tecnología subyacente detrás de la autonomía”, pero ignora el hecho de que la industria está regulada por el estado. Los gobiernos no impedirán que la industria desarrolle la tecnología subyacente ni, como señala Blanchard, la campaña busca hacerlo porque la misma tecnología que se usará en robótica autónoma y sistemas de inteligencia artificial tiene muchos propósitos no armados y no militares. Pero las actividades de investigación y desarrollo deben prohibirse si están dirigidas a tecnología que solo puede usarse para armas completamente autónomas o que está explícitamente destinada a usarse en tales sistemas.

Scharre minimiza las preocupaciones legales en varias secciones de sus reflexiones. Esto se debe en parte a que el panel de la conferencia sobre derecho internacional estuvo dominado por defensores legales de las armas autónomas. Varios de los panelistas de derecho pueden haber estado de acuerdo entre sí en que las armas autónomas “no son armas ilegales prohibidas por las leyes de los conflictos armados”, pero esta no fue una opinión compartida por todos los participantes en la conferencia. En particular, se expresó una gran preocupación por la naturaleza de las armas totalmente autónomas y su probable incapacidad, al tomar decisiones sobre ataques, para distinguir a los no combatientes y juzgar la proporcionalidad de los daños civiles esperados con los logros militares esperados. Aunque nadie puede saber con certeza cómo será la tecnología futura, la posibilidad de que las armas totalmente autónomas no puedan cumplir con las leyes de la guerra no puede descartarse en este momento.

Un orador argumentó que si las armas totalmente autónomas podían usarse legalmente en cualquier circunstancia, no podían considerarse per se ilegal. Este punto puede ser correcto legalmente, pero se puede argumentar que cualquier arma puede usarse legalmente en algún escenario cuidadosamente elaborado. La posibilidad de un uso tan limitado no debería utilizarse para legitimar armas totalmente autónomas. La historia ha demostrado bien que una vez que se desarrolla y se lanza un arma, no solo se utilizará de forma limitada y predeterminada. El potencial de daño es tan grande que anula el argumento de la legalidad.

Scharre afirma estar de acuerdo sobre "usos limitados legales", citando tres ejemplos propios. Ciertamente no estamos de acuerdo.

La rendición de cuentas es otra área en la que hubo menos acuerdo de lo que se describe en las reflexiones de Scharre. Como afirma, las máquinas, tal como se conciben actualmente, no pueden ser consideradas responsables según las leyes de la guerra, y tiene sentido que los programadores u operadores no sean responsables de los crímenes de guerra a menos que tuvieran la intención de que el robot cometiera uno.

La noción de responsabilidad de los operadores se abordó durante la conferencia de Chatham House, pero no se consideró en profundidad y es importante señalar las preocupaciones persistentes de algunos miembros de la audiencia. Por ejemplo, las "correcciones" que Scharre cita de la directiva del Departamento de Defensa de Estados Unidos se quedan cortas. Según la directiva, los tomadores de decisiones humanos tienen la responsabilidad de garantizar el cumplimiento de las leyes de la guerra cuando las máquinas que ponen en marcha no pueden garantizarlo. Sin embargo, es poco probable que los comandantes sean considerados responsables de crímenes de guerra si se puede culpar a fallas técnicas no intencionales, mientras que es poco probable que los programadores, ingenieros y fabricantes sean considerados responsables si han actuado de buena fe.

La aparente respuesta de Scharre al tema de la responsabilidad es un “sistema completamente predecible y confiable”, pero ¿cómo es eso posible? Incluso con procedimientos de prueba y evaluación rigurosos, la autonomía hará que sea mucho más difícil garantizar la previsibilidad y la fiabilidad. De hecho, una definición de autonomía es que el sistema, incluso cuando funciona correctamente, no es completamente predecible (debido a su complejidad y la del entorno con el que está interactuando).

Además, algunos cuestionan si los operadores deben ser retenidos directamente responsable de las consecuencias de las acciones de armas totalmente autónomas. ¿Pueden estos operadores ser tratados de la misma manera que los operadores de un arma "normal" cuando las armas totalmente autónomas pueden tomar decisiones por sí mismas?

Scharre parece descartar la Cláusula Martens como solo una cuestión ética, pero también es legal. Aunque se debate su significado preciso, la cláusula es un elemento fijo del derecho internacional humanitario que aparece en varios tratados. Implica que, cuando no existe una ley específicamente al respecto, las armas que "conmocionan la conciencia humana" pueden considerarse ilegales en previsión de una prohibición explícita. También apoya la adopción de una prohibición explícita de las armas que violen los "principios de humanidad y los dictados de la conciencia pública".

La publicación de Scharre plantea una objeción “práctica” a las armas totalmente autónomas que no fue considerada por la conferencia: “Un arma que es incontrolable o vulnerable a la piratería no es muy valiosa para los comandantes militares. De hecho, tal arma podría ser bastante peligrosa si condujera a un fratricidio sistémico ". Esta preocupación por la matanza accidental "a gran escala" es válida, pero el mismo argumento práctico se aplica a las víctimas civiles y no sólo a las militares.

Como señala Scharre, existen muchas preocupaciones con las armas completamente autónomas que existen en varios niveles fundamentalmente diferentes. Estamos de acuerdo en que las discusiones sobre hacia dónde se dirige la tecnología son críticas, pero encontrar una solución permanente es aún más urgente.

El evento de Chatham House fue la primera de varias reuniones importantes que se celebrarán sobre robots asesinos en 2014. El Comité Internacional de la Cruz Roja (CICR) convocará su primera reunión de expertos sobre sistemas autónomos de armas del 26 al 28 de marzo. La primera reunión de la Convención sobre Armas Convencionales (CCW) sobre sistemas de armas autónomas letales se celebrará en la ONU en Ginebra el 13 16-mayo. El relator especial de la ONU, Christof Heyns, informará sobre los robots autónomos letales y otros asuntos al Consejo de Derechos Humanos en Ginebra durante el semana del 10 de junio.

El hecho de que se estén celebrando conferencias como la de Chatham House muestra cómo el desafío de los robots asesinos ha saltado a la cima del control de armas multilateral tradicional y el desarme humanitario, validando la importancia y urgencia del tema y socavando los argumentos que defienden las armas totalmente autónomas. son "inevitables" y "nada de qué preocuparse". La participación fuerte y diversa significa que es poco probable que sea la última conferencia de Chatham House sobre este tema.

Inmediatamente después de la conferencia de Chatham House, la Campaña para detener a los robots asesinos celebró una reunión de estrategia a la que asistieron 50 representantes de ONG. La reunión se centró en la planificación de la estrategia de la campaña para el año próximo en la CCW y el Consejo de Derechos Humanos, así como en cómo iniciar campañas nacionales para influir en el desarrollo de políticas y asegurar el apoyo para una prohibición.

Para más información, ver:

Foto: Patricia Lewis, directora de investigación de seguridad internacional en Chatham House (centro) presentó el primer panel de la conferencia Chatham House sobre tecnologías militares autónomas. c) Campaña para detener los robots asesinos, 24 de febrero de 2014

María

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros