imagen de héroe de menú
AOAV IGw AWS FINAL 150ppi_LR

Expertos en robots asesinos en Davos

AOAV IGw AWS FINAL 150ppi_LR

Ayer (21 de enero de 2015), el Foro Económico Mundial convocó a una panel de discusión en cooperación con TIME para considerar "¿y si los robots van a la guerra?" La sesión de la reunión anual en Davos, Suiza, contó con cuatro oradores: la exjefa de desarme de la ONU, Angela Kane, el presidente de BAE Systems, Sir Roger Carr, el experto en inteligencia artificial (IA) Stuart Russell y el experto en ética de robots Alan Winfield.

A pesar de sus diferentes antecedentes, todos los participantes estuvieron de acuerdo en que los sistemas de armas autónomos plantean peligros y requieren una acción diplomática rápida para negociar un instrumento legalmente vinculante que traza la línea en las armas que no están bajo control humano. En otros paneles se plantearon preocupaciones sobre los robots asesinos, lo que indica un alto nivel de interés en el tema en Davos.

Los panelistas dejaron claro qué es y qué no es un robot asesino. Russell dijo que un arma totalmente autónoma localiza o selecciona un objetivo y dispara sin intervención humana. Carr explicó que podría identificar y seleccionar un objetivo, ajustar su comportamiento si fuera necesario y desplegar fuerza [fuego] sin ninguna intervención humana. Kane observó que aún no existe una definición formal de arma totalmente autónoma, pero también advirtió a los estados que "no le dediquen demasiado tiempo".

Carr describió “el potencial de un mercado de 20 mil millones de dólares” mientras unos 40 países compiten por desarrollar armas autónomas. La Campaña para detener a los robots asesinos ha incluido al menos seis estados que investigan, desarrollan o prueban armas autónomas: EE.UU., China, Israel, Corea del Sur, Rusia y el Reino Unido. Para comprender la diferencia, sería útil que Carr pudiera desarrollar los criterios para los países de la lista larga.

Todos los panelistas coincidieron en que mantener a los robots asesinos en manos de gobiernos responsables y fuera de las manos de grupos armados no estatales será un desafío, si no imposible. Otras consideraciones estratégicas incluyen el llamado valor de disuasión, que los panelistas descartaron. Russell y Carr observaron que las armas totalmente autónomas no podrán cumplir con las leyes de la guerra, y nadie argumentó que pudieran cumplir con los requisitos del derecho internacional humanitario.

Las preocupaciones éticas y morales se encontraban entre las preocupaciones más agudas expresadas, quizás lo más sorprendente del representante de la industria de armas, Carr, quien dijo que las armas totalmente autónomas estarían "desprovistas de responsabilidad" y no tendrían "ninguna emoción ni sentido de misericordia". Advirtió que "si eliminas la ética, el juicio y la moralidad del esfuerzo humano, ya sea en paz o en guerra, llevarás a la humanidad a otro nivel que está más allá de nuestra comprensión".

Winfield dijo que actualmente no es técnicamente posible construir un sistema artificial con agencia moral. Dijo que los científicos preguntan por qué alguien querría intentarlo, ya que al hacerlo cruza una "línea roja ética".

Los panelistas volvieron a la noción de control humano varias veces, enfatizando su importancia central en el debate internacional emergente. Carr dijo enfáticamente que BAE Systems y el gobierno del Reino Unido creen firmemente que eliminar al humano es "fundamentalmente incorrecto" y afirmó que nadie quiere permitir que las máquinas elijan qué, dónde y cómo luchar.

Angela Kane, quien ahora es miembro del Centro para el Desarme y la No Proliferación con sede en Viena, describió cómo los estados pueden usar el marco de la Convención sobre Armas Convencionales (CCW) para negociar otro protocolo sobre armas autónomas. Criticó el ritmo de las deliberaciones diplomáticas en este foro desde 2014 como "glacial" y alentó a Estados Unidos a "tomar la iniciativa" diplomáticamente y "elevar el debate" como lo han hecho Francia y Alemania sobre los robots asesinos en la CCW. Russell describió los próximos 18 meses a dos años como críticos para lograr un proceso de negociación. Carr repetidamente varias veces que "hay que trazar una línea", sobre todo porque es probable que otros usen robots asesinos de manera irresponsable.

Carr describió el liderazgo político como un "gran desafío" para lograr tracción para abordar los robots asesinos porque "las personas que emiten juicios sobre la legislación no comprenden completamente el desafío o el proceso" y recomendó involucrar a los legisladores en un proceso de educación sobre riesgos. Winfield pidió a los miembros de la audiencia y al público que se pusieran en contacto con su representante electo o miembro del parlamento y les dijeran que los robots asesinos no son aceptables para "nosotros, el pueblo".

Antes y durante el panel, Davos realizó una encuesta de tres preguntas sobre robots asesinos. Durante el panel, se presentaron los primeros resultados, encontrando que el 88% de las personas en la sala de Davos y el 55% afuera estuvieron de acuerdo en que si son atacados deben ser defendidos con armas autónomas en lugar de "hijos e hijas" humanos. Los panelistas descartaron este hallazgo como ingenuo. Winfield dijo que reveló "una confianza extraordinaria fuera de lugar y equivocada en los sistemas de inteligencia artificial" porque "incluso un robot bien diseñado se comportará de forma caótica y cometerá errores en un entorno caótico". También existe la preocupación de que el público se adhiera a la exageración de los medios sobre los posibles beneficios y confíe demasiado en dichos sistemas, mientras que las generaciones se están volviendo insensibles a la guerra por los videojuegos.

Según un artículo por Russell publicado en el sitio web de Davos 2016, muchos miembros del Consejo de la Agenda Global sobre Inteligencia Artificial y Robótica del Foro Económico Mundial se han unido a más de 3,000 expertos en IA para firmar un Carta abierta 2015 pidiendo la prohibición de las armas autónomas.

El panel de 2016 sobre robots asesinos no es la primera vez que Davos considera el asunto. En enero de 2015, un panel de tecnología con Russell y Ken Roth de Human Rights Watch dedicó un tiempo considerable a discutir el asunto.

Para más información:

María

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros