imagen de héroe de menú
AOAV IGw AWS FINAL 150ppi_LR

Davos considera robots asesinos

AOAV IGw AWS FINAL 150ppi_LR

En el Foro Económico Mundial de 2015 en Davos, Suiza, se plantearon preocupaciones sobre armas totalmente autónomas o "robots asesinos", con varias publicaciones y oradores que abordaron el tema. Esta es la primera vez que la reunión anual de líderes mundiales del gobierno, las empresas y la sociedad civil ha considerado los desafíos que plantean los sistemas de armas que seleccionan objetivos y usan la fuerza sin más intervención humana.

Varias publicaciones publicadas antes del Foro Económico Mundial de 2015 analizaron el desafío, incluida la publicación del Foro de 2015. Riesgos globales informe, que incluye una breve sección bajo el título “Inteligencia artificial: el surgimiento de las máquinas” (página 40). Según el informe, "varias naciones están trabajando para el desarrollo de sistemas de armas autónomos letales que puedan evaluar información, elegir objetivos y abrir fuego sin intervención humana", lo que plantea "nuevos desafíos para el derecho internacional y la protección de los no combatientes". El informe encuentra una falta de claridad en cuanto a quién sería responsable si un sistema autónomo de armas viola el derecho internacional y señala que “se necesita un trabajo proactivo y orientado al futuro en muchos campos para contrarrestar 'la tendencia del avance tecnológico a superar el control social de tecnología.'"

Estos hallazgos se repiten en un 15 de enero post publicado por el Foro y el profesor Stuart Russell de la Universidad de California en Berkeley, quien a principios de este mes firmó un carta abierta instando a que se investigue cómo aprovechar los beneficios y el potencial de la inteligencia artificial "al tiempo que se evitan los posibles escollos". Russell es coautor de un prioridades de investigación memorando emitido junto con la carta abierta que enumera preguntas sobre armas autónomas entre otras preocupaciones a ser estudiadas.

En un panel del Foro Económico Mundial sobre cómo los avances en inteligencia artificial, sensores inteligentes y tecnología social "cambiarán vidas" el 22 de enero, Russell advirtió que las armas completamente autónomas podrían cambiar la naturaleza de la guerra por completo y preguntó a la audiencia: "¿Es esta la dirección? ¿queremos ir? No estoy muy seguro."

El panel de hombres de una hora de duración fue moderado por la presentadora, la Sra. Hiroko Kuniya, en nombre de Japan Broadcasting Corporation NHK.

Otro orador en el panel fue ken roth, el director ejecutivo de Human Rights Watch, que es cofundador de Campaign to Stop Killer Robots. Abordó preocupaciones legales, éticas y de proliferación y preguntó si las máquinas tienen "el refinamiento de juicio para decidir quién es un combatiente". Roth describió el "impedimento clave para la guerra" como "empatía humana" y expresó su escepticismo de que "una mejor programación" pueda abordar las preocupaciones planteadas, advirtiendo, "hay juicios morales en juego".

Roth observó que para ciertas tecnologías “es mucho mejor mantener al genio en la botella”, porque “una vez que sale, es mucho más difícil volver a entrar”, dando el ejemplo de las armas nucleares. Instó a una prohibición preventiva de armas totalmente autónomas y describió el ejemplo positivo establecido hace 20 años por el Convención sobre armas convencionales cuando las naciones prohibieron preventivamente los láseres cegadores porque encontraron tan espantosa la perspectiva de armas que los cegarían permanentemente.

Un participante del Foro Económico Mundial que asistió al panel fue un empresario noruego. Johan H. Andresen, presidente del consejo de ética del Norwegian Petroleum Fund. En una entrevista con Norwegian Business Daily DN (Dagens Næringsliv), Andresen dijo que le preocupa la perspectiva de armas totalmente autónomas. Por recomendación del consejo de ética, el Fondo ha desinvertido de empresas involucradas en la producción de minas terrestres antipersonal, municiones en racimo y armas nucleares. Cuando se le preguntó si el consejo debería proponer la exclusión de los productores de armas autónomas, Andresen dijo que espera que no sea necesario tomar esa decisión si los esfuerzos para prohibir preventivamente estas armas tienen éxito.

Para más información:

María

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros