imagen de héroe de menú

Preguntas frecuentes

Respuestas a tus preguntas sobre armas autónomas y el trabajo de Stop Killer Robots.

Cada vez más vemos que se desarrollan y utilizan sistemas de armas con funciones autónomas y sistemas de apoyo a la toma de decisiones por IA y de recomendación de objetivos en conflictos en curso, incluso en Gaza y Ucrania. Estos conflictos se están utilizando como bancos de pruebas para tecnologías con niveles crecientes de autonomía. Si bien todavía no hay informes verificados sobre el uso de sistemas de armas que utilizan procesamiento de sensores para elegir un objetivo y decidir dónde y cuándo se producirá un ataque sin la aprobación humana, los sistemas precursores están siendo desplegados por numerosos estados.

Esto es extremadamente preocupante en ausencia de reglas y límites claros que se apliquen específicamente a estas armas y otros sistemas. Especialmente porque los desarrolladores y usuarios están superando los límites de lo que es aceptable según las normas legales y éticas.

Stop Killer Robots pide una nueva ley internacional (es decir, un tratado) que implicaría una combinación de regulaciones y prohibiciones sobre los sistemas de armas autónomos. Si bien las tendencias muestran un aumento en el uso de la autonomía en la guerra, es importante hacer distinciones entre lo que es y lo que no es un arma autónoma. Esto nos permite cabildear eficazmente a favor de un nuevo derecho internacional y al mismo tiempo resaltar las preocupaciones superpuestas entre las armas autónomas, los sistemas de armas con funciones autónomas y otros sistemas militares.

En las secciones siguientes explicamos la diferencia entre estas tecnologías, describimos nuestras posición política y proporcionar antecedentes adicionales sobre nuestra campaña.

 

Robots asesinos

Los sistemas de armas autónomos son armas que detectan y aplican fuerza a un objetivo basándose en entradas de sensores, en lugar de entradas humanas directas. Después de que el usuario humano activa el sistema de armas, hay un período de tiempo en el que el sistema de armas puede aplicar fuerza a un objetivo sin la aprobación humana directa. Esto significa que qué o quién será atacado, y dónde y cuándo ocurrirá ese ataque, están determinados por el procesamiento de sensores, no por humanos. Esta orientación basada en sensores es una función de un sistema de armas. Entonces, un sistema de armas funciona de forma autónoma cuando el procesamiento de sensores puede desencadenar automáticamente una aplicación de fuerza. Vea nuestro recurso 'Explicación de las armas autónomas' para comprender mejor cómo funcionan los sistemas de armas autónomas..

Los robots asesinos son aquellos sistemas de armas autónomos que no pueden utilizarse de acuerdo con las normas legales y éticas y deberían prohibirse. Estos son sistemas que no pueden usarse con un control humano significativo y sistemas que apuntan a los humanos. 

Los robots asesinos aumentan importantes problemas morales, éticos y legales, desafiando el control humano sobre el uso de la fuerza y ​​entregando la toma de decisiones de vida o muerte a las máquinas. También plantean preocupaciones en torno deshumanización digital, el proceso mediante el cual las personas se reducen a puntos de datos que luego se utilizan para tomar decisiones y/o emprender acciones que afectan negativamente sus vidas. 

Los sistemas que funcionan de esta manera amenazan la paz, la seguridad y la estabilidad internacionales. La autonomía en los sistemas de armas disminuye el control del operador humano y socava la rendición de cuentas y la responsabilidad en los conflictos. Estos sistemas de armas también plantean serias preocupaciones sobre el cumplimiento del derecho internacional de los derechos humanos y los principios del derecho internacional humanitario de distinción, proporcionalidad, precaución, y la prohibición de ataques indiscriminados.

Si se utilizan, las armas autónomas cambiarán fundamentalmente la naturaleza de cómo se libran las guerras. Conducirían a una guerra más asimétrica y desestabilizarían la paz y la seguridad internacionales al desencadenar una nueva carrera armamentista. También transferirían aún más la carga del conflicto a los civiles. Pero los riesgos de los robots asesinos no sólo amenazan a las personas en conflicto. El uso de estas armas en nuestras sociedades en general también podría tener graves consecuencias.

Piense en futuras protestas, control fronterizo, vigilancia y vigilancia, o incluso en otros tipos de tecnologías que utilizamos. ¿Qué diría sobre nuestra sociedad (y qué impacto tendría en la lucha por la tecnología ética) si permitiéramos que las máquinas tomen las decisiones finales sobre vida o muerte? La aparición y las consecuencias de las armas autónomas nos afecta a todos.

Algunas personas dicen que los robots asesinos serían más precisos: que serían más rápidos y más eficientes que los soldados humanos, que podrían ir a lugares en los que es difícil para los soldados operar, que podrían ser más precisos a la hora de apuntar, que salvarían vidas al reducir las "botas en el terreno”, y actuar como elemento disuasivo. Pero se dijeron cosas similares sobre las minas terrestres, las municiones de racimo y las armas nucleares: armas indiscriminadas que mataron y hirieron a cientos de miles de personas antes de ser prohibidas.

Las tecnologías que cambian su propio comportamiento o adaptan su propia programación de forma independiente no se pueden utilizar con control real. Otras tecnologías pueden presentar una "caja negra", donde no es posible saber por qué o cómo se toman las decisiones. Según la ley, los comandantes militares deben poder juzgar la necesidad y proporcionalidad de un ataque y distinguir entre civiles y objetivos militares legítimos.

Esto significa no sólo comprender un sistema de armas, sino también comprender el contexto en el que podría utilizarse. Las máquinas no entienden el contexto ni las consecuencias: la comprensión es una capacidad humana y, sin esa comprensión, perdemos la responsabilidad moral y socavamos las normas legales existentes. Las amenazas y riesgos de los robots asesinos superan con creces cualquier ventaja potencial.

Muchos sistemas incorporan diferentes funcionalidades automatizadas (como el reconocimiento automático de objetivos), pero no aplicar fuerza para (atacar) objetivos basándose en las entradas de los sensores. La mayoría de los sistemas de armas que utilizan el reconocimiento automático de objetivos, por ejemplo, actualmente tienen un operador humano que necesita aprobar cualquier ataque (a estos los llamamos sistemas basados ​​en aprobación). Sin embargo, es difícil verificar qué nivel de autonomía tiene un sistema sobre qué función. Para más, ver este informe de PAX sobre las implicaciones legales y morales de las tendencias en autonomía en los sistemas de armas.

Dichos sistemas también plantean preocupaciones morales, legales y éticas, particularmente en torno a la deshumanización digital, y a si el usuario es capaz de emitir un juicio bien fundamentado sobre si los efectos de un ataque están en consonancia con las normas legales y éticas. Nuestro equipo de investigación y seguimiento, Investigación de decisiones automatizada, ha creado un Monitor de armas recurso con ejemplos de sistemas de armas con características que son informativas para las preocupaciones sobre el aumento de la autonomía de las armas.

Las incertidumbres en torno a las capacidades de los sistemas de armas y sus funciones autónomas (o la falta de ellas), y una tendencia hacia una mayor autonomía en la guerra, incluso en los conflictos actuales, Destacar aún más por qué se necesita urgentemente una nueva ley internacional sobre la autonomía de los sistemas de armas..

Los sistemas de recomendación de objetivos o generación de objetivos de IA no son sistemas de armas. Son sistemas de procesamiento de datos que procesan y analizan grandes cantidades de datos a alta velocidad para generar objetivos y hacer recomendaciones de objetivos. Los datos utilizados pueden incluir imágenes de satélite, telecomunicaciones, imágenes de drones, etc. Ejemplos de tales sistemas incluyen El sistema Habsora (también conocido como 'Evangelio') de IsraelIsraelíes sistema lavanday Proyecto Maven de Estados Unidos

Estos sistemas son sistemas de recomendación de objetivos o de "apoyo a la decisión"; no son armas. Como tales, no entran dentro del ámbito de un tratado sobre sistemas de armas autónomos. 

Si bien no son sistemas de armas, estos sistemas siguen planteando importantes cuestiones humanitarias, éticas, morales y jurídicas. Existen serios riesgos de que los humanos confíen demasiado en las recomendaciones del sistema (sesgo de automatización) y puedan volverse demasiado dependientes de los sistemas automatizados sin comprender cómo se generaron las recomendaciones. Además, el deseo de una mayor velocidad puede limitar el compromiso cognitivo de los usuarios con la toma de decisiones. Estos sistemas también pueden crear una 'cortina de humo' de rendición de cuentas sobre quién sería responsable si las recomendaciones condujeran a violaciones del DIH.

Para obtener más información sobre los problemas que plantean dichos sistemas de recomendación de objetivos, lea El artículo de Lucy Suchman sobre 'la máquina de matar algorítmicamente acelerada'y Artículo de Elke Schwarz y Neil Renic, 'Inhuman-on-the-loop: AI-targeting y erosión de la restricción moral'.

Sistemas de "control de fuego", que implican una serie de componentes que trabajan juntos para ayudar a un sistema de armas a distancia a apuntar, rastrear y atacar, como Sistemas SMASH de SmartShooter and Los sistemas de AimLock, se puede integrar con rifles de asalto y otras armas. Estos sistemas pueden utilizar algoritmos (específicamente reconocimiento de imágenes) para detectar, clasificar o rastrear objetivos, "fijarse" en un objetivo elegido por un operador humano y disparar a las órdenes de un operador humano. Como hay un ser humano que toma la decisión de desplegar fuerza (atacar) a un objetivo, estas no son armas autónomas. Si bien estos sistemas no son sistemas de armas autónomos, también plantean cuestiones morales, éticas y legales, así como preocupaciones en torno a la deshumanización digital.

Hay muchos tipos de robots que pueden utilizarse para otros fines militares, como robots para desactivación de bombas, transporte de equipo militar, remoción de minas, búsqueda y rescate, vigilancia, etc.

Algunos robots, como 'perros' robot a control remoto, han recibido una atención significativa en los últimos años, particularmente debido a las preocupaciones sobre su potencial armamentismo y uso. por militares and por las fuerzas policiales. Como ocurre con todos los sistemas de armas, estos robots sólo deben utilizarse de acuerdo con las normas legales y éticas.

 El creciente uso de este tipo de robots con fines militares. and Las incertidumbres en cuanto a sus capacidades, el alcance de sus funciones autónomas y su potencial armamento resaltan aún más por qué se necesita urgentemente una nueva ley internacional sobre la autonomía de los sistemas de armas. 

De manera similar, el uso de tales robots en contextos no conflictivos, como la vigilancia policial y el control fronterizo, plantea interrogantes para la protección de los derechos humanos y la aplicación del derecho internacional de los derechos humanos.

Mientras que seis empresas de robótica se han comprometido previamente a no permitir el uso de armas en sus robots., el continuo desarrollo de sistemas robóticos para uso militar demuestra que la autorregulación no será suficiente para hacer frente a los desafíos que plantean las tecnologías emergentes a la protección de los civiles y al derecho internacional humanitario.

Nuestra campaña

Detener Robots Asesinos es una coalición global de más de 250 organizaciones no gubernamentales internacionales, regionales y nacionales y socios académicos que trabajan en más de 70 países garantizar un control humano significativo sobre el uso de la fuerza mediante el desarrollo de un nuevo derecho internacional. También tenemos un Red de jóvenes que reúne a jóvenes líderes de todo el mundo para colaborar y apoyar nuestros esfuerzos para asegurar un futuro sin asesinatos automatizados.

La campaña Stop Killer Robots pide una nueva ley internacional sobre sistemas de armas autónomos. Este nuevo tratado debería prohibir los sistemas de armas autónomos. que apuntan directamente a los humanos, y sistemas de armas autónomos que no pueden utilizarse con fines significativos. control humano (estos son los que llamamos robots asesinos). El tratado debería regular todos los demás sistemas de armas autónomos mediante la creación de obligaciones positivas (cosas que los estados deben hacer para garantizar el cumplimiento, o medidas que deben tomar para prevenir violaciones del derecho internacional), incluidas reglas específicas sobre previsibilidad, comprensibilidad y derechos temporales y limitaciones espaciales. El Comité Internacional de la Cruz Roja  Recomienda también que se prohíban expresamente los sistemas diseñados o utilizados para atacar a seres humanos y los sistemas de armas autónomos impredecibles, y que todos los demás sistemas de armas autónomos estén sujetos a obligaciones positivas.

Stop Killer Robots, al igual que el Comité Internacional de la Cruz Roja, está pidiendo nuevas normas internacionales jurídicamente vinculantes para prohibir y regular los sistemas de armas autónomos, en lugar de una "prohibición" total. Esto se debe a que un nuevo derecho internacional en forma de una combinación de prohibiciones y regulaciones tendría un alcance más amplio que una prohibición, podría abarcar más cuestiones de interés y crearía el tratado internacional más sólido posible. Además de abordar únicamente la prohibición de armas autónomas fundamentalmente inaceptables, un tratado debería incluir reglas para garantizar que otras armas con autonomía se utilicen de acuerdo con normas legales y éticas.

Nuevas normas internacionales en forma de instrumento jurídicamente vinculante crearían un marco duradero y eficaz para la prohibición y regulación del desarrollo y uso de sistemas de armas autónomos. Un instrumento con un alcance amplio, una estructura lógica y líneas normativas claras –como la prohibición de atacar a personas– establecerá un estándar convincente incluso para los Estados que no se sumen a él en un principio. Un instrumento estructurado en esta línea configurará el desarrollo de las tecnologías del futuro.

En todo el mundo sigue creciendo el impulso detrás del llamado a limitar la autonomía de los sistemas de armas a través de un nuevo tratado internacional. Los robots asesinos se consideran una gran amenaza para la humanidad que requiere una respuesta multilateral rápida y fuerte. Más recientemente, en noviembre de 2023, el Se adoptó la primera resolución de la ONU sobre robots asesinos. en la Asamblea General de las Naciones Unidas. Esto siguió a un serie de posiciones regionales (es decir, declaraciones y comunicados) adoptados sobre robots asesinos a principios de 2023. Actualmente, la mayoría de los estados Apoyar la negociación de nuevas reglas para los sistemas de armas autónomos., al igual que el Secretario General de la ONU y el Presidente del Comité Internacional de la Cruz Roja, quienes hizo un llamamiento conjunto histórico en octubre de 2023 pidiendo a los estados que negocien un nuevo instrumento jurídicamente vinculante para 2026.

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Únete

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Únete