imagen de héroe de menú

Problemas con las armas autónomas

No esperábamos que se necesitara una campaña para detener a los robots asesinos en el mundo, pero lo es.

La autonomía en los sistemas de armas es un problema profundamente humano. Los robots asesinos cambian la relación entre las personas y la tecnología al entregar la toma de decisiones de vida o muerte a las máquinas. Desafían el control humano sobre el uso de la fuerza, y cuando se dirigen a las personas, nos deshumanizan, reduciéndonos a puntos de datos.

Pero las tecnologías son diseñadas y creadas por personas. Tenemos la responsabilidad de establecer límites entre lo que es aceptable y lo que es inaceptable. Tenemos la capacidad para hacer esto, para proteger nuestra humanidad y asegurarnos de que la sociedad en la que vivimos, que seguimos construyendo, sea una sociedad en la que la vida humana sea valorada, no cuantificada.

Texto alternativo de la imagen

Los gobiernos y las empresas están desarrollando rápidamente sistemas de armas con una autonomía cada vez mayor utilizando nueva tecnología e inteligencia artificial. Estos 'robots asesinos' podrían usarse en zonas de conflicto, por las fuerzas policiales y en el control de fronteras. Pero no se debe permitir que una máquina tome una decisión sobre la vida o la muerte.

Expertos de la ONU han informado al Consejo de Seguridad sobre el uso reciente de “armas autónomas letales” en el conflicto de Libia. El uso de estas municiones, sin límites específicos sobre cómo funcionan o cómo se usan, muestra que la necesidad de una nueva ley es urgente.

 

Nueve problemas con robots asesinos 

(y una solución)

 

1. Deshumanización digital

La tecnología debería empoderar a todos los miembros de la sociedad, no reducirnos, a estereotipos, etiquetas, objetos. Utilizadas contra personas, las tecnologías que permiten armas autónomas perfilarán, emparejarán patrones y procesarán automáticamente a los seres humanos como datos. La verdad es que las máquinas no pueden reconocer a las personas como "personas". Entonces, las máquinas que deciden si someternos o no a un ataque es la forma definitiva de deshumanización digital.

Si permitimos esta deshumanización, lucharemos por protegernos de las decisiones mecánicas en otras áreas de nuestras vidas. Necesitamos prohibir los sistemas de armas autónomos que se usarían contra las personas, para evitar este deslizamiento hacia la deshumanización digital.

2. Sesgos algorítmicos

Permitir sistemas autónomos que se dirijan a las personas significaría permitir que los sistemas refuercen o agraven las estructuras de desigualdad existentes. Los prejuicios en nuestra sociedad viven en nuestros conjuntos de datos, nuestras categorías, nuestras etiquetas y nuestros algoritmos. Matar personas con base en etiquetas e identidades preprogramadas siempre nos empujará a reforzar los prejuicios o las estructuras de opresión. Las nuevas tecnologías problemáticas también se prueban y utilizan a menudo primero en comunidades marginadas. Deberíamos desafiar las estructuras de la desigualdad, no incorporarlas a las armas.

Texto alternativo de la imagen

3. Pérdida de un control humano significativo

La pérdida de un control humano significativo significa que los usuarios de armas ya no están completamente comprometidos con las consecuencias de sus acciones. Y esto significa menos espacio para la "humanidad". Ya sea en el campo de batalla o en una protesta, las máquinas no pueden tomar decisiones éticas complejas, no pueden comprender el valor de la vida humana. Las máquinas no comprenden el contexto ni las consecuencias: la comprensión es una capacidad humana, y sin esa comprensión perdemos la responsabilidad moral y socavamos las reglas legales existentes.

Asegurar un control humano significativo significa comprender las tecnologías que usamos, comprender dónde las estamos usando y estar completamente comprometido con las consecuencias de nuestras acciones.

4. Falta de juicio y comprensión humanos 

Las personas no pueden emitir juicios significativos si no comprenden los sistemas que utilizan o los contextos en los que los utilizan.

Los sistemas autónomos son cada vez más complejos. Las formas de inteligencia artificial y aprendizaje automático pueden presentar barreras para la comprensión y la previsibilidad. Las tecnologías que cambian su propio comportamiento o adaptan su propia programación de forma independiente no pueden utilizarse con un control real. Otras tecnologías pueden presentar una 'caja negra', donde no es posible saber por qué o cómo se toman las decisiones. Esto puede producir sistemas que son muy efectivos para completar ciertas tareas, pero su uso no es apropiado cuando una decisión inesperada puede significar la vida o la muerte. Necesitamos asegurarnos de que los sistemas sean suficientemente explicables y prohibir los sistemas que no se pueden utilizar con un control humano significativo.

Incluso los sistemas autónomos simples presentan desafíos. Según la ley, los comandantes militares deben poder juzgar la necesidad y proporcionalidad de un ataque y distinguir entre civiles y objetivos militares legítimos. Esto significa no solo comprender un sistema de armas, sino también comprender el contexto en el que podría usarse. En un área más amplia, o en un período de tiempo más largo, el "contexto" se vuelve más complejo: la situación se vuelve cada vez más impredecible. Se necesitan nuevas reglas legales para limitar esa imprevisibilidad y asegurar un control humano significativo.

Texto alternativo de la imagen

5. Falta de responsabilidad

Las personas, no las máquinas, deben rendir cuentas. Pero si las personas no toman decisiones significativas, no se las puede considerar responsables de las consecuencias de sus acciones. Sería injusto responsabilizar a una persona por las acciones de un sistema de armas autónomo que opera más allá de su control efectivo. Si estamos comprometidos con la rendición de cuentas, entonces necesitamos reglas que aseguren que las personas adecuadas asuman la responsabilidad en el uso de la fuerza.

6. Incapacidad para explicar qué sucedió o por qué

Estos problemas de control y rendición de cuentas corren el riesgo de dejar a las personas perjudicadas sin un lugar al que acudir. Si no podemos explicar cómo ocurrieron los resultados, entonces estamos dejando a las víctimas en la oscuridad, sin explicación ni responsabilidad. Las personas que pierden a familiares y seres queridos en un conflicto rara vez obtienen justicia por sus pérdidas. Deberíamos trabajar para corregir eso, no programar este descuido a través de sistemas que no podemos explicar o controlar.

7. Reducir el umbral de la guerra

Los desafíos planteados por los métodos existentes de guerra a distancia también se ampliarían a través de una mayor autonomía, con los seres humanos cada vez más distanciados del uso de la fuerza. Los estados han utilizado los drones armados existentes para aplicar fuerza letal en situaciones en las que no lo hubieran hecho antes, llevando el miedo y el horror del conflicto a lugares alejados de los campos de batalla activos.

Es comprensible que todos los estados quieran reducir los riesgos de conflicto para sus propias tropas. Pero si bien la sustitución de personas por máquinas puede hacer que la acción militar sea más aceptable políticamente en "casa", puede facilitar la entrada de conflictos. También traslada la carga del daño aún más a las poblaciones civiles.

Texto alternativo de la imagen

8. Una carrera de armamentos desestabilizadora

Las grandes potencias militares están utilizando las tensiones políticas y las rivalidades de poder internacionales como justificación para invertir en tecnologías que reducen el control humano. Lo hemos escuchado argumentar desde ambos lados: Necesitamos más autonomía en caso de que nuestros adversarios tengan más autonomía '. Los fabricantes de armas están ansiosos por alentar esa retórica para aumentar las ganancias. Estas dinámicas pueden beneficiar a algunos, pero son malas para el resto de nosotros: gastar dinero en gastos militares innecesarios, generar tensiones y aumentar el riesgo de conflicto (ya sea deliberado o por una respuesta autónoma accidental). Necesitamos más humanidad en nuestras relaciones internacionales, no más deshumanización.

9. Nuestra relación con la tecnología

La tecnología puede y debe desarrollarse para promover la paz, la justicia, los derechos humanos y la igualdad. Todos debemos asumir la responsabilidad del desarrollo y el uso de la tecnología y del papel que desempeña en nuestras vidas. Decidir trazar una línea contra las máquinas que toman decisiones para matar personas, trazar una línea contra las tecnologías que aplican la fuerza sin un control humano real, proporciona una prueba fundamental para nuestra relación con la inteligencia artificial y las nuevas tecnologías en todos los ámbitos de la sociedad. Si no trazamos estas líneas ahora, será más difícil a medida que los estados y las empresas comerciales inviertan cada vez más en el desarrollo. Rechazar la deshumanización digital y garantizar un control humano significativo sobre el uso de la fuerza son pasos clave para construir una relación más empoderadora con la tecnología para todas las personas ahora y en el futuro.

Una solución clara

Estamos pidiendo una nueva ley internacional porque las leyes que prohíben y regulan las armas crean límites para los gobiernos y las empresas entre lo que es aceptable y lo que es inaceptable. Podemos impulsar esto con mayor impulso utilizando nuestra voz colectiva y exigiendo públicamente un cambio.

Podemos detener a los robots asesinos

 

Participa

¡Vamos!
Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros