Las normas de género y las estructuras de poder patriarcal afectan la forma en que vemos, usamos y nos relacionamos con las armas, la guerra y la violencia. Las armas autónomas podrían utilizarse para cometer actos de violencia de género y aumentar la desigualdad como resultado de sesgos algorítmicos o perfiles de objetivos.
La nueva ley internacional que regula las armas autónomas y prohíbe los sistemas que tienen como objetivo a las personas o que operan sin un control humano significativo apoyaría los objetivos de la política exterior feminista al centrarse en la seguridad humana y prevenir la militarización de la tecnología emergente y los avances tecnológicos.
¿Qué tiene que ver el género con eso?
La violencia de género podría fácilmente ser promulgada por armas autónomas que seleccionan y atacan a los objetivos sobre la base de los perfiles de los objetivos. Ya hemos visto perfiles de objetivos basados en el género en el uso de armas semiautónomas, como drones armados, que se han utilizado para atacar a militantes (o contarlos como objetivos legítimos en el registro de víctimas) en función de su apariencia como "hombres en edad militar". ”. En este caso, las suposiciones sobre los hombres como combatientes potenciales o activos refuerzan las normas de género con respecto a la violencia masculina, lo que a su vez los legitima como objetivos, alimentando el ciclo de la violencia de género.
Los defensores de los robots asesinos argumentan que las armas autónomas no tendrían hambre, se cansarían, sentirían dolor, miedo o ira, y no actuarían en defensa propia ni tomarían decisiones precipitadas en el calor del momento. Pero como objetos inanimados, esos sistemas de armas también carecerían de empatía, conciencia, emoción y comprensión de los derechos humanos y la dignidad humana.
Estas herramientas de juicio humano son cruciales para tomar las complejas decisiones éticas y morales que se requieren de los soldados en combate.
El desarrollo y uso de armas autónomas solo deshumanizaría aún más la guerra y la matanza, y perpetuaría las estructuras patriarcales de violencia militar.
Las armas autónomas seleccionarían y atacarían objetivos sobre la base del procesamiento de sensores, en lugar de un comando humano inmediato. En esencia, esto reduciría a los humanos a patrones de datos o líneas de código. Esto se vuelve aún más peligroso si se tiene en cuenta el sesgo de que podrían programarse armas autónomas.
Se ha demostrado que las tecnologías emergentes como el reconocimiento facial y vocal tienen altas tasas de fracaso en el reconocimiento de mujeres, personas de color y personas con discapacidades. El uso de armas autónomas que dependen de estas tecnologías probablemente resultaría en un mayor riesgo para estos grupos y para cualquiera que no se ajuste a la 'norma' determinada por el programador.
Los robots asesinos no acabarían con la violencia sexual en los conflictos, pero probablemente la perpetuarían. Las armas autónomas, desprovistas de la compasión humana o la duda, no cuestionarían una orden de violación, si están programadas para hacerlo. La violación y la violencia sexual se utilizan como armas en los conflictos y ya son ordenadas por los Estados y los grupos armados como una cuestión de política estratégica y para infligir terror. Las armas autónomas tendrían incluso menos probabilidades de desobedecer las órdenes de cometer violaciones que los soldados humanos, como resultado de su falta de conciencia, empatía o comprensión del acto o las consecuencias de la violencia sexual.
Asegurar un futuro feminista
En los últimos años, un número pequeño, pero creciente, de gobiernos está adoptando políticas exteriores feministas, incluidos Canadá, Francia, México y Suecia. Si bien estas políticas se están implementando en diversos grados y de diversas maneras, garantizar un control humano significativo sobre el uso de la fuerza respaldaría el enfoque de política exterior feminista y fortalecería la paz y la seguridad mundiales.