imagen de héroe de menú
Un millennial se sienta en la esquina de una habitación, leyendo, con los auriculares puestos, rodeado de muebles millennials que incluyen plantas de interior.

Cinco razones por las que los millennials necesitan prohibir los robots asesinos

Caroline Fox realizó una pasantía en Mines Action Canada como asistente de comunicaciones para la Campaña para detener los robots asesinos entre septiembre y diciembre de 2019, mientras realizaba estudios de posgrado en la Universidad de Ottawa.

Foto de Austin Distel.

La visión de los Millennials como futuros líderes en los problemas mundiales es una noción inquietante para las generaciones mayores. Acuñado como vago, desmotivado y tardío debido a la larga línea de Starbucks, la generación Millennial tiene diferentes prejuicios en su contra cuando ingresan a la fuerza laboral.

Sin embargo, a pesar de nuestro scÉpticos, estamos viendo el surgimiento de una fuerza laboral dirigida por millennials, y pronto seremos líderes internacionales de millennials. Este cambio demográfico afectará en gran medida a los problemas que reciben la mayor atención. En pocas palabras, somos los futuros tomadores de decisiones de nuestra nación, y lo que decimos importa, vale.

Uno de los mayores desafíos que enfrentan todos los líderes internacionales es garantizar la seguridad de sus ciudadanos. Esto incluye la vigilancia de las comunidades locales, la seguridad de las fronteras nacionales y la participación en la guerra internacional.

Cada vez más, una minoría de países ha comenzado a financiar el desarrollo de armas totalmente autónomas, también conocidas como "robots asesinos"; sistemas construidos para seleccionar objetivos y matar sin control humano. Los robots asesinos plantean riesgos importantes para la humanidad. Aquí hay cinco razones por las que los millennials deben prohibir los robots asesinos.

Las acciones de los robots asesinos se guiarán por números. Las armas completamente autónomas, en su nivel más básico, serán máquinas con procesos. A diferencia de la toma de decisiones en tiempo real, la participación de robots en la vigilancia o la guerra significa actuar en función de algoritmos preestablecidos, algo así como el escritorio de su familia que necesita una actualización constante. Estos algoritmos ayudan al sistema de radar de la computadora a examinar su entorno para determinar si el perfil del objetivo está en medio.

Pero no existe un mecanismo reflectante. Los robots asesinos se ejecutarían en un "proceso de análisis de sensor-fuerza" mediante el cual la máquina recopila datos sobre la fuente externa, analiza la fuente en función de su programación interna y aplica fuerza si se cumplen las condiciones para hacerlo (más información en www.articulo36.org). Sin embargo, el aprendizaje automático en relación con el análisis de datos sigue sin estar claro, lo que aumenta la complejidad de este problema. Esto pone en tela de juicio la ética detrás de los códigos que programan un sistema para matar.

Todos lo hemos escuchado antes: los millennials también sensible. La fuerza impulsora detrás de este malentendido es el grado en que las generaciones más jóvenes etiquetan el comportamiento normalizado como incorrecto.

Nuestro enfoque no es perfecto. Después de todo, también somos la generación que se comió Tide Pods. Sin embargo, no hay duda de que los Millennials luchan por la igualdad entre los grupos vulnerables que enfrentan discriminación sistémica, incluidas las mujeres, las personas de color, las comunidades LGBTQ +, las personas que trabajan con un salario mínimo y diferentes grupos religiosos.

Los robots asesinos desafían estos esfuerzos a través de algoritmos preestablecidos que identifican el objetivo de la muerte. Estos algoritmos están latentes con sus propios sesgos que dictan la producción de la maquinaria. Un robot, a diferencia de un humano, no puede sabes qué quién es una persona específica o qué está haciendo. Más bien, escanean factores de identificación que coinciden con los criterios que se programaron en su sistema operativo. Esta programación se verá obligada a utilizar características como el color de la piel, la estructura ósea y las marcas faciales, la ubicación o el patrón de comportamiento. Esto abre la puerta a posibles fallas cuando un robot tiene que distinguir entre soldados y civiles que parecen similares, pero tienen motivos completamente diferentes.

Todos hemos pasado por eso, Millennials. Vas a abrir tu computadora portátil en tu clase matutina, solo para descubrir que el sistema se ha bloqueado. Tu tarea escolar se ha ido y la vida como la conoces se acabó.

Los contratiempos de hardware son el "común poco común". Solo suceden de vez en cuando, pero inevitablemente te encontrarán. Lo sabemos porque el hardware no es perfecto, a pesar del nivel de formación especializada que hay detrás de los ingenieros, incluso de los MacBook más sofisticados. Sin embargo, en comparación con un robot asesino, el sistema de una MacBook es bastante simple. El peligro con las armas totalmente autónomas es la responsabilidad que se le impone a un robotista, ingeniero o programador con respecto al producto final. Si no hemos descubierto cómo crear una computadora portátil básica sin fallas, ¿cómo podemos explicar la ejecución impecable de una máquina en una situación en la que lo que está en juego es más crítico que un estudiante en el aula?

Uno de los argumentos básicos sobre la participación en círculos de guerra en torno al valor. El valor de las ganancias políticas y económicas es primordial para este debate. ¡Sabemos todo sobre las ganancias personales, Millennials! Es como cuando los adultos nos llaman egoístas.

El auge de los robots asesinos se promueve a sí mismo en torno a la idea de que los ciudadanos ya no tendrán que participar en la guerra física, haciendo así la guerra más precisa y minimizando o eliminando las bajas humanas de la ecuación. Pero esto no es del todo cierto.

Hay muchas preguntas sobre los robots asesinos que incluso los ingenieros, roboticistas y legisladores más sofisticados aún tienen que responder. Hay muy poca evidencia que sugiera que las armas autónomas tendrán un impacto positivo en el impacto civil. De hecho, es probable que los civiles en países devastados por la guerra corran un mayor riesgo de ser etiquetados erróneamente como objetivos debido a las similitudes en apariencia con los combatientes. Considere, por ejemplo, los uniformes de combate de ISIS, que incluyen máscaras negras que cubren todo menos los ojos. Esto plantea riesgos para las mujeres cercanas que usan niqabs o burkas negros. Además, esto pone en peligro a los niños cercanos. Los civiles de los países que despliegan robots asesinos también son motivo de preocupación. Por ejemplo, si se desarrollan y utilizan armas totalmente autónomas, teóricamente podrían utilizarse en la vigilancia nacional o reemplazarlas. Esto pone a las comunidades vulnerables que enfrentan una vigilancia excesiva o violencia policial en riesgo de ser monitoreadas por una fuerza policial robótica. ¿Cómo esperamos que un arma completamente autónoma responda a una llamada al 911 que proporciona poca descripción sobre la identidad del perpetrador? ¿Podemos esperar que un robot sepa cómo lidiar con un ataque imprevisto si debe identificar al objetivo en tiempo real?

Este tipo de preguntas quedan sin respuesta. En pocas palabras, estamos desarrollando maquinaria a ciegas.

No es ningún secreto que los desafíos que enfrenta el bienestar a largo plazo de los Millennials son únicos en comparación con las preocupaciones globales de las generaciones pasadas. No se trata de contrarrestar los impactos de las tragedias mundiales pasadas. Después de todo, ningún Millennial se enfrentaría bien a una depresión económica masiva. Ese tipo de sufragio simplemente no es el contenido que buscan nuestros seguidores de Instagram.

Sin embargo, a diferencia de nuestros predecesores, los Millennials enfrentan un desafío global que está completamente fuera del control de las manos de cualquier individuo: el cambio climático. Sin el compromiso colectivo de todos los actores, tan pequeños como los hábitos cotidianos individuales con las prácticas de producción a gran escala de las corporaciones multinacionales, los desastres naturales eventualmente nos destruirán. El fin de la humanidad será impersonal, un mero resultado de la acumulación de combustibles fósiles nocivos, desechos tóxicos y una falta total de respeto a los hábitats de diferentes especies.

Bajo esta luz, comenzamos a ver muchos paralelismos entre los efectos del cambio climático y los robots asesinos. El cambio climático, como un robot, no reconoce al ser humano como una entidad intrínseca. Un ser humano es un pequeño engranaje en el sistema más grande que el cambio climático busca destruir. No considera los resultados de los transeúntes en su camino. Del mismo modo, los robots asesinos no reconocen a los objetivos como humanos, sino más bien como un objeto para atacar. Su misión general no tiene en cuenta la muerte como un evento significativo, sino más bien la finalización de una tarea. A lo que se reduce, Millennials, es si queremos que los soldados, ya sean de maquinaria o humanos, comprendan el significado de una vida. Deberíamos esperar un comportamiento diligente similar al que esperaríamos de la policía o el ejército, dado la autoridad del estado para acabar con la vida de una persona.

Es bastante simple, Millennials. Los robots asesinos plantean más riesgos que triunfos. El papel de la tecnología nunca fue reemplazarnos, sino ayudarnos en las tareas del día a día. Necesitamos mirar las circunstancias y preguntarnos si este es el tipo de mundo en el que queremos vivir.

El cambio está a nuestro alcance. Asegurémonos de llegar a tiempo para que suceda.

Visite stopkillerrobots.org para obtener más información sobre robots asesinos y lo que puede hacer al respecto. #EquipoHuman

Gráfico con Caroline Fox extendiendo su mano hacia la cámara con 'Stop Killer Robots' en su mano.

Caroline Fox realizó una pasantía en Mines Action Canada como asistente de comunicaciones para la Campaña para detener los robots asesinos entre septiembre y diciembre de 2019, mientras realizaba estudios de posgrado en la Universidad de Ottawa.


Artículo original publicado en Medium.com.

Caroline fox

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros