1
¡Conozca a nuestros jóvenes activistas en América Latina!
Los activistas juveniles en América Latina comparten por qué otros jóvenes deberían preocuparse por los robots asesinos.
Cuando los jóvenes se unen, podemos hacer que el mundo escuche.
Los robots asesinos pueden parecer ciencia ficción, pero desafortunadamente son el próximo gran paso en la deshumanización digital; en cimentar los sesgos y desigualdades de las generaciones anteriores. Los robots asesinos cambian la relación entre las personas y la tecnología al entregar la toma de decisiones de vida o muerte a las máquinas. Desafían el control humano sobre el uso de la fuerza, y cuando atacan a las personas, nos deshumanizan, reduciéndonos a puntos de datos.
A menos que actuemos, las generaciones futuras tendrán que vivir con las consecuencias de las decisiones que se están tomando en este momento: el desarrollo de nuevas tecnologías con sesgo algorítmico, el cambio climático, los conflictos injustos, la inequidad social y política y el malestar... El mundo en el que vivimos puede ser complejo pero tenemos más poder para influir en los acontecimientos de lo que pensamos.
Hay muchos problemas globales y sociales que tendremos que enfrentar a lo largo de nuestra vida.
En el futuro, los jóvenes tendrán que afrontar la realidad y las consecuencias de las decisiones que se toman hoy. Los jóvenes de todo el mundo están trabajando para generar cambios y nuevas esperanzas; como agentes de cambio con poder e influencia.
Hemos crecido en la era digital y somos el futuro. Los codificadores, programadores, ingenieros, soldados, diplomáticos, políticos, activistas, organizadores y creativos que tendrán que lidiar con las realidades de los robots asesinos.
Tenemos el poder de moldear el futuro de la tecnología, la industria y la política. Invertir en nuestras comunidades y la humanidad en general. Todos y cada uno de nosotros tenemos la oportunidad de transmitir el mensaje de que la matanza no debe delegarse a las máquinas y que cada vida humana tiene un valor.
Hay problemas éticos, morales, técnicos, legales y de seguridad con las armas autónomas. Ya sea en el campo de batalla o en una protesta, las máquinas no pueden tomar decisiones éticas complejas: no pueden comprender el valor de la vida humana. En caso de un error o un acto ilegal, ¿quién sería responsable? ¿El programador, el fabricante, el comandante militar o la propia máquina? Esta brecha en la rendición de cuentas dificultaría garantizar la justicia, especialmente para las víctimas. Otros problemas con los robots asesinos incluyen el aumento deshumanización digital, sesgos algorítmicos, pérdida de control humano significativo, la reducción del umbral de la guerra, una potencial carrera armamentista desestabilizadora y un cambio fundamental en nuestra relación con la tecnología.
Si se usan, las armas autónomas cambiarán fundamentalmente la naturaleza de cómo se libran las guerras. Conducirían a una guerra más asimétrica y desestabilizarían la paz y la seguridad internacionales al desencadenar una nueva carrera armamentista. También harían recaer más la carga del conflicto sobre los civiles. Pero los riesgos de los robots asesinos no solo amenazan a las personas en conflicto. El uso de estas armas dentro de nuestras sociedades en general también podría tener graves consecuencias. Piense en futuras protestas, control fronterizo, policía y vigilancia, o incluso en otros tipos de tecnologías que usamos. ¿Qué diría sobre nuestra sociedad, y qué impacto tendría en la lucha por la tecnología ética, si permitimos que las máquinas tomen las decisiones finales de vida o muerte? El surgimiento y las consecuencias de las armas autónomas nos afecta a todos.
Algunas personas dicen que los robots asesinos serían más precisos, que serían más rápidos y más eficientes que los soldados humanos, que podrían ir a lugares en los que es difícil operar para los soldados, que podrían ser más precisos al apuntar, que salvarían vidas al reducir las “botas en el suelo”, y actúan como elemento disuasorio. Pero se dijeron cosas similares sobre las minas terrestres, las municiones en racimo y las armas nucleares, armas indiscriminadas que mataron e hirieron a cientos de miles de personas antes de ser prohibidas. Las tecnologías que cambian su propio comportamiento o adaptan su propia programación de forma independiente no se pueden utilizar con un control real. Otras tecnologías pueden presentar una 'caja negra', donde no es posible saber por qué o cómo se toman las decisiones. Según la ley, los comandantes militares deben poder juzgar la necesidad y proporcionalidad de un ataque y distinguir entre civiles y objetivos militares legítimos. Esto significa no solo comprender un sistema de armas, sino también comprender el contexto en el que podría usarse. Las máquinas no entienden el contexto ni las consecuencias: la comprensión es una capacidad humana, y sin esa comprensión, perdemos la responsabilidad moral y socavamos las normas legales existentes. Las amenazas y los riesgos de los robots asesinos superan con creces cualquier ventaja potencial.
En todo el mundo, el impulso sigue creciendo detrás del llamamiento a limitar la autonomía en los sistemas de armas a través de un nuevo tratado internacional. Los robots asesinos se consideran una gran amenaza para la humanidad que requiere una respuesta multilateral rápida y fuerte.
Más de 250 ONG apoyan el movimiento para detener a los robots asesinos. Nuestros llamados a un tratado son compartidos por expertos técnicos, líderes mundiales, instituciones internacionales, órganos parlamentarios y defensores políticos. Más de 110 estados están pidiendo ahora nuevas reglas legales y límites a los sistemas de armas autónomas. Cientos de empresas tecnológicas se han comprometido a nunca participar ni apoyar el desarrollo, la producción o el uso de sistemas de armas autónomas. Miles de expertos en inteligencia artificial y robótica han advertido contra estas armas y han pedido a las Naciones Unidas que tome medidas. También hay una clara preocupación pública. En las encuestas de IPSOS publicadas en 2019 y 2020, más de tres de cada cinco personas manifestaron su oposición al desarrollo de sistemas de armas que seleccionarían y atacarían objetivos sin intervención humana.
El secretario general de la ONU, Guterres, calificó las armas autónomas como “moralmente repugnantes y políticamente inaceptables”, y ha realizado múltiples declaraciones desde 2018 instando a los estados a negociar un tratado. Y el Comité Internacional de la Cruz Roja dijo que se necesita una nueva ley para abordar la autonomía en las armas y ha pedido un tratado que combine prohibiciones y regulaciones. El Parlamento Europeo, los relatores del Consejo de Derechos Humanos y 26 premios Nobel de la Paz han respaldado los llamamientos para prohibir y regular las armas autónomas.
Existe la preocupación de que las empresas de tecnología, especialmente las que trabajan con contratos militares, no tengan políticas para asegurarse de que su trabajo no contribuya al desarrollo de armas autónomas. Un informe de 2019 de PAX encontró que Microsoft y Amazon se encuentran entre las empresas de tecnología de 'mayor riesgo' del mundo que podrían estar poniendo al mundo en riesgo a través del desarrollo de robots asesinos. En 2018, miles de empleados protestaron por el contrato de Google con el Pentágono en una iniciativa llamada Proyecto Maven. La acción de los trabajadores tecnológicos dio como resultado que Google no renovara Project Maven y lanzara un conjunto de principios para guiar su trabajo en relación con la inteligencia artificial. En esos principios éticos de la IA, Google se comprometió a no "diseñar ni implementar inteligencia artificial para su uso en armas".
La tecnología debería usarse para hacer del mundo un lugar mejor, y las empresas tecnológicas como Amazon, Google, Microsoft, Facebook y otras deberían comprometerse públicamente a no contribuir al desarrollo de armas autónomas. Los trabajadores de la tecnología, los especialistas en robótica, los ingenieros y los investigadores lo saben, razón por la cual miles de ellos han firmado cartas abiertas y se han comprometido a exigir una nueva ley internacional para abordar la autonomía en las armas y garantizar un control humano significativo sobre el uso de la fuerza.
Es posible. Muchas universidades tienen instituciones de investigación que trabajan en inteligencia artificial y aprendizaje automático. Si quieres estar seguro, puedes comprobar si tu universidad tiene un posicionamiento ético o una declaración clara de su posición sobre los robots asesinos. O si tienen contratos con ministerios de defensa o empresas privadas que los contrataron para desarrollar tecnologías específicas. Es fundamental que las universidades sean conscientes de cómo se podría utilizar en el futuro la tecnología que desarrollan. El informe PAX "Conflicted Intelligence" advierte sobre los peligros de la investigación y las asociaciones universitarias de inteligencia artificial, y describe cómo las universidades pueden ayudar a prevenir el desarrollo de armas autónomas.
Si parece que su universidad está desarrollando tecnologías relacionadas con robots asesinos, ¡no se asuste! Hay una forma de actuar. En 2018, el Instituto Coreano de Ciencia y Tecnología Avanzada (KAIST) anunció una colaboración con el productor de armas Hanwha Systems. El objetivo era “co-desarrollar tecnologías de inteligencia artificial para aplicarlas a armas militares, uniéndonos a la competencia global para desarrollar armas autónomas”. El anuncio llevó a un boicot por parte de profesores y estudiantes de todo el mundo, y esto finalmente llevó a la universidad a dar garantías públicas de que no desarrollaría robots asesinos. Implementó una política que establece que "la IA en cualquier evento no debe dañar a las personas". La esperanza proviene de la acción. Para obtener más ideas sobre cómo evitar que su universidad desarrolle armas autónomas, consulte el brillante Folleto de acción de las universidades PAX.
Si estás leyendo esto, entonces ya estás contribuyendo al movimiento. Síguenos en las redes sociales. Únete a nuestra Red de Jóvenes. Enseña a las personas que te rodean (amigos, familia, escuela) sobre robots asesinos. Comparte tus pensamientos y opiniones en las redes sociales. La conciencia es el primer paso para el cambio, y cuanto más se difunda el mensaje, más probable será que podamos seguir adelante con más impulso.
1
Los activistas juveniles en América Latina comparten por qué otros jóvenes deberían preocuparse por los robots asesinos.
2
Nuestro coordinador de jóvenes activistas húngaros, Illés Katona, explica por qué los jóvenes deberían tomar medidas para detener a los robots asesinos en el Día Internacional de la Juventud 2020.
3
Marta Kosmyna sobre cómo los grandes inventos pueden tener consecuencias no deseadas. Entonces, ¿cómo protegemos a nuestros robots de ir al lado oscuro? Como estudiantes, ustedes son los hacedores de cambios de hoy y los líderes del mañana. Hablemos sobre el papel de la robótica en la aplicación de la ley y la guerra, y cómo construir robots de los que podamos estar orgullosos.
Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.
Únete