imagen de héroe de menú

Robots jóvenes y asesinos

Cuando los jóvenes se unen, podemos hacer que el mundo escuche.

Los robots asesinos pueden parecer ciencia ficción, pero desafortunadamente son el próximo gran paso en la deshumanización digital; en cimentar los sesgos y desigualdades de las generaciones anteriores. Los robots asesinos cambian la relación entre las personas y la tecnología al entregar la toma de decisiones de vida o muerte a las máquinas. Desafían el control humano sobre el uso de la fuerza, y cuando atacan a las personas, nos deshumanizan, reduciéndonos a puntos de datos.

A menos que actuemos, las generaciones futuras tendrán que vivir con las consecuencias de las decisiones que se están tomando en este momento: el desarrollo de nuevas tecnologías con sesgo algorítmico, el cambio climático, los conflictos injustos, la inequidad social y política y el malestar... El mundo en el que vivimos puede ser complejo pero tenemos más poder para influir en los acontecimientos de lo que pensamos.

 

Texto alternativo de la imagen

Hay muchos problemas globales y sociales que tendremos que enfrentar a lo largo de nuestra vida.

En el futuro, los jóvenes tendrán que afrontar la realidad y las consecuencias de las decisiones que se toman hoy. Los jóvenes de todo el mundo están trabajando para generar cambios y nuevas esperanzas; como agentes de cambio con poder e influencia.

Hemos crecido en la era digital y somos el futuro. Los codificadores, programadores, ingenieros, soldados, diplomáticos, políticos, activistas, organizadores y creativos que tendrán que lidiar con las realidades de los robots asesinos.

Tenemos el poder de moldear el futuro de la tecnología, la industria y la política. Invertir en nuestras comunidades y la humanidad en general. Todos y cada uno de nosotros tenemos la oportunidad de transmitir el mensaje de que la matanza no debe delegarse a las máquinas y que cada vida humana tiene un valor.


 

Preguntas Frecuentes

Hay problemas éticos, morales, técnicos, legales y de seguridad con las armas autónomas. Ya sea en el campo de batalla o en una protesta, las máquinas no pueden tomar decisiones éticas complejas: no pueden comprender el valor de la vida humana. En caso de un error o un acto ilegal, ¿quién sería responsable? ¿El programador, el fabricante, el comandante militar o la propia máquina? Esta brecha en la rendición de cuentas dificultaría garantizar la justicia, especialmente para las víctimas. Otros problemas con los robots asesinos incluyen el aumento deshumanización digital, sesgos algorítmicos, pérdida de control humano significativo, la reducción del umbral de la guerra, una potencial carrera armamentista desestabilizadora y un cambio fundamental en nuestra relación con la tecnología.

Si se usan, las armas autónomas cambiarán fundamentalmente la naturaleza de cómo se libran las guerras. Conducirían a una guerra más asimétrica y desestabilizarían la paz y la seguridad internacionales al desencadenar una nueva carrera armamentista. También harían recaer más la carga del conflicto sobre los civiles. Pero los riesgos de los robots asesinos no solo amenazan a las personas en conflicto. El uso de estas armas dentro de nuestras sociedades en general también podría tener graves consecuencias. Piense en futuras protestas, control fronterizo, policía y vigilancia, o incluso en otros tipos de tecnologías que usamos. ¿Qué diría sobre nuestra sociedad, y qué impacto tendría en la lucha por la tecnología ética, si permitimos que las máquinas tomen las decisiones finales de vida o muerte? El surgimiento y las consecuencias de las armas autónomas nos afecta a todos.

Algunas personas dicen que los robots asesinos serían más precisos, que serían más rápidos y más eficientes que los soldados humanos, que podrían ir a lugares en los que es difícil operar para los soldados, que podrían ser más precisos al apuntar, que salvarían vidas al reducir las “botas en el suelo”, y actúan como elemento disuasorio. Pero se dijeron cosas similares sobre las minas terrestres, las municiones en racimo y las armas nucleares, armas indiscriminadas que mataron e hirieron a cientos de miles de personas antes de ser prohibidas. Las tecnologías que cambian su propio comportamiento o adaptan su propia programación de forma independiente no se pueden utilizar con un control real. Otras tecnologías pueden presentar una 'caja negra', donde no es posible saber por qué o cómo se toman las decisiones. Según la ley, los comandantes militares deben poder juzgar la necesidad y proporcionalidad de un ataque y distinguir entre civiles y objetivos militares legítimos. Esto significa no solo comprender un sistema de armas, sino también comprender el contexto en el que podría usarse. Las máquinas no entienden el contexto ni las consecuencias: la comprensión es una capacidad humana, y sin esa comprensión, perdemos la responsabilidad moral y socavamos las normas legales existentes. Las amenazas y los riesgos de los robots asesinos superan con creces cualquier ventaja potencial.

En todo el mundo, el impulso sigue creciendo detrás del llamamiento a limitar la autonomía en los sistemas de armas a través de un nuevo tratado internacional. Los robots asesinos se consideran una gran amenaza para la humanidad que requiere una respuesta multilateral rápida y fuerte.

Más de 230 ONG apoyan el movimiento para detener a los robots asesinos. Nuestros llamados a un tratado son compartidos por expertos técnicos, líderes mundiales, instituciones internacionales, órganos parlamentarios y campeones políticos. 90 estados ahora están pidiendo nuevas reglas legales y límites en los sistemas de armas autónomos. Cientos de empresas tecnológicas se han comprometido a nunca participar ni apoyar el desarrollo, la producción o el uso de sistemas de armas autónomos. Miles de expertos en inteligencia artificial y robótica han advertido contra estas armas y han pedido a Naciones Unidas que tome medidas. También hay una clara preocupación pública. En las encuestas de IPSOS publicadas en 2019 y 2020, más de tres de cada cinco personas manifestaron su oposición al desarrollo de sistemas de armas que seleccionarían y atacarían objetivos sin intervención humana.

El secretario general de la ONU, Guterres, calificó las armas autónomas como “moralmente repugnantes y políticamente inaceptables”, y ha realizado múltiples declaraciones desde 2018 instando a los estados a negociar un tratado. Y el Comité Internacional de la Cruz Roja dijo que se necesita una nueva ley para abordar la autonomía en las armas y ha pedido un tratado que combine prohibiciones y regulaciones. El Parlamento Europeo, los relatores del Consejo de Derechos Humanos y 26 premios Nobel de la Paz han respaldado los llamamientos para prohibir y regular las armas autónomas.

Existe la preocupación de que las empresas de tecnología, especialmente las que trabajan con contratos militares, no tengan políticas para asegurarse de que su trabajo no contribuya al desarrollo de armas autónomas. Un informe de 2019 de PAX encontró que Microsoft y Amazon se encuentran entre las empresas de tecnología de 'mayor riesgo' del mundo que podrían estar poniendo al mundo en riesgo a través del desarrollo de robots asesinos. En 2018, miles de empleados protestaron por el contrato de Google con el Pentágono en una iniciativa llamada Proyecto Maven. La acción de los trabajadores tecnológicos dio como resultado que Google no renovara Project Maven y lanzara un conjunto de principios para guiar su trabajo en relación con la inteligencia artificial. En esos principios éticos de la IA, Google se comprometió a no "diseñar ni implementar inteligencia artificial para su uso en armas".

La tecnología debería usarse para hacer del mundo un lugar mejor, y las empresas tecnológicas como Amazon, Google, Microsoft, Facebook y otras deberían comprometerse públicamente a no contribuir al desarrollo de armas autónomas. Los trabajadores de la tecnología, los especialistas en robótica, los ingenieros y los investigadores lo saben, razón por la cual miles de ellos han firmado cartas abiertas y se han comprometido a exigir una nueva ley internacional para abordar la autonomía en las armas y garantizar un control humano significativo sobre el uso de la fuerza.

Es posible. Muchas universidades tienen instituciones de investigación que trabajan en inteligencia artificial y aprendizaje automático. Si quieres estar seguro, puedes comprobar si tu universidad tiene un posicionamiento ético o una declaración clara de su posición sobre los robots asesinos. O si tienen contratos con ministerios de defensa o empresas privadas que los contrataron para desarrollar tecnologías específicas. Es fundamental que las universidades sean conscientes de cómo se podría utilizar en el futuro la tecnología que desarrollan. El informe PAX "Conflicted Intelligence" advierte sobre los peligros de la investigación y las asociaciones universitarias de inteligencia artificial, y describe cómo las universidades pueden ayudar a prevenir el desarrollo de armas autónomas.

Si parece que su universidad está desarrollando tecnologías relacionadas con robots asesinos, ¡no se asuste! Hay una forma de actuar. En 2018, el Instituto Coreano de Ciencia y Tecnología Avanzada (KAIST) anunció una colaboración con el productor de armas Hanwha Systems. El objetivo era “co-desarrollar tecnologías de inteligencia artificial para aplicarlas a armas militares, uniéndonos a la competencia global para desarrollar armas autónomas”. El anuncio llevó a un boicot por parte de profesores y estudiantes de todo el mundo, y esto finalmente llevó a la universidad a dar garantías públicas de que no desarrollaría robots asesinos. Implementó una política que establece que "la IA en cualquier evento no debe dañar a las personas". La esperanza proviene de la acción. Para obtener más ideas sobre cómo evitar que su universidad desarrolle armas autónomas, consulte el brillante Folleto de acción de las universidades PAX.

Si estás leyendo esto, entonces ya estás contribuyendo al movimiento. Síguenos en las redes sociales. Únete a nuestra Red de Jóvenes. Enseña a las personas que te rodean (amigos, familia, escuela) sobre robots asesinos. Comparte tus pensamientos y opiniones en las redes sociales. La conciencia es el primer paso para el cambio, y cuanto más se difunda el mensaje, más probable será que podamos seguir adelante con más impulso.

Texto alternativo de la imagen

Red de jóvenes

Los jóvenes tienen el derecho y la responsabilidad de participar en las decisiones que los afectan. La Red de Jóvenes es un lugar para que los líderes jóvenes aporten sus habilidades y fortalezas al movimiento para detener a los robots asesinos. La Red conecta a jóvenes de todo el mundo, facilita la comunidad y la colaboración, y proporciona recursos y oportunidades accesibles para que todos los jóvenes aseguren un futuro sin asesinatos automatizados.
Únase a la Red de Jóvenes
Texto alternativo de la imagen

Universidades y robots asesinos

Las universidades juegan un papel importante en la configuración de la sociedad. A menudo impulsan la innovación y desempeñan un papel clave en la formación de la próxima generación de líderes. Muchos inventos importantes utilizados en la vida cotidiana, desde los cinturones de seguridad hasta las pantallas táctiles, provienen de la investigación universitaria; hay muchos impactos positivos y aplicaciones que la investigación universitaria puede tener.

Sin embargo, no todas las innovaciones derivadas de las universidades son beneficiosas. En muchos países, la industria de la defensa patrocina instalaciones de investigación universitaria. Los estudiantes y profesores podrían estar trabajando en un proyecto que se utilizará para avanzar en el desarrollo de armas autónomas. Es por eso que las universidades deben publicar políticas claras, aclarando dónde trazan la línea divisoria entre qué tecnología desarrollarán y qué no desarrollarán.

Infórmese, concientice y actúe.
Salva tu Uni de Killer Robots
Ver mas Texto alternativo de la imagen

Exploradores y robots asesinos

En el verano de 2019, más de 40,000 scouts de 169 naciones asistieron al 24o Jamboree Scout Mundial en la Reserva Scout Summit Bechtel en West Virginia, EE. UU. Durante más de 10 días, los scouts se reunieron desde los confines del mundo para promover la paz, el entendimiento mutuo, el liderazgo y las habilidades para la vida. Nuestro equipo habló con miles de Scouts, quienes nos dijeron por qué quieren #KeepCtrl sobre el uso de la fuerza.

En 2020, la Organización Mundial del Movimiento Scout-Región Interamericana y la Campaña Stop Killer Robots formaron una alianza para fortalecer las capacidades de niños, adolescentes y adultos voluntarios Scouts para aplicar los Objetivos de Desarrollo Sostenible, particularmente el No. 16 “Paz, Justicia e Instituciones Sólidas ”, con el fin de mitigar el impacto y las amenazas de los robots asesinos a la seguridad y paz de la población civil. El esfuerzo conjunto tiene como objetivo promover la capacidad de obtener y mejorar su conocimiento de los robots asesinos y los beneficios globales de su prohibición en apoyo de la paz global.
Scouts, bienvenidos a #TeamHuman
Texto alternativo de la imagen

Premio de la paz de Ypres

Cada tres años desde 2002, los estudiantes de la ciudad belga de Ypres han otorgado su Premio Internacional de la Paz a una organización, persona o iniciativa que recientemente ha contribuido a la paz. El premio de 2020 se otorgó a la Campaña para detener a los robots asesinos y el noventa por ciento de los que votaron por el Premio de la Paz de Ypres tenían 18 años o menos.

Esto nos dice que el interés en los robots asesinos y el futuro que estamos tratando de asegurar está creciendo en todo el mundo, especialmente para los jóvenes.

Más sobre el Premio de la Paz de Ypres

2

Día Internacional de la Juventud 2020

Nuestro coordinador de jóvenes activistas húngaros, Illés Katona, explica por qué los jóvenes deberían tomar medidas para detener a los robots asesinos en el Día Internacional de la Juventud 2020.

3

Los buenos robots se volvieron malos

Marta Kosmyna sobre cómo los grandes inventos pueden tener consecuencias no deseadas. Entonces, ¿cómo protegemos a nuestros robots de ir al lado oscuro? Como estudiantes, ustedes son los hacedores de cambios de hoy y los líderes del mañana. Hablemos sobre el papel de la robótica en la aplicación de la ley y la guerra, y cómo construir robots de los que podamos estar orgullosos.

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros