imagen de héroe de menú

Robots jóvenes y asesinos

Cuando los jóvenes se unen, podemos hacer que el mundo escuche.

Los robots asesinos pueden parecer ciencia ficción, pero desafortunadamente, son el próximo gran paso en la deshumanización digital; en cimentar los sesgos y desigualdades de generaciones anteriores. Pero se pueden prevenir.

A menos que actuemos, las generaciones futuras tendrán que vivir con las consecuencias de las decisiones que se están tomando en este momento: el desarrollo de nuevas tecnologías con sesgos algorítmicos, el cambio climático, los conflictos injustos, la inequidad y los disturbios sociales y políticos ... El mundo en el que vivimos puede Ser complejo, pero a menudo tenemos más poder de lo que pensamos para influir en los acontecimientos.

 

Texto alternativo de la imagen

Hay muchos problemas globales y sociales que tendremos que enfrentar a lo largo de nuestra vida.

Los líderes políticos no deberían invertir en armas autónomas ahora, cuando los jóvenes tendrán que enfrentar la realidad y las consecuencias de sus decisiones en el futuro. Al igual que con el cambio climático, al detener el desarrollo de robots asesinos tenemos la oportunidad de traer nuevas esperanzas; ser agentes de cambio con poder e influencia.

Hemos crecido en la era digital y somos el futuro. Los codificadores, programadores, ingenieros, soldados, diplomáticos, políticos, activistas, organizadores y creativos que tendrán que lidiar con las realidades de los robots asesinos.

Tenemos el poder de moldear el futuro de la tecnología, la industria y la política. Invertir en nuestras comunidades y la humanidad en general. Todos y cada uno de nosotros tenemos la oportunidad de transmitir el mensaje de que la matanza no debe delegarse a las máquinas y que cada vida humana tiene un valor.


 

FAQ's

Existen problemas éticos, morales, técnicos, legales y de seguridad con las armas autónomas. Las máquinas carecen de características inherentemente humanas, como la compasión, que son necesarias para tomar decisiones éticas complejas. La tecnología no es perfecta, no es neutral y los robots asesinos serían vulnerables a fallas técnicas como la piratería. En caso de error o acto ilícito, ¿quién sería responsable? ¿El programador, el fabricante, el comandante militar o la propia máquina? La brecha en la rendición de cuentas dificultaría la garantía de justicia, especialmente para las víctimas. La naturaleza de la guerra cambiará drásticamente, ya que el envío de máquinas en lugar de tropas eliminaría la mayoría de los obstáculos de los conflictos actuales. Las armas autónomas también podrían usarse en otras circunstancias, como en el control de fronteras y la vigilancia. También podrían usarse para reprimir protestas y apuntalar regímenes.

Si se usan, las armas completamente autónomas cambiarán fundamentalmente la naturaleza de cómo se libran las guerras. Conducirían a una guerra más asimétrica y desestabilizarían la paz y la seguridad internacionales al desencadenar una nueva carrera armamentista. También trasladarían aún más la carga del conflicto a los civiles. Pero los riesgos de los robots asesinos no solo amenazan a las personas en conflicto. El uso de estas armas en nuestras sociedades en general también podría tener graves consecuencias. Piense en futuras protestas, control fronterizo, vigilancia y vigilancia. O incluso sobre otros tipos de tecnologías que utilizamos. ¿Qué diría sobre nuestra sociedad, y qué impacto tendría en la lucha por la tecnología ética, si permitimos que las máquinas tomen las decisiones finales de vida o muerte? Realmente, la aparición y las consecuencias de las armas autónomas nos afectarían a todos.

Algunas personas dicen que los robots asesinos serían más precisos, que serían más rápidos y más eficientes que los soldados humanos, que podrían ir a lugares en los que es difícil para los soldados operar, podrían ser más precisos en la selección de objetivos, salvar vidas al reducir las “botas en el suelo ”, y actuar como disuasivo. Pero se dijeron cosas similares sobre las minas terrestres, las municiones en racimo y las armas nucleares, armas indiscriminadas que mataron e hirieron a cientos de miles de personas antes de ser prohibidas. La realidad es que los robots asesinos carecerían de empatía y juicio humano. Reducirían el umbral de la violencia y el conflicto y serían herramientas para la persecución. Esta es una perspectiva aterradora y debemos asegurarnos de que no se convierta en una realidad generalizada. La precisión se puede lograr sin quitar el control humano significativo del uso de la fuerza. Las amenazas y los riesgos de los robots asesinos superan con creces cualquier ventaja potencial.

En todo el mundo, el impulso sigue creciendo detrás del llamamiento a limitar la autonomía en los sistemas de armas a través de un nuevo tratado internacional. Los robots asesinos se consideran una gran amenaza para la humanidad que requiere una respuesta multilateral rápida y fuerte.

Más de 185 ONG apoyan el movimiento para detener a los robots asesinos. Nuestros llamados a un tratado son compartidos por expertos técnicos, líderes mundiales, instituciones internacionales, órganos parlamentarios y campeones políticos. Casi 100 estados han reconocido la importancia del control humano sobre el uso de la fuerza. Cientos de empresas de tecnología se han comprometido a nunca participar ni apoyar el desarrollo, la producción o el uso de sistemas de armas autónomos. Miles de expertos en inteligencia artificial y robótica han advertido contra estas armas y han pedido a las Naciones Unidas que actúen. También existe una clara preocupación pública. En las encuestas de IPSOS publicadas en 2019 y 2020, más de tres de cada cinco personas manifestaron su oposición al desarrollo de sistemas de armas que seleccionarían y atacarían objetivos sin intervención humana.

El secretario general de la ONU, Guterres, ha calificado las armas autónomas de “moralmente repugnantes y políticamente inaceptables”, y ha realizado múltiples declaraciones desde 2018 instando a los estados a negociar un tratado. Y el Comité Internacional de la Cruz Roja dijo que se necesita una nueva ley para abordar la autonomía en las armas y ha pedido un tratado que combine prohibiciones y regulaciones. El Parlamento Europeo, los relatores del Consejo de Derechos Humanos, 26 premios Nobel de la Paz e incluso magnates de la tecnología como Elon Musk de Tesla, Demis Hassabis de Google y Steve Wozniak de Apple han respaldado los llamamientos para prohibir las armas autónomas.

Existe la preocupación de que las empresas de tecnología, especialmente las que trabajan con contratos militares, no tengan políticas para asegurarse de que su trabajo no contribuya al desarrollo de armas autónomas. Un informe de 2019 de PAX encontró que Microsoft y Amazon se encuentran entre las empresas de tecnología de 'mayor riesgo' del mundo que podrían estar poniendo al mundo en riesgo a través del desarrollo de robots asesinos. En 2018, miles de empleados protestaron por el contrato de Google con el Pentágono en una iniciativa llamada Proyecto Maven. La acción de los trabajadores tecnológicos dio como resultado que Google no renovara Project Maven y lanzara un conjunto de principios para guiar su trabajo en relación con la inteligencia artificial. En esos principios éticos de la IA, Google se comprometió a no "diseñar ni implementar inteligencia artificial para su uso en armas".

La tecnología debería usarse para hacer del mundo un lugar mejor, y las empresas tecnológicas como Amazon, Google, Microsoft, Facebook y otras deberían comprometerse públicamente a no contribuir al desarrollo de armas autónomas. Los trabajadores de la tecnología, los especialistas en robótica, los ingenieros y los investigadores lo saben, razón por la cual miles de ellos han firmado cartas abiertas y se han comprometido a exigir una nueva ley internacional para abordar la autonomía en las armas y garantizar un control humano significativo sobre el uso de la fuerza.

Es posible. Muchas universidades tienen instituciones de investigación que trabajan en inteligencia artificial y aprendizaje automático. Si quieres estar seguro, puedes comprobar si tu universidad tiene un posicionamiento ético o una declaración clara de su posición sobre los robots asesinos. O si tienen contratos con ministerios de defensa o empresas privadas que los contrataron para desarrollar tecnologías específicas. Es fundamental que las universidades sean conscientes de cómo se podría utilizar en el futuro la tecnología que desarrollan. El informe PAX "Conflicted Intelligence" advierte sobre los peligros de la investigación y las asociaciones universitarias de inteligencia artificial, y describe cómo las universidades pueden ayudar a prevenir el desarrollo de armas autónomas.

Si parece que su universidad está desarrollando tecnologías relacionadas con robots asesinos, ¡no se asuste! Hay una forma de actuar. En 2018, el Instituto Coreano de Ciencia y Tecnología Avanzada (KAIST) anunció una colaboración con el productor de armas Hanwha Systems. El objetivo era “co-desarrollar tecnologías de inteligencia artificial para aplicarlas a armas militares, uniéndonos a la competencia global para desarrollar armas autónomas”. El anuncio llevó a un boicot por parte de profesores y estudiantes de todo el mundo, y esto finalmente llevó a la universidad a dar garantías públicas de que no desarrollaría robots asesinos. Implementó una política que establece que "la IA en cualquier evento no debe dañar a las personas". La esperanza proviene de la acción. Para obtener más ideas sobre cómo evitar que su universidad desarrolle armas autónomas, consulte el brillante Folleto de acción de las universidades PAX.

Si está leyendo esto, entonces ya está contribuyendo al movimiento. Síganos en las redes sociales y únase a nuestra Red de Jóvenes. Enséñele a las personas que le rodean (sus amigos, su familia, la escuela) acerca de los robots asesinos. Comparta sus pensamientos y opiniones en las redes sociales. La conciencia es el primer paso para cambiar, y cuanto más se difunda el mensaje, más probabilidades hay de que seamos capaces de seguir adelante con más ímpetu.

Texto alternativo de la imagen

Red de jóvenes

Los jóvenes tienen el derecho y la responsabilidad de participar en las decisiones que los afectan. La Red de Jóvenes es un lugar para que los líderes jóvenes aporten sus habilidades y fortalezas al movimiento para detener a los robots asesinos. La Red conecta a jóvenes de todo el mundo, facilita la comunidad y la colaboración, y proporciona recursos y oportunidades accesibles para que todos los jóvenes aseguren un futuro sin asesinatos automatizados.

Red de jóvenes
Texto alternativo de la imagen

Universidades y robots asesinos

Las universidades juegan un papel importante en la configuración de la sociedad. A menudo impulsan la innovación y desempeñan un papel clave en la formación de la próxima generación de líderes. Muchos inventos importantes utilizados en la vida cotidiana, desde los cinturones de seguridad hasta las pantallas táctiles, provienen de la investigación universitaria; hay muchos impactos positivos y aplicaciones que la investigación universitaria puede tener.

Sin embargo, no todas las innovaciones derivadas de las universidades son beneficiosas. En muchos países, la industria de la defensa patrocina instalaciones de investigación universitaria. Los estudiantes y profesores podrían estar trabajando en un proyecto que se utilizará para avanzar en el desarrollo de armas autónomas. Es por eso que las universidades deben publicar políticas claras, aclarando dónde trazan la línea divisoria entre qué tecnología desarrollarán y qué no desarrollarán.

Infórmese, concientice y actúe.

Salva tu Uni de Killer Robots
Ver video Texto alternativo de la imagen

Exploradores y robots asesinos

En el verano de 2019, más de 40,000 scouts de 169 naciones asistieron al 24o Jamboree Scout Mundial en la Reserva Scout Summit Bechtel en West Virginia, EE. UU. Durante más de 10 días, los scouts se reunieron desde los confines del mundo para promover la paz, el entendimiento mutuo, el liderazgo y las habilidades para la vida. Nuestro equipo habló con miles de Scouts, quienes nos dijeron por qué quieren #KeepCtrl sobre el uso de la fuerza.

En 2020, la Organización Mundial del Movimiento Scout-Región Interamericana y la Campaña Stop Killer Robots formaron una alianza para fortalecer las capacidades de niños, adolescentes y adultos voluntarios Scouts para aplicar los Objetivos de Desarrollo Sostenible, particularmente el No. 16 “Paz, Justicia e Instituciones Sólidas ”, con el fin de mitigar el impacto y las amenazas de los robots asesinos a la seguridad y paz de la población civil. El esfuerzo conjunto tiene como objetivo promover la capacidad de obtener y mejorar su conocimiento de los robots asesinos y los beneficios globales de su prohibición en apoyo de la paz global.

Scouts, bienvenidos a #TeamHuman
Texto alternativo de la imagen

Premio de la paz de Ypres

Cada tres años desde 2002, los estudiantes de la ciudad belga de Ypres han otorgado su Premio Internacional de la Paz a una organización, persona o iniciativa que recientemente ha contribuido a la paz. El premio de 2020 se otorgó a la Campaña para detener a los robots asesinos y el noventa por ciento de los que votaron por el Premio de la Paz de Ypres tenían 18 años o menos.

Esto nos dice que el interés en los robots asesinos y el futuro que estamos tratando de asegurar está creciendo en todo el mundo, especialmente para los jóvenes.

Más sobre el Premio de la Paz de Ypres

2

Día Internacional de la Juventud 2020

Nuestro coordinador de jóvenes activistas húngaros, Illés Katona, explica por qué los jóvenes deberían tomar medidas para detener a los robots asesinos en el Día Internacional de la Juventud 2020.

3

Los buenos robots se volvieron malos

Marta Kosmyna sobre cómo los grandes inventos pueden tener consecuencias no deseadas. Entonces, ¿cómo protegemos a nuestros robots de ir al lado oscuro? Como estudiantes, ustedes son los hacedores de cambios de hoy y los líderes del mañana. Hablemos sobre el papel de la robótica en la aplicación de la ley y la guerra, y cómo construir robots de los que podamos estar orgullosos.

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

¡Participe!

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

¡Participe!