imagen de héroe de menú
Marta Kosmyna, líder de Silicon Valley para la campaña para detener los robots asesinos con el activista de robots David Wreckham. Foto: Ari Beser.

El poder de una pregunta en Silicon Valley

Marta Kosmyna es la líder de Silicon Valley para la campaña para detener a los robots asesinos. Tiene su sede en San Francisco, EE. UU., Y en su puesto busca dinamizar el sector de la tecnología, generar compromiso político y apoyar a los aliados tecnológicos para que aporten su experiencia a las Naciones Unidas.

Marta Kosmyna, líder de Silicon Valley para la campaña para detener los robots asesinos con el activista de robots David Wreckham. Foto: Ari Beser.

Hacer una pregunta puede provocar un movimiento. Todo lo que se necesita is que una persona se ponga de pie, cuestione el status quo y piense críticamente sobre la situación actual. Vimos esto el año pasado con Project Maven, y lo veo todos los días en mi trabajo como líder de Silicon Valley para la campaña para detener a los robots asesinos. Hasta aquí, miles de trabajadores tecnológicos se han comprometido a garantizar que su trabajo nunca contribuirá a la creación de armas completamente autónomas, y sobre las empresas 200 Apoyar un tratado para garantizar que estas armas nunca se utilicen.

Cuando se trata del uso de inteligencia artificial en la guerra y la policía, discutir la ética no es suficiente. Si bien las directrices, los principios y la autorregulación son un primer paso admirable, está claro que para frenar la amenaza que representan para la humanidad las armas totalmente autónomas, los “robots asesinos”, se necesita una legislación urgente. La Campaña insta a los gobiernos a negociar una nueva ley internacional que mantendrá un control humano significativo sobre el uso de la fuerza.

Cada año, nuestra Campaña documenta la creciente oposición de la industria tecnológica al desarrollo y uso de armas totalmente autónomas. Nuestros aliados tecnológicos comprenden las limitaciones de esta tecnología y han estado reduciendo la brecha entre la tecnología y la política.

Ya hemos visto las consecuencias no deseadas de las tecnologías emergentes. Si a los trabajadores tecnológicos les preocupa que su trabajo se utilice en robots asesinos, es importante permanecer alerta, considerar el uso final de la tecnología que desarrollan y cuestionar las asociaciones, clientes e inversores involucrados en proyectos de alto riesgo. La próxima vez que un líder de la industria, un ejecutivo de una empresa o un legislador suba al escenario, pregúntele directamente sobre las armas totalmente autónomas. Es importante hacerlos constar para que puedan rendir cuentas y para garantizar que su declaración se alinee con los valores, la misión y la visión que profesan representar.

El poder de la pregunta en Sillicon Valley Sidewalk Graffitti

Un ejemplo de estarcido con tiza de la Campaña en Nueva York cerca de las oficinas de Amazon, Microsoft, Palantir y Clarafai. Foto: Clare Conboy.

La Campaña para detener a los robots asesinos ha subido al escenario en muchas conferencias de tecnología y eventos relacionados con la ética este año para dar la alarma sobre la amenaza que representan las armas totalmente autónomas. Solo este año, nuestros activistas se presentaron en Tecnología Viva en Francia, True North en Canadá, Defcon en Estados Unidos e Inteligencia Artificial y Ética: El Desafío de las Armas Autónomas Letales en Argentina, entre muchos otros eventos a nivel mundial.

Siempre lo alentamos a que nos haga sus preguntas más difíciles, pero algunas de las preguntas que escuchamos con más frecuencia se responden a continuación:

Los funcionarios del gobierno, incluidos los negociadores de tratados, necesitarán la participación de expertos técnicos para garantizar que el tratado que prohíbe los robots asesinos no reprima la innovación y, en cambio, garantice que la investigación y el desarrollo de la inteligencia artificial continúen sin obstáculos. Los biólogos no han encontrado que la Convención sobre Armas Biológicas haya perjudicado sus investigaciones y desarrollos, ni los químicos se quejan de que la Convención sobre Armas Químicas haya impactado negativamente su trabajo. De hecho, si se permite que la tecnología para desarrollar armas completamente autónomas se desarrolle sin regulación, muchos expertos en inteligencia artificial, roboticistas y trabajadores de tecnología temen que las aplicaciones positivas de la inteligencia artificial se vean afectadas. Cualquier mal funcionamiento, error o crímenes de guerra cometidos por sistemas de armas totalmente autónomos recibiría publicidad negativa, lo que provocaría un retroceso público en la tendencia de desarrollar inteligencia artificial y otras tecnologías emergentes.

 

El poder de la pregunta en Sillicon Valley Sidewalk Graffitti 2

Un ejemplo de estarcido con tiza de la Campaña en Nueva York cerca de las oficinas de Amazon, Microsoft, Palantir y Clarafai. Foto: Clare Conboy.

Somos una coalición de un solo tema centrada en asegurar un tratado para prohibir las armas totalmente autónomas y mantener un control humano significativo sobre el uso de la fuerza. Nuestros miembros a menudo cuestionan proyectos militares específicos que podrían allanar el camino hacia armas totalmente autónomas, pero no pedimos ni abogamos por que las empresas no trabajen con militares o gobiernos. Aconsejamos a los tecnólogos que consideren las asociaciones, los clientes y los inversores con los que trabajan, y que piensen críticamente sobre los resultados consiguientes de las relaciones comerciales de alto riesgo que establezcan.

 

 

Nuestra Campaña no es anti-tecnología. No se opone a las aplicaciones militares o policiales de la inteligencia artificial y las tecnologías emergentes en general. Nos oponemos a la autonomía en las funciones críticas de seleccionar e involucrar a los objetivos, en todas las circunstancias. Como iniciativa centrada en el ser humano, creemos que un nuevo tratado internacional que prohíba los robots asesinos traería muchos beneficios para la humanidad. La nueva ley ayudaría a aclarar el papel de la toma de decisiones humanas relacionadas con las armas y el uso de la fuerza en la guerra, la policía y otras circunstancias.

El desarrollo actual de la inteligencia artificial y las tecnologías emergentes está superando la capacidad de regulación de los legisladores, y esto se ve claramente en el caso de las armas totalmente autónomas. Las empresas de tecnología y los trabajadores deben comprometerse a no contribuir al desarrollo de armas totalmente autónomas. Muchas tecnologías en desarrollo son de “uso dual”, lo que significa que pueden emplearse en varios escenarios: civil, militar, policial, etc. Por lo tanto, es crucial que el sector tecnológico permanezca alerta y siempre considere el uso final anticipado.

Las armas no están diseñadas para salvar vidas, están diseñadas para quitarles vidas. Las armas completamente autónomas serían impredecibles. Al reaccionar con su entorno de manera inesperada, podrían causar fratricidio o dañar a las tropas amigas. Se puede lograr una precisión mejorada sin eliminar el control humano significativo de los ataques individuales. La Campaña busca prohibir el desarrollo y una aplicación específica de ciertas tecnologías, codificar límites sobre su uso previsto y garantizar la rendición de cuentas en virtud del derecho internacional. Todavía no hay víctimas de robots asesinos y queremos que siga siendo así.

Desde 2014, más de 90 países han participado en las conversaciones diplomáticas sobre sistemas de armas autónomos letales en las Naciones Unidas y la mayoría de esos estados ahora ven la necesidad de un nuevo tratado para prohibir o restringir tales armas. Un puñado de potencias militares, especialmente Rusia y Estados Unidos, se oponen a cualquier esfuerzo por regular tales sistemas de armas. Estas conversaciones son un ejercicio de creación de conocimientos y transparencia, pero deben desembocar en la negociación de un nuevo tratado. Esta es la única respuesta multilateral capaz de abordar la amenaza que representan las armas autónomas para la humanidad. Las leyes de la guerra existentes fueron escritas para los humanos, no para las máquinas, y deben fortalecerse para garantizar la responsabilidad y estar a prueba de futuros desarrollos tecnológicos. Un nuevo tratado establecería una norma poderosa que estigmatiza la eliminación del control humano significativo del uso de la fuerza. Esto impulsaría el cumplimiento incluso por parte de países y actores que no firman inicialmente.

www.stopkillerrobots.org Foto: Ari Beser. Gráfico: Clare Conboy

Si este artículo le resuena como trabajador tecnológico, consulte los recursos de la Campaña para detener los robots asesinos para trabajadores tecnológicos: www.stopkillerrobots.org/tech o únete a la conversación usando #TechAgainstKillerRobots


Artículo original publicado en Medium.com.

marta kosmina

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros