imagen de héroe de menú
Una imagen microscópica del virus COVID-19, es una forma circular gris con mechones rojos y bolas naranjas más pequeñas.

Tecnología para el bien de la humanidad

Branka Marijan es miembro de la Campaña para detener los robots asesinos e investigadora principal de Project Ploughshares, una organización no gubernamental canadiense, donde se centra en las implicaciones de seguridad de las tecnologías emergentes.

Como COVID-19 obliga a la comunidad internacional a expandir el toolbox a su disposición para abordar de manera más eficaz la crisis, las empresas de inteligencia artificial (IA) y el sector tecnológico en general están reuniendo para ayudar a los gobiernos y las autoridades de salud pública. Las empresas establecidas y las nuevas empresas están desarrollando medios para detección precozrealizar rastreo de contactos digitalProtectores faciales de impresión 3D, e incluso trabajando en mejor detección de infecciones en radiografías de tórax. Estas increíbles respuestas muestran que “tecnología para el bien”, es decir, la creación y el uso de tecnología para el mejoramiento de la humanidad, es más, o al menos puede ser más, que un eslogan vacío.

Al mismo tiempo, la crisis del COVID-19 está expandiendo y redefiniendo a la vez las nociones tradicionales de seguridad nacional y lo que constituye una preparación efectiva. De hecho, esta pandemia ha puesto de relieve las decisiones que se toman sobre dónde se asignan los recursos, qué tecnologías se desarrollan y con qué fines. Este tipo de opciones son y serán particularmente importantes cuando se trata de aplicaciones de IA para la seguridad nacional y global.

Los círculos rojos de varios tamaños en el mapa de Europa, África, América del Norte y del Sur indican dónde se ha extendido COVID-19.

Algunas aplicaciones de seguridad y defensa de la IA, que automatizan diferentes tareas y mejoran la eficiencia, no son particularmente problemáticas. Sin embargo, países como Estados Unidos, Rusia, China y Corea del Sur también están invirtiendo fuertemente en sistemas de armas cada vez más autónomos. Para el año fiscal 2021, el Pentágono de EE. UU. Ha solicitado unos $Más de 1.7 mil millones para la investigación y el desarrollo de tecnología autónoma habilitada por IA.

A este tenor,  Campaña para detener a los robots asesinos advierte, la preocupación es que los nuevos sistemas de armas operarán sin un control humano significativo. Funciones tan críticas como la selección de objetivos y el empleo de fuerza letal podrían ser realizadas por máquinas con poca dirección por parte de operadores humanos. En un futuro cercano, la participación humana podría eliminarse por completo, un desarrollo sin precedentes en un territorio ético y legal inexplorado.

Mary Wareham, coordinadora de la Campaña para detener a los robots asesinos, destaca en una conferencia de prensa de la ONU en Nueva York 2019

Mary Wareham, coordinadora de la Campaña para detener a los robots asesinos, destaca en una conferencia de prensa de la ONU en Nueva York 2019. Los otros panelistas son Liz O'Sullivan, trabajadora tecnológica y experta en privacidad y ganadora del Premio Nobel de la Paz Jody Williams. Foto: Ari Beser

Sin embargo, los ejércitos continúan adoptando tecnologías emergentes. En Diciembre 2019, la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU. (DARPA, el brazo de investigación de defensa del Pentágono) probó un enjambre de 250 robots que trabajaban juntos para navegar por un entorno urbano falso y ayudar a una pequeña unidad de infantería. La prueba de enjambre, aunque todavía controlada por humanos, mostró el trabajo que se está realizando para mejorar la recopilación de información en tiempo real y la navegación de las máquinas en un entorno complejo. La Marina de los Estados Unidos también probado una red de sistemas de IA donde un El oficial al mando simplemente dio la orden de disparar. Este nivel de control humano es insuficiente incluso si hay un operador humano aparentemente supervisando el sistema.

Otros países también están trabajando para integrar tecnologías autónomas en sistemas militares. El año pasado, Turquía incluso afirmó que había probado un dron autónomo en Siria. Si bien no está verificada, y probablemente sea imprecisa, la afirmación de Turquía destaca la necesidad de un escrutinio más detenido de la forma en que se está adoptando la nueva tecnología con fines de seguridad. Rusia está trabajando en la adaptación de tecnologías de vehículos autónomos y en el desarrollo de vehículos autónomos. tanques. Sin duda, muchos más países están analizando estos desarrollos y centrando sus esfuerzos de investigación en tecnologías similares, y considerando las aplicaciones de seguridad y defensa de la tecnología existente.

La realidad de las tecnologías de IA, y mucho de lo que estamos observando durante la respuesta a la pandemia, es que se trata de tecnologías de usos múltiples. Las mismas aplicaciones que pueden ayudarnos a navegar por las carreteras se pueden utilizar para rastrear los movimientos de la población. Mientras las empresas desarrollan la tecnología, son en última instancia los países y las sociedades los que deciden en qué tecnologías invertir y qué aplicaciones respaldar. Cuando se trata de aplicaciones de IA, los desarrollos de armas totalmente autónomas son un claro ejemplo del tipo de tecnología que necesita ser prohibida con urgencia.

Persona no identificable con un mono blanco desinfecta un espacio público

Este es el momento para que los gobiernos interesados ​​en proporcionar a sus ejércitos con tecnología moderna asistida por inteligencia artificial y otras tecnologías de vanguardia para considerar seriamente los tipos de capacidades que desean priorizar para mantener a sus ciudadanos a salvo, y qué límites no deben establecerse. cruzado. Y ahora es el momento de priorizar la tecnología que mejora y salva vidas humanas. Estas opciones serán fundamentales para estar mejor preparados para abordar las pandemias y el cambio climático, amenazas globales que claramente ya no pueden ignorarse.

Branka Marijan hablando en True North 2019 con el texto Tech for the Good of Humanity a la derecha de la imagen

Branka Marijan hablando en True North 2019.

Si este artículo le resuena, consulte el sitio web Campaign to Stop Killer Robots: www.stopkillerrobots.org o únete a la conversación @banquerorobots #TeamHuman y #KeepCtrl.


Artículo original publicado en Medium.com.

Branka Marijan

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros