imagen de héroe de menú
Letrero de neón que dice "Game on"

Tecno-optimismo, derechos humanos y robots asesinos ...

Farah Bogani es la responsable de proyectos de la Campaña para detener a los robots asesinos, con sede en Ottawa, Canadá. Anteriormente trabajó en la oficina del Secretariado de Amnistía Internacional en Londres, Reino Unido.

IEs difícil que te tomen en serio cuando eres una mujer joven que trabaja activamente contra el desarrollo de tecnologías. La mayoría de las veces, cuando hablo de robots asesinos, me levantan las cejas, a veces de interés, otras de escepticismo.

Los robots llevan tanto tiempo en el sci-fi lore que no se presentan como una amenaza inmediata en la realidad. Pero no estamos hablando de esos robots humanoides que has visto en las películas, estamos hablando de sistemas de armas reales que están programados para seleccionar objetivos y matar de forma autónoma. Recientemente, al observar la explosión de la vigilancia y las 'soluciones' artificialmente inteligentes para COVID-19, me parece que la necesidad de tecno-optimismo no tiene en cuenta el impacto a largo plazo que estas tecnologías finalmente tendrán. Esto es, y debería ser, preocupante para otros jóvenes debido a las implicaciones que tiene para nuestros derechos humanos y nuestro futuro. La realidad es que la existencia de sistemas de armas autónomos no se limitaría al uso en zonas de conflicto, y nuestras preocupaciones sobre estas armas no deberían detenerse ahí porque podríamos verlas en las fuerzas policiales en un futuro cercano. El desarrollo y uso de estas armas no solo constituir graves violaciones de los derechos humanos, pero también se consideraría un uso excesivo, arbitrario e innecesario de la fuerza.

WSi bien se han debatido las armas totalmente autónomas en el contexto del conflicto y el desarme humanitario en la ONU (bajo el término armas autónomas letales o LEYES), es cada vez más importante considerar el desarrollo y uso de armas autónomas en situaciones sin conflicto. Como joven activista y activista de derechos humanos, el tema de los robots asesinos se vuelve aún más urgente cuando se considera cómo estas armas presentan enormes riesgos para quienes asisten a las protestas. Es decir, tal vez menos "asesino", pero igualmente letal. A medida que los derechos civiles y políticos continúan siendo objeto de críticas mientras se amplían los poderes de vigilancia, es esencial que los gobiernos actúen ahora para evitar que estas armas se conviertan en una realidad. Las armas autónomas "no letales" o "menos letales" aún no existen, pero no estan lejos y es la normalización de estas tecnologías lo que presenta la mayor amenaza para el futuro de nuestros derechos humanos.

Marcha de protesta pacífica colorida caminando bajo un puente mientras los oficiales de policía en el puente miran hacia abajo

Foto de Alex Radelich.

SLa tecnología de drones de vigilancia no es nueva, pero su aplicabilidad a vigilancia pandémica significa que no es difícil imaginarlos siendo reutilizados en armas autónomas "menos letales". Después de todo, EE. UU. Ha utilizado drones Predator de grado militar para sobrevolar ciudades durante protestas, mientras que Israel ha utilizado drones piloteados a distancia para dispersar gas lacrimógeno sobre manifestantes palestinos. Entonces, ¿estaría fuera de lo posible imaginar estas armas como autónomas, flotando sobre una multitud de manifestantes listos para dispersar agentes químicos? De hecho, la misma tecnología de vigilancia que determina El distanciamiento físico puede identificar o predecir ciertos tipos de actividad, alertando un arma autónoma para disparar contra las multitudes utilizando munición no letal o gas lacrimógeno. Drones de vigilancia que utilizan sonar podría estar equipado con sonidos que desorientan y confunden en un esfuerzo por difundir a los manifestantes. Y si bien todos, según la Declaración de Derechos Humanos de la ONU, tienen derecho a una protesta pacífica, el aumento de los poderes de vigilancia ha llevado a los manifestantes a estar más atentos a proteger su identidad de la persecución por parte de las fuerzas del orden.

El letrero de protesta dice "Lo que disminuye a uno de nosotros nos disminuye a todos".

Foto: Michiele Henderson

Sin embargo, gracias a COVID-19, el aumento de enmascaramiento de civiles ha llevado a quienes desarrollan la tecnología de reconocimiento facial a ajustar su enfoque para que los sistemas puedan reconocer los rostros de las personas mientras están cubiertos con máscaras. Como resultado, muchos manifestantes que normalmente usarían máscaras para ocultar su identidad a las autoridades pueden perder pronto esa capacidad de "esconderse". Si se dispusiera de armas autónomas "menos letales" equipado con el reconocimiento facial, no solo podrían representar riesgos para los manifestantes prominentes y otros civiles con un historial de protestas, sino que también serían parcial, empeorando y codificando perfil racial. Finalmente, el geoetiquetado, ya sea a través de teléfonos que usan ciertas aplicaciones, fotos, videos u otros medios, puede brindar a las autoridades datos de ubicación valiosos que les permiten rastrear el paradero de las personas y las personas con las que entran en contacto. Este tipo de tecnología puede ser aprovechada para obligar a las personas a permanecer en ciertas áreas, restringiendo así su derecho a moverse libremente e incluso puede evitar que se reúnan en multitudes para protestar. Esto sería particularmente preocupante para quienes viven en territorios altamente vigilados, ocupados o controlados donde las autoridades pueden obligar a las personas a permanecer dentro de sus áreas designadas.

NOrmalizar la tendencia de las soluciones tecnológicas es preocupante para el futuro porque, si bien la gente puede aceptar las innovaciones tecnológicas de hoy, no estamos preparados para su aplicación en los sistemas de armas totalmente autónomos del mañana. Los riesgos para los derechos humanos que plantea el desarrollo y uso de esta tecnología es lo que hace que este tema sea tan urgente, y las armas autónomas no deben considerarse un tema aislado de situaciones de conflicto. Estas armas tienen todas las posibilidades de convertirse en parte de su propio "patio trasero" a medida que la aplicación de la ley se militariza cada vez más a lo largo de los años. Como joven activista, este no es el tipo de armas que quiero enfrentar cuando estoy protestando, y nadie más debería tener que enfrentarlas tampoco.

FLas armas totalmente autónomas delegarían decisiones de vida o muerte en máquinas, programas y algoritmos, cruzando una línea roja ética, contraviniendo la ley diseñada para proteger a los civiles, amenazando los derechos humanos y desestabilizando la seguridad global. ¿Quiere saber más sobre los riesgos para los derechos humanos que plantean las armas totalmente autónomas y por qué no es demasiado tarde para detenerlos? Regístrese antes del 20 de julio para unirse a nosotros en RightsCon el 30 de julio de 2020.

Imagen de Farah Bogani frente a una escultura de la ONU y una multitud fotografiada con 'Justicia ahora' en un cartel

Farah Bogani es la oficial de proyectos de la Campaña para detener a los robots asesinos, con sede en Ottawa, Canadá. Anteriormente trabajó en la oficina del Secretariado de Amnistía Internacional en Londres, Reino Unido.


Artículo original publicado en Medium.com.

farah bogani

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros