imagen de héroe de menú

Historias reales

Laura

¡Hola! Soy Laura, ingeniera de software. Vivo en Dublín, Irlanda con mi pareja y nuestros dos gatos totalmente mimados (aunque actualmente estamos tratando de comprar una casa de 170 años a una hora de la ciudad, porque ahora ambos trabajamos de forma remota la mayor parte del tiempo). Fuera del trabajo y el papeleo de la hipoteca, actualmente paso mucho tiempo leyendo y estudiando, porque estoy escribiendo una tesis de maestría a tiempo parcial.

Texto alternativo de la imagen

Publicidad dirigida, aprobaciones de préstamos bancarios, vigilancia predictiva ... autonomía en armas, la automatización se está convirtiendo cada vez más en parte de nuestras vidas. ¿Qué tipos de deshumanización digital le preocupan más y por qué?

¡Me preocupa el efecto acumulativo de todo eso! Los sistemas más obviamente preocupantes son aquellos en los que hay impactos dramáticos en las personas, cosas como armas, así como cualquier cosa relacionada con la policía o la justicia.

Sin embargo, con demasiada frecuencia estamos creando software que socava la capacidad de las personas para comprender su mundo y tomar el control de él cuando sea necesario.

Creo que el reciente escándalo de la oficina de correos del Reino Unido es un buen ejemplo de esto: el sistema informático de Horizon mostraría con frecuencia déficits en el dinero tomado en las oficinas locales, lo que llevaría a acciones legales contra los administradores de correos y los empleados locales. Todo el asunto ha sido llamado uno de los 'los errores judiciales más graves en la historia reciente de Inglaterra".

Definitivamente hubo deficiencias éticas por parte de la Oficina de Correos y Fujitsu, pero también la clave de todo el lío es el hecho de que el sistema Horizons no parece haber sido diseñado para brindar a las personas que lo usan una forma de entender las transacciones en el sistema y corregir problemas. Fundamentalmente socavó la autonomía de las administradoras de correos locales y su capacidad para comprender su mundo en sus propios términos. Eso es un mal diseño de software. Deben haberse sentido como si estuvieran en una de las historias de Kafka.

Todos los días ahora, las personas están atrapadas en una especie de pesadilla tecnológica mini-kafkiana como esta, ya sea para hacer funcionar su software de supervisión de exámenes virtuales, hacer que su solicitud de empleo atraviese la maraña de filtros automatizados o obtener los beneficios a los que pueden tener derecho. No deberíamos estar construyendo software como este.

¿Cree que las personas pueden marcar la diferencia?

Absolutamente, la historia está llena de personas que marcaron la diferencia: Martín Lutero (de las 95 tesis), Rosa Parks, Nelson Mandela. Hoy tenemos gente como Greta Thunberg, que ha puesto tanta energía en el movimiento ambiental; y como Max Schrems, quien continúa revolucionando la ley internacional de protección de datos. En Irlanda, donde vivo, recientemente cambiamos nuestras leyes muy restrictivas sobre el aborto, y eso tuvo mucho que ver con Savita Halappanavar, quien lamentablemente murió en un hospital irlandés porque las leyes irlandesas eran un obstáculo para la atención que necesitaba. El esposo y la familia de Savita fueron personas increíblemente valientes que hablaron públicamente y eso cambió el curso de la historia irlandesa.

Todas las personas que donan a una campaña, que van a marchas, que se organizan, que tocan puertas o que escriben cartas a nuestros políticos, todos también importamos. ¡Tenemos poder!

¿Cuándo aprendiste por primera vez sobre los robots asesinos y qué pensaste?

Los robots asesinos son un problema muy personal para mí. En 2017, cuando trabajaba en Google, como parte del equipo que gestiona la infraestructura en la nube de Google, me pidieron que hiciera un trabajo de apoyo Proyecto Maven, el proyecto del Departamento de Defensa de EE. UU. para automatizar el análisis de las imágenes de vigilancia con drones. Se me pidió que trabajara en un proyecto para obtener una certificación de seguridad más alta para su plataforma en la nube con el fin de ejecutar Maven internamente, en lugar de en las propias máquinas del Departamento de Defensa.

Maven fue un trabajo de 'cadena de muerte', sin duda: analizó imágenes para generar datos que se utilizarían en la identificación y selección de objetivos. Este no fue solo un trabajo de visión por computadora moralmente neutral. Para 2020, el Ejército de EE. UU. poner a Maven en drones Grey Eagle para detectar amenazas de forma autónoma. Maven no busca objetos claramente militares como tanques. Busca personas y vehículos, incluidos vehículos civiles.

Tuve una reacción inmediata y visceral: no podía trabajar en esto, por más indirectamente que fuera. No ayudaré a construir o ejecutar sistemas informáticos que seleccionen personas para morir.

Dirigirse a los seres humanos en situaciones de conflicto no es algo que debamos automatizar: es un problema demasiado importante, demasiado complejo y dependiente del contexto, y de demasiado alto riesgo.

Los de 2020 han sido un poco difíciles hasta ahora. ¿Qué te da esperanza?

¡La década de 2020 ciertamente ha sido una época interesante! Pero en realidad, eso es algo que me da esperanza. Estamos en un momento de cambio. Tal vez podamos reemplazar lo "normal" antiguo por un "normal" mejor.

¿Por qué formas parte del movimiento Stop Killer Robots?

Soy parte de este movimiento porque tengo la responsabilidad profesional de hablar, como tecnólogo. El software es bueno para realizar trabajos de rutina y muy deficiente para realizar trabajos en los que existe alguna ambigüedad o áreas grises. Desafortunadamente, Big Tech a menudo exagera las capacidades de la tecnología, lo que conduce a daños. Tesla llama a su software de automóvil 'Autopilot' es un gran ejemplo de esto: es un control de crucero muy sofisticado, pero se llama como si fuera una conducción totalmente autónoma. Alemania y California Ambos le han pedido a Tesla que use un nombre diferente para el producto.

El software debe usarse con extremo cuidado en cualquier tipo de trabajo de alto riesgo, lo que ciertamente incluye la decisión de usar la fuerza militar. El control humano significativo debe permanecer a la vanguardia todo el tiempo.

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Únase

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Únase