imagen de héroe de menú

Uso del sistema de procesamiento de datos Lavender en Gaza

Stop Killer Robots sigue encontrando informes sobre el uso israelí de sistemas de recomendación de objetivos en la franja de Gaza profundamente preocupantes desde una perspectiva legal, moral y humanitaria.

Foto por Mohammed Ibrahim 

Stop Killer Robots sigue encontrando informes sobre el uso israelí de sistemas de recomendación de objetivos en la franja de Gaza profundamente preocupantes desde una perspectiva legal, moral y humanitaria. Aunque el sistema Lavender, al igual que el Habsora/Evangelio sistema, no es un arma autónoma, ambos plantean serias preocupaciones sobre el uso cada vez mayor de inteligencia artificial en conflictos, el sesgo de automatización, la deshumanización digital y la pérdida de control humano en el uso de la fuerza. 

Informes que Lavanda ha sido utilizado por las FDI para generar objetivos humanos son profundamente preocupantes. Según se informa, el sistema hace recomendaciones de segmentación basadas en “características” de comportamiento, incluidos patrones de comunicación, conexiones de redes sociales y cambios de dirección con frecuencia. Según una fuente del +972, “ Un individuo que tenga varias características incriminatorias diferentes alcanzará una calificación alta y, por lo tanto, automáticamente se convertirá en un objetivo potencial de asesinato”. 

El Lavender es un sistema de procesamiento de datos, no un arma autónoma, y ​​la decisión real de atacar o no un objetivo recomendado la toma y lleva a cabo por separado un ser humano y no una máquina. Sin embargo, el uso de este sistema demuestra problemas clave con las armas autónomas, a saber deshumanización digital y pérdida de control humano significativo. 

La protección de los civiles es un principio fundamental del Derecho Internacional Humanitario (DIH) y, en caso de duda sobre el estatus de un individuo, se le debe considerar civil. La clasificación de la población general de Gaza como objetivos potenciales basada en perfiles de comportamiento, que tienen un margen de error del 10%, reduce a los seres humanos a puntos de datos y plantea graves preocupaciones en torno al cumplimiento del DIH, la violación de la dignidad humana y la deshumanización digital.

También son preocupantes los informes de “sAprobación llorosa para que los oficiales adopten las listas de asesinatos de Lavender, sin necesidad de verificar minuciosamente por qué la máquina tomó esas decisiones o de examinar los datos de inteligencia en bruto en los que se basaron.”. Esta falta de control humano significativo y de compromiso involucrado en las decisiones de atacar los objetivos recomendados por Lavender demuestra una tendencia preocupante en la dependencia de sistemas automatizados. 

Stop Killer Robots cree que la tecnología debe desarrollarse y utilizarse para promover la paz, la justicia, los derechos humanos, la igualdad y el respeto de la ley, no para matar de forma autónoma ni para afianzar o reproducir aún más la desigualdad y la opresión. 

El Secretario General de la ONU, el Comité Internacional de la Cruz Roja y más de 100 países han pedido un instrumento legal sobre sistemas de armas autónomos. El uso cada vez mayor de sistemas con niveles preocupantes de autonomía demuestra la urgente necesidad de prohibiciones y regulaciones claras sobre la autonomía de los sistemas de armas en el derecho internacional.

Las solicitudes de comentarios o entrevistas deben dirigirse a [email protected] 

Detener los robots asesinos

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Únete al equipo

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Únete al equipo