imagen de héroe de menú
AOAV IGw AWS FINAL 150ppi_LR

Google et d'autres entreprises doivent soutenir l'interdiction

AOAV IGw AWS FINAL 150ppi_LR

Google y su empresa matriz Alphabet están comenzando a abordar algunas preocupaciones éticas planteadas por el desarrollo de la inteligencia artificial (IA) y el aprendizaje automático, pero, hasta el momento, no se han pronunciado sobre el uso descontrolado de la autonomía y la IA en los sistemas de armas. Estas y otras empresas de tecnología como Amazon, Microsoft y Oracle deberían respaldar públicamente el llamado a prohibir las armas totalmente autónomas y comprometerse a nunca ayudar a desarrollar estas armas. Hacerlo apoyaría el esfuerzo internacional en rápida expansión para garantizar que la decisión de quitar una vida humana nunca se delegue a una máquina en la guerra o en la policía y otras circunstancias.

En los últimos meses, se han incrementado los pedidos para que Google se comprometa a no ayudar nunca a crear sistemas de armas que seleccionarían y atacarían objetivos sin un control humano significativo. El mes pasado, más de cuatro mil Los empleados de Google emitieron una carta abierta exigiendo que la empresa adopte una política clara que indique que ni Google ni sus contratistas construirán nunca "tecnología de guerra".

El 14 de mayo, más de 800 académicos, académicos e investigadores que estudian, enseñan y desarrollan tecnologías de la información emitió un comunicado en solidaridad con los empleados de Google que insta a las empresas a Apoyar un tratado internacional para prohibir los sistemas de armas autónomos. y comprometerse a no utilizar los datos personales que la empresa recopile con fines militares.

En Guardian en 16 mayo, tres coautores de la carta académica destacan preguntas clave a las que se enfrenta Google, como: "¿Debería utilizar sus tecnologías de inteligencia artificial de vanguardia, sus mejores ingenieros, sus servicios de computación en la nube y la gran cantidad de datos personales que recopila para contribuir a programas que avancen en el desarrollo de armas autónomas? ¿Debería proceder a pesar de la oposición moral y ética de varios miles de sus propios empleados? "

Anteriormente, en una carta del 12 de marzo a los responsables de Google y Alphabet, la Campaña para detener a los robots asesinos recomendó que las empresas adopten "una política pública proactiva" al comprometerse a no participar nunca en trabajos destinados al desarrollo y la adquisición de sistemas de armas totalmente autónomos, también conocidos como sistemas de armas autónomas letales, y respaldar públicamente el llamado a para una prohibición.

Todas estas cartas expresan preocupación por la participación de Google en un proyecto financiado por el Departamento de Defensa para "ayudar en el reconocimiento de objetos en datos no clasificados ”contenidos en imágenes de video de vigilancia recopiladas por drones militares. De acuerdo con el Pentágono, Project Maven implica "desarrollar e integrar algoritmos de visión por computadora necesarios para ayudar a los analistas militares y civiles agobiados por el gran volumen de datos de video de movimiento completo que el Departamento de Defensa recopila todos los días en apoyo de las operaciones de contrainsurgencia y contraterrorismo". El proyecto, que comenzó el año pasado, busca convertir el "enorme volumen de datos disponibles para el Departamento de Defensa en inteligencia procesable y conocimientos de calidad de decisiones rápidamente".

Project Maven plantea cuestiones éticas y de otro tipo sobre el uso adecuado del aprendizaje automático y la inteligencia artificial (IA) con fines militares. La campaña para detener los robots asesinos es preocupado que la identificación de objetos impulsada por la IA podría difuminarse rápidamente o pasar a la identificación de 'objetivos' impulsada por la IA como base para la dirección de la fuerza letal. Esto podría dar a las máquinas la capacidad de tomar una determinación sobre qué es un objetivo, lo que sería un uso inaceptablemente amplio de la tecnología. Es por eso que la campaña está trabajando para retener un control humano significativo de las funciones críticas de identificar, seleccionar e involucrar a los objetivos.

Los representantes de Google son entablar un diálogo con la Campaña para detener los robots asesinos y el mes pasado proporcionó a la coordinadora de la campaña, Mary Wareham, una declaración que dice que su trabajo en Project Maven es “para propósitos no ofensivos y utiliza software de reconocimiento de objetos de código abierto disponible para cualquier cliente de Google Cloud. Los modelos se basan únicamente en datos no clasificados. La tecnología se utiliza para marcar imágenes para revisión humana y está destinada a salvar vidas y evitar que las personas tengan que hacer un trabajo muy tedioso ".

En julio de 2015, empleados de Google de alto perfil, incluido el director de investigación Peter Norvig, el académico Geoffrey Hinton y el jefe de inteligencia artificial Jeff Dean, firmaron conjuntamente una carta abierta respaldado por miles de expertos en inteligencia artificial que describieron los peligros que representan los sistemas de armas autónomos letales y pidieron un nuevo tratado para prohibir las armas.

En Google DeepMind, el CEO Demis Hassabis, el cofundador Mustafa Suleyman y veinte ingenieros, desarrolladores y científicos de investigación también firmaron la carta de 2015. El año siguiente en una presentación a un comité parlamentario del Reino Unido Google DeepMind declaró: “Apoyamos la prohibición de un tratado internacional sobre sistemas de armas autónomos letales que seleccionan y ubican objetivos y despliegan fuerza letal contra ellos sin un control humano significativo. Creemos que este es el mejor enfoque para evitar las consecuencias dañinas que se derivarían del desarrollo y uso de tales armas. Recomendamos que el gobierno apoye todos los esfuerzos hacia tal prohibición ".

El mes pasado, Jeff Bezos de Amazon preocupación expresada ante el posible desarrollo de armas totalmente autónomas, que describió como “genuinamente aterradoras”, y propuso un tratado multilateral para regularlas. La Campaña para detener a los robots asesinos da la bienvenida a estos comentarios y anima a Amazon respaldar el llamado a un nuevo tratado para prohibir las armas totalmente autónomas y comprometerse a no contribuir al desarrollo de estas armas, como Clearpath Robotics y otros han hecho.

Emitir principios éticos significa poco si una empresa no actúa sobre los desafíos fundamentales que plantean las aplicaciones militares de la autonomía y la inteligencia artificial. Las empresas responsables deberían tomarse en serio y apoyar públicamente los crecientes llamamientos a los estados para que negocien urgentemente un nuevo tratado para prohibir las armas totalmente autónomas.

ACTUALIZACIÓN: El 7 de junio, Google publicó sus principios éticos, incluido el compromiso de no desarrollar inteligencia artificial para su uso en armas. El personal de Google transmitió los principios al coordinador de la campaña y agradeció la información proporcionada. El lanzamiento siguió a la noticia reportada por Gizmodo el 1 de junio que Google ha decidido poner fin a su participación en el contrato del Proyecto Maven expira el próximo año.

Para más información, ver:

María

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros