imagen de héroe de menú
AOAV IGw AWS FINAL 150ppi_LR

Los expertos en inteligencia artificial piden la prohibición

AOAV IGw AWS FINAL 150ppi_LR

Más de 3,000 investigadores, científicos y profesionales relacionados en inteligencia artificial han firmado an carta abierta publicado en Buenos Aires el 28 de julio de 2015 pidiendo la prohibición de las armas autónomas que seleccionan y atacan objetivos sin intervención humana, aumentando así las filas del movimiento global en rápido crecimiento para abordar las armas. La Campaña para detener a los robots asesinos da la bienvenida a la llamada, que está disponible en el página web del Instituto del Futuro de la Vida.

La carta se presenta hoy (28 de julio de 2015) en el Conferencia conjunta internacional sobre inteligencia artificial en Buenos Aires, Argentina.

Los firmantes de la carta incluyen más de 14 presidentes actuales y pasados de organizaciones de inteligencia artificial y robótica y asociaciones profesionales como AAAI, IEEE-RAS, IJCAI y ECCAI. Incluyen Google DeepMind el director ejecutivo Demis Hassabis y 21 de los ingenieros, desarrolladores y científicos de investigación de su laboratorio. Gran parte de la atención de los medios se ha centrado en los signatarios de alto nivel del carta, como el CEO de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, el cofundador de Skype, Jaan Tallin, el profesor Stephen Hawkingy el profesor Noam Chomsky.

Entre las firmas notables de la carta abierta se encuentran la profesora Higgins de Ciencias Naturales Barbara Grosz de la Universidad de Harvard, la líder de diseño de IBM Watson Kathryn McElroy, la profesora Martha E. Pollack de la Universidad de Michigan, la profesora Carme Torras del Instituto de Robótica del CSIC-UPC en Barcelona , La profesora Francesca Rossi de la Universidad de Padova y Harvard, la profesora Sheila McIlraith de la Universidad de Toronto, la profesora Allison M. Okamura de la Universidad de Stanford, la profesora Lucy Suchman de la Universidad de Lancaster, la profesora Bonnie Weber de la Universidad de Edimburgo y la profesora Mary-Anne Williams de la Universidad de Tecnología de Sydney.

Varios signatarios de la carta de FLI pidiendo una prohibición se dirigieron a un Reunión del 2015 de abril de los gobiernos en "sistemas de armas autónomos letales", incluyendo Profesor Stuart Russell de la Universidad de California en Berkeley y Profesora Heather Roff de la Universidad de Denver en Colorado. El próximo hito del debate internacional sobre las armas autónomas será el 13 de noviembre, cuando los Estados asistentes a la reunión anual de la Convención sobre armas convencionales decidir por consenso si continuar y profundizar sus conversaciones sobre el tema.

Según la carta abierta, "las armas autónomas han sido descritas como la tercera revolución en la guerra, después de la pólvora y las armas nucleares". Encuentra que “la tecnología de Inteligencia Artificial (IA) ha llegado a un punto en el que el despliegue de tales sistemas es, prácticamente, si no legalmente, factible dentro de años, no décadas. ”(Cursiva agregada)

Los signatarios identifican la “pregunta clave para la humanidad hoy” como “si comenzar una carrera armamentista global de IA o prevenirla”, porque “si alguna potencia militar importante sigue adelante con el desarrollo de armas de IA, una carrera armamentista global es virtualmente inevitable, y el punto final de esta trayectoria tecnológica es obvio: armas autónomas ”. Los signatarios "creen que una carrera armamentista de IA militar no sería beneficiosa para la humanidad" y observan que la IA "puede hacer que los campos de batalla sean más seguros para los humanos, especialmente los civiles, sin crear nuevas herramientas para matar personas". Encuentran que las armas autónomas pueden no requerir "materias primas costosas o difíciles de obtener", por lo que es probable que se vuelvan "ubicuas y baratas para que todas las potencias militares importantes las produzcan en masa", así como "aparezcan en el mercado negro" y en las manos de terroristas, dictadores y caudillos, etc.

Como investigadores de IA, los firmantes se comparan con químicos, biólogos y físicos que "no tenían ningún interés en construir armas químicas o biológicas" y, por lo tanto, apoyaron los tratados que prohíben las armas químicas y biológicas, así como las armas nucleares espaciales y las armas láser cegadoras. .

Los signatarios observan que "los investigadores de IA no tienen interés en construir armas de IA y no quieren que otros empañen su campo al hacerlo, creando potencialmente una gran reacción pública contra la IA que restringe sus futuros beneficios sociales". Para evitar "una carrera de armamentos de IA militar", los signatarios piden "una prohibición de las armas autónomas ofensivas más allá de un control humano significativo".

La carta ha atraído un gran interés de los medios, desde el guardián a The New York Times. Max Tegmark, profesor del MIT y fundador del Future of Life Institute dijo VICE Motherboard, "Estos son los expertos en inteligencia artificial que están construyendo la tecnología que están hablando y diciendo que no quieren tener nada que ver con esto".

ACTUALIZACIÓN: A 15 de enero de 2016, un total de 3,037 inteligencia artificial y robótica Los investigadores habían firmado la carta abierta pidiendo la prohibición de las armas autónomas, así como a más de 17,000 otros patrocinadores.

Para obtener más información, consulte:

Foto: Participantes en un Instituto del Futuro de la Vida conferencia sobre el “Futuro de la Inteligencia Artificial”Celebrada en Puerto Rico en enero de 2015 (c) Future of Life Institute, 2015.

María

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros