imagen de héroe de menú
AOAV IGw AWS FINAL 150ppi_LR

Convocatoria de investigación en inteligencia artificial

AOAV IGw AWS FINAL 150ppi_LR

Científicos e investigadores destacados de la industria y el mundo académico han firmado un carta abierta pidiendo que la inteligencia artificial (IA) y la investigación de máquinas inteligentes se centren en el desarrollo de sistemas que sean "robustos y beneficiosos" para la humanidad. La carta enlaza con un documento esbozando "direcciones de investigación que pueden ayudar a maximizar el beneficio social de la IA" que incluye una lista de cuestiones legales, éticas y de otro tipo relacionadas con los "sistemas de armas autónomos letales", también conocidos como armas totalmente autónomas o robots asesinos.

El 15 de enero, uno de los cartaprincipales signatarios Tesla Motors y SpaceX fundador Elon Musk anunció una donación de US $ 10 millones para becas de investigación destinadas a implementar la convocatoria de la carta abierta, que dijo firmó porque "la seguridad de la IA es importante" y quiere "apoyar la investigación destinada a mantener la IA beneficiosa para la humanidad".

La donación será administrada por el Instituto del futuro de la vida, una organización sin fines de lucro dirigida por voluntarios que trabaja "para mitigar los riesgos existenciales para la humanidad". los carta abierta fue emitida luego de que el Instituto convocara a conferencia sobre el “Futuro de la Inteligencia Artificial”En Puerto Rico del 2 al 4 de enero de 2015, a la que asistieron Musk y decenas de firmantes al pie de la letra, como el cofundador de Skype, Jaan Tallinn.

Experto técnico Dra. Heather Roff de la Universidad de Denver, que es miembro de la Comité Internacional para el Control de Armas Robóticas, quien es cofundador de la Campaña para Parar a los Robots Asesinos, fue invitado a asistir a la conferencia de Puerto Rico para dar una presentation sobre armas autónomas. La Campaña para detener a los robots asesinos da la bienvenida al llamado expresado en la carta abierta para la investigación de la IA que sea beneficiosa para la humanidad y valora la inclusión de las preocupaciones sobre armas autónomas como una prioridad de investigación interdisciplinaria.

Como Rebecca Merrett ha reportaron–En una de las pocas críticas serias hasta la fecha por los medios–Las “prioridades de investigación” de 12 páginas documento adjunto a carta abierta formula cuestiones legales y éticas sobre el rápido avance de la inteligencia y la autonomía de las máquinas. Analiza la responsabilidad y la ley de armas y vehículos autónomos, la ética de las máquinas y las implicaciones de privacidad de los sistemas de inteligencia artificial. El documento fue redactado por varios coautores, incluido el profesor Stuart Russell de la Universidad de California (Berkeley), coautor del libro de texto estándar de IA "Inteligencia artificial: un enfoque moderno" y cofundador de la Instituto del futuro de la vida, Profesor Max Tegmark del MIT.

En las "prioridades de investigación" documento En la sección sobre "Investigación en ciencias de la computación para una IA robusta" (página 3), los autores señalan que "a medida que los sistemas autónomos se vuelven más frecuentes en la sociedad, se vuelve cada vez más importante que se comporten de manera robusta según lo previsto", y afirman que el desarrollo de armas autónomas y otros sistemas, "por lo tanto, ha despertado el interés en sistemas de alta seguridad donde se pueden hacer fuertes garantías de robustez".

El documento describe cuatro formas en las que “un sistema de inteligencia artificial puede fallar en el desempeño deseado, corresponden a diferentes áreas de investigación de robustez”, a saber, verificación, validez, seguridad y control. La pregunta clave que se plantea bajo control es "¿cómo permitir un control humano significativo sobre un sistema de IA después de que comience a funcionar?" o "Bien, construí mal el sistema, ¿puedo arreglarlo?"

En una sección que explica el "control" (página 5), ​​los autores señalan que "para ciertos tipos de sistemas de inteligencia artificial críticos para la seguridad, especialmente vehículos y plataformas de armas, puede ser deseable retener alguna forma de control humano significativo, ya sea que esto signifique un humano en el bucle, en el bucle o algún otro protocolo ". los documento también observa que “habrá trabajo técnico necesario para asegurar que se mantenga un control humano significativo”. El documento pregunta "¿cómo debería definirse el 'control humano significativo' sobre las armas?" y "¿cómo se puede fomentar la transparencia y el discurso público sobre estos temas?"

El Instituto del Futuro de la Vida ha dijo que el concurso de subvenciones abiertas para el proyecto de investigación de seguridad de la IA se administrará a través de una solicitud en línea que estará disponible en su sitio web la próxima semana en: http://futureoflife.org. Según el Instituto, "cualquiera puede enviar una propuesta de subvención, y las mejores ideas ganarán independientemente de que provengan de la academia, la industria o cualquier otro lugar". Planea otorgar la mayoría de las subvenciones a los investigadores de IA y el resto a la investigación relacionada con la IA que involucre otros campos, incluidos la economía, el derecho, la ética y la política. La donación también se utilizará para celebrar reuniones y llevar a cabo programas de divulgación destinados a reunir a investigadores académicos de IA, desarrolladores de IA de la industria y otros componentes clave.

El 29 de enero, campaña para detener los robots asesinos portavoz Esteban Ganso de Human Rights Watch debate El profesor Ron Arkin de Georgia Tech sobre armas autónomas en la conferencia anual de la Asociación para el Avance de la Inteligencia Artificial en Austin, Texas. El debate será moderado por el presidente de la AAAI, Thomas G. Dietterich, de la Oregon State University.

A partir del 18 de enero, el carta abierta ha sido firmado por más de 4,000 personas.

Para más información, ver:

Imagen: (c) Instituto del Futuro de la Vida obras de arte, Enero 2015

María

Texto alternativo de la imagen
Icono de puntos SKR

Detén a los robots asesinos

Unáse con nosotros

Manténgase al día con los últimos avances en el movimiento para detener a los robots asesinos.

Unáse con nosotros