Превосходство самоуспокоенности на суперразумных машинах
Это краткое заявление авторитетов науки призывает к осторожности при разработке искусственного интеллекта и отмечает призывы к международному договору о запрете автономных систем оружия, которые могут выбирать и уничтожать собственные цели.
Успех в создании ИИ стал бы крупнейшим событием в истории человечества.
К сожалению, он может оказаться и последним, если мы не научимся избегать рисков. Например, в ближайшем будущем мировые вооруженные силы рассматривают автономные системы вооружений, которые могут выбирать и уничтожать собственные цели; ООН и Human Rights Watch выступили за договор о запрещении такого оружия.
Оригинальную статью можно найти на сайте Huffington Post. здесь.