изображение главного меню

Превосходство самоуспокоенности на суперразумных машинах

Это краткое заявление авторитетов науки призывает к осторожности при разработке искусственного интеллекта и отмечает призывы к международному договору о запрете автономных систем оружия, которые могут выбирать и уничтожать собственные цели.

Успех в создании ИИ стал бы крупнейшим событием в истории человечества.

К сожалению, он может оказаться и последним, если мы не научимся избегать рисков. Например, в ближайшем будущем мировые вооруженные силы рассматривают автономные системы вооружений, которые могут выбирать и уничтожать собственные цели; ООН и Human Rights Watch выступили за договор о запрещении такого оружия.

Оригинальную статью можно найти на сайте Huffington Post. здесь.

Альтернативный текст изображения
Значок точек SKR

Остановите роботов-убийц

Присоединяйтесь к нам

Следите за последними достижениями в движении по борьбе с роботами-убийцами.

Присоединяйтесь к нам