Cependant, malgré notre sceptics, nous assistons à la montée en puissance d'une main-d'œuvre dirigée par le millénaire et bientôt des leaders internationaux du millénaire. Ce changement démographique aura un impact important sur les questions qui retiennent le plus l'attention. En termes simples, nous sommes les futurs décideurs de notre nation - et ce que nous disons compte, va.
L'un des plus grands défis auxquels sont confrontés tous les dirigeants internationaux est d'assurer la sûreté et la sécurité de leurs citoyens. Cela comprend la police des communautés locales, la sécurisation des frontières nationales et la participation à la guerre internationale.
De plus en plus, une minorité de pays a commencé à financer le développement d'armes entièrement autonomes, également connues sous le nom de « robots tueurs » ; des systèmes conçus pour sélectionner des cibles et tuer sans contrôle humain. Les robots tueurs présentent des risques importants pour l'humanité. Voici cinq raisons pour lesquelles les Millennials doivent interdire les robots tueurs.
1. Les robots tueurs calculent - ils ne pensent pas
Les actions des robots tueurs seront guidées par des chiffres. Les armes entièrement autonomes, à leur niveau le plus élémentaire, seront des machines dotées de processus. Contrairement à la prise de décision en temps réel, l'engagement de robots dans la police ou la guerre signifie agir sur la base d'algorithmes préétablis, un peu comme le bureau de votre famille qui a constamment besoin d'être mis à jour. Ces algorithmes aident le système radar de l'ordinateur à examiner son environnement pour déterminer si le profil de la cible se trouve ou non en son sein.
Mais il n'y a pas de mécanisme de réflexion. Les robots tueurs fonctionneraient sur un «processus d'analyse de capteur-force» dans lequel la machine collecte des données sur la source externe, analyse la source en fonction de sa programmation interne et applique la force si les conditions pour le faire sont remplies (En savoir plus sur www.article36.org). Cependant, l'apprentissage automatique en relation avec l'analyse des données reste flou, ce qui ajoute à la complexité de ce problème. Cela remet en question l'éthique derrière les codes qui programment un système pour tuer.
2. Les algorithmes derrière les robots tueurs sont intrinsèquement racistes
Nous l'avons tous déjà entendu — les millennials le sont aussi sensible. La force motrice derrière ce malentendu est la mesure dans laquelle les jeunes générations qualifient les comportements normalisés de mauvais.