image de héros de menu
Un millénaire est assis dans le coin d'une pièce, lisant, des écouteurs entourés de meubles millénaires, y compris des plantes d'intérieur

Cinq raisons pour lesquelles les millennials doivent interdire les robots tueurs

Caroline Fox a effectué un stage à Mines Action Canada en tant qu'adjointe aux communications pour la campagne Halte aux robots tueurs entre septembre et décembre 2019, tout en poursuivant des études supérieures à l'Université d'Ottawa.

Photo d'Austin Distel.

La vision des Millennials en tant que futurs leaders sur les questions mondiales est une notion troublante pour les générations plus âgées. Considéré comme paresseux, démotivé et en retard à cause de la longue file d'attente de Starbucks, la génération du millénaire a différents préjugés contre eux lorsqu'ils entrent sur le marché du travail.

Cependant, malgré notre sceptics, nous assistons à la montée en puissance d'une main-d'œuvre dirigée par le millénaire et bientôt des leaders internationaux du millénaire. Ce changement démographique aura un impact important sur les questions qui retiennent le plus l'attention. En termes simples, nous sommes les futurs décideurs de notre nation - et ce que nous disons compte, va.

L'un des plus grands défis auxquels sont confrontés tous les dirigeants internationaux est d'assurer la sûreté et la sécurité de leurs citoyens. Cela comprend la police des communautés locales, la sécurisation des frontières nationales et la participation à la guerre internationale.

De plus en plus, une minorité de pays a commencé à financer le développement d'armes entièrement autonomes, également connues sous le nom de « robots tueurs » ; des systèmes conçus pour sélectionner des cibles et tuer sans contrôle humain. Les robots tueurs présentent des risques importants pour l'humanité. Voici cinq raisons pour lesquelles les Millennials doivent interdire les robots tueurs.

Les actions des robots tueurs seront guidées par des chiffres. Les armes entièrement autonomes, à leur niveau le plus élémentaire, seront des machines dotées de processus. Contrairement à la prise de décision en temps réel, l'engagement de robots dans la police ou la guerre signifie agir sur la base d'algorithmes préétablis, un peu comme le bureau de votre famille qui a constamment besoin d'être mis à jour. Ces algorithmes aident le système radar de l'ordinateur à examiner son environnement pour déterminer si le profil de la cible se trouve ou non en son sein.

Mais il n'y a pas de mécanisme de réflexion. Les robots tueurs fonctionneraient sur un «processus d'analyse de capteur-force» dans lequel la machine collecte des données sur la source externe, analyse la source en fonction de sa programmation interne et applique la force si les conditions pour le faire sont remplies (En savoir plus sur www.article36.org). Cependant, l'apprentissage automatique en relation avec l'analyse des données reste flou, ce qui ajoute à la complexité de ce problème. Cela remet en question l'éthique derrière les codes qui programment un système pour tuer.

Nous l'avons tous déjà entendu — les millennials le sont aussi sensible. La force motrice derrière ce malentendu est la mesure dans laquelle les jeunes générations qualifient les comportements normalisés de mauvais.

Notre approche n'est pas parfaite. Après tout, nous sommes aussi la génération qui a mangé les Tide Pods. Cependant, il va sans dire que les Millennials luttent pour l'égalité entre les groupes vulnérables confrontés à une discrimination systémique, notamment les femmes, les personnes de couleur, les communautés LGBTQ+, les personnes travaillant au salaire minimum et différents groupes religieux.

Les robots tueurs défient ces efforts grâce à des algorithmes préétablis qui identifient la cible à tuer. Ces algorithmes sont latents avec leurs propres biais qui dictent la production de la machinerie. Un robot, contrairement à un humain, ne peut savoir qui est une personne en particulier ou ce qu'elle fait. Au contraire, ils analysent les facteurs d'identification qui correspondent aux critères qui ont été programmés dans leur système d'exploitation. Cette programmation sera obligée d'utiliser des caractéristiques telles que la couleur de la peau, la structure osseuse et les marques faciales, l'emplacement ou le modèle de comportement. Cela ouvre la porte à un échec potentiel lorsqu'un robot doit faire la distinction entre des soldats et des civils qui se ressemblent, mais qui ont des motivations totalement différentes.

Nous sommes tous passés par là, Millennials. Vous allez ouvrir votre ordinateur portable dans votre cours du matin, seulement pour découvrir que le système est tombé en panne. Vos devoirs sont terminés et la vie telle que vous la connaissez est terminée.

Les incidents matériels sont le « commun rare ». Ils n'arrivent que de temps en temps, mais inévitablement, ils vous trouveront. Nous le savons parce que le matériel n'est pas parfait, malgré le niveau de formation spécialisée des ingénieurs du MacBook le plus sophistiqué. Cependant, par rapport à un robot tueur, le système d'un MacBook est assez simple. Le danger avec les armes entièrement autonomes est la responsabilité d'un roboticien, d'un ingénieur ou d'un programmeur concernant le produit final. Si on n'a pas compris comment créer un ordinateur portable basique sans panne, comment rendre compte de l'exécution sans faille d'une machine dans une situation où les enjeux sont plus critiques qu'un élève en classe ?

L'un des arguments de base pour s'engager dans des cercles de guerre autour de la valeur. La valeur du gain politique et économique est primordiale dans ce débat. Nous savons tout sur le gain personnel, Millennials ! C'est un peu comme quand les adultes nous traitent d'égoïstes.

L'essor des robots tueurs se fait autour de l'idée que les citoyens n'auront plus à s'engager dans une guerre physique, rendant ainsi la guerre plus précise et minimisant ou éliminant les pertes humaines de l'équation. Mais ce n'est pas tout à fait vrai.

Il y a de nombreuses questions sur les robots tueurs auxquelles même les ingénieurs, roboticiens et législateurs les plus sophistiqués n'ont pas encore répondu. Il existe très peu de preuves suggérant que les armes autonomes auront un impact positif sur l'impact civil. En fait, les civils dans les pays déchirés par la guerre sont susceptibles d'être plus à risque d'être étiquetés à tort comme des cibles en raison de similitudes d'apparence avec les combattants. Considérez, par exemple, les uniformes de combat de l'Etat islamique, impliquant des masques noirs qui couvrent tout sauf les yeux. Cela présente des risques pour les femmes à proximité portant des niqabs ou des burqas noirs. De plus, cela met les enfants à proximité en danger. Les civils des pays déployant des robots tueurs sont également préoccupants. Par exemple, si des armes entièrement autonomes sont développées et utilisées, elles pourraient théoriquement être utilisées ou remplacer la police nationale. Cela expose les communautés vulnérables confrontées à une surveillance policière excessive ou à des violences policières à un risque d'être surveillées par une force de police robotisée. Comment pouvons-nous nous attendre à ce qu'une arme entièrement autonome réponde à un appel au 911 qui fournit peu de description quant à l'identité de l'agresseur ? Peut-on s'attendre à ce qu'un robot sache comment faire face à une attaque imprévue s'il doit identifier la cible en temps réel ?

Ces types de questions restent sans réponse. Bref, nous développons des machines à l'aveuglette.

Ce n'est un secret pour personne que les défis auxquels est confronté le bien-être à long terme des Millennials sont uniques par rapport aux préoccupations mondiales des générations passées. Il ne s'agit pas de frapper les impacts des tragédies mondiales passées. Après tout, aucun millénaire ne ferait bien face à une dépression économique massive. Ce type de suffrage n'est tout simplement pas le contenu que recherchent nos abonnés Instagram.

Cependant, contrairement à nos prédécesseurs, les Millennials sont confrontés à un défi mondial qui est entièrement hors du contrôle de quiconque : le changement climatique. Sans un engagement collectif de tous les acteurs, aussi petit que les habitudes individuelles au jour le jour envers les pratiques de production à grande échelle des sociétés multinationales, les catastrophes naturelles finiront par nous détruire. La fin de l'humanité sera impersonnelle - un simple résultat de l'accumulation de combustibles fossiles nocifs, de déchets toxiques et d'un manque de respect total pour les habitats de différentes espèces.

Dans cette optique, nous commençons à voir de nombreux parallèles entre les effets du changement climatique et les robots tueurs. Le changement climatique, comme un robot, ne reconnaît pas un être humain comme une entité intrinsèque. Un humain est un petit rouage dans le système plus vaste que le changement climatique cherche à détruire. Il ne considère pas les résultats des spectateurs sur son chemin. De même, les robots tueurs ne reconnaissent pas les cibles comme des humains, mais plutôt comme un objet à engager. Sa mission globale ne prend pas en compte la mise à mort comme un événement significatif, mais plutôt l'accomplissement d'une tâche. En résumé, Millennials, c'est si nous voulons que les soldats, qu'ils soient mécaniques ou humains, comprennent la signification d'une vie. Nous devrions nous attendre à un comportement diligent similaire à celui de la police ou de l'armée, étant donné que l'État a le pouvoir de mettre fin à la vie d'une personne.

C'est assez simple, Millennials. Les robots tueurs présentent plus de risques que de triomphes. Le rôle de la technologie n'a jamais été de nous remplacer, mais plutôt de nous assister dans les tâches quotidiennes. Nous devons examiner les circonstances et nous demander si c'est le type de monde dans lequel nous voulons vivre.

Le changement est à notre portée. Assurons-nous simplement d'arriver à l'heure pour que cela se produise.

Rendez-vous sur stopkillerrobots.org pour en savoir plus sur les robots tueurs et ce que vous pouvez faire à leur sujet. #ÉquipeHumain

Graphique avec Caroline Fox tendant la main à la caméra avec « Stop Killer Robots » sur sa main.

Caroline Fox a effectué un stage à Mines Action Canada en tant qu'adjointe aux communications pour la campagne Halte aux robots tueurs entre septembre et décembre 2019, tout en poursuivant des études supérieures à l'Université d'Ottawa.


Article original publié le Medium.com.

Caroline Fox

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous