image de héros de menu

Robots de course et tueurs

Déshumanisation numérique et biais algorithmique

Des médias sociaux à l'utilisation de chiens robots par les forces de l'ordre, les technologies d'intelligence artificielle et la prise de décision automatisée jouent désormais un rôle important dans nos vies. Les préjugés de notre société résident dans les algorithmes que nous concevons, dans les ensembles de données que nous compilons et dans les étiquettes que nous nous prescrivons mutuellement.

Les technologies émergentes telles que la reconnaissance faciale et vocale s'appuient sur des ensembles de données de formation déjà biaisés et échouent souvent à reconnaître les personnes de couleur, les personnes handicapées et les femmes, favorisant les visages à la peau claire et extérieurement masculins par rapport aux visages à la peau plus foncée et extérieurement féminins.

Et tandis que des efforts seront faits pour diversifier les ensembles de données, ce n'est pas seulement un problème de données non représentatives.

Texte alternatif de l'image
« La reconnaissance faciale risque d'être militarisée par les forces de l'ordre contre les communautés marginalisées du monde entier. De New Delhi à New York, cette technologie invasive retourne nos identités contre nous et porte atteinte aux droits humains.
Dr Matt Mahmoudi, chercheur en IA et droits humains à Amnesty International.

Exacerbation des préjudices pour les communautés racialisées

Les armes sont des outils du pouvoir colonial et impérial, alimentant des conflits et des guerres qui affectent de manière disproportionnée les minorités visibles et les communautés vulnérables. La reconnaissance faciale et d'autres formes de technologie d'intelligence artificielle renforcent les modèles institutionnels existants de discrimination, entraînant des effets disproportionnés sur les communautés historiquement marginalisées.

De nombreuses technologies plus ou moins autonomes sont déjà largement déployées sans s'interroger sur les conséquences d'une normalisation de leur usage. À l'extrémité la plus extrême du spectre de l'automatisation croissante se trouvent les robots tueurs.

Les technologies qui permettent aux armes autonomes de profiler, de faire correspondre les modèles et de traiter automatiquement les personnes en tant que données.

Texte alternatif de l'image

Le racisme systémique et la suprématie blanche sont inextricablement liés au développement et à l'utilisation des armes. Les nouvelles technologies problématiques sont également souvent testées d'abord sur les communautés marginalisées.

Nous devrions remettre en question les structures d'inégalité, ne pas les intégrer dans des armes.

Rejoignez #TeamHuman

Nous appelons à une nouvelle loi internationale parce que les lois qui interdisent et réglementent les armes créent des frontières pour les gouvernements et les entreprises entre ce qui est acceptable et ce qui est inacceptable. Nous pouvons faire avancer cela avec un élan accru en utilisant notre voix collective et en exigeant publiquement un changement.

Tiens-toi à jour

 

1

Intersectionnalité, racisme et robots tueurs

Qu'est-ce que l'intersectionnalité ? Et pourquoi est-ce important lorsque nous parlons de robots tueurs et de racisme ? Avec des racines historiques et théoriques dans le féminisme noir et l'activisme des femmes de couleur, l'intersectionnalité est un concept qui reconnaît toutes les formes d'oppression telles que le capacitisme, le classisme, la misogynie et le racisme ; et examine comment ces oppressions fonctionnent en combinaison.

Voir la vidéo Texte alternatif de l'image

Comment Joy Buolamwini combat les biais dans les algorithmes

Joy Buolamwini, étudiante diplômée du MIT, travaillait avec un logiciel d'analyse faciale lorsqu'elle a remarqué un problème : le logiciel n'a pas détecté son visage car les personnes qui ont codé l'algorithme ne lui avaient pas appris à identifier une large gamme de tons de peau et de structures faciales. Maintenant, elle a pour mission de lutter contre les préjugés dans l'apprentissage automatique, un phénomène qu'elle appelle le « regard codé ». Un discours révélateur sur la nécessité de la responsabilité dans le codage ... alors que les algorithmes prennent en charge de plus en plus d'aspects de nos vies.
Voir la vidéo Texte alternatif de l'image

Robots tueurs et Afrique

Avec l'avènement de la quatrième révolution industrielle, une pléthore d'innovations technologiques a changé notre façon de vivre et de travailler. Cette innovation voit également de nouvelles façons de mener les guerres. Les soldats ne seront pas des humains, mais des robots. Une nouvelle génération d'armes autonomes ou "robots tueurs" pourrait radicalement changer la technologie des drones militaires. Le Dr Thompson Chengeta, un expert en droit des droits de l'homme, s'entretient avec la South African Broadcasting Corporation au sujet des robots tueurs et des raisons pour lesquelles ceux qui vivent en Afrique et leurs dirigeants politiques devraient se préoccuper de l'autonomie des systèmes d'armes.
Voir la vidéo Texte alternatif de l'image

Robots tueurs et droits humains

Quelles implications les robots tueurs auront-ils sur les droits humains ? Rasha Abdul Rahim d'Amnesty International développe certaines des implications des systèmes d'armes autonomes sur les droits humains.
Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous