Des médias sociaux à l'utilisation de chiens robots par les forces de l'ordre, les technologies d'intelligence artificielle et la prise de décision automatisée jouent désormais un rôle important dans nos vies. Les préjugés de notre société résident dans les algorithmes que nous concevons, dans les ensembles de données que nous compilons et dans les étiquettes que nous nous prescrivons mutuellement.
Les technologies émergentes telles que la reconnaissance faciale et vocale s'appuient sur des ensembles de données de formation déjà biaisés et échouent souvent à reconnaître les personnes de couleur, les personnes handicapées et les femmes, favorisant les visages à la peau claire et extérieurement masculins par rapport aux visages à la peau plus foncée et extérieurement féminins.
Et tandis que des efforts seront faits pour diversifier les ensembles de données, ce n'est pas seulement un problème de données non représentatives.
« La reconnaissance faciale risque d'être militarisée par les forces de l'ordre contre les communautés marginalisées du monde entier. De New Delhi à New York, cette technologie invasive retourne nos identités contre nous et porte atteinte aux droits humains.
Dr Matt Mahmoudi, chercheur en IA et droits humains à Amnesty International.
Exacerbation des préjudices pour les communautés racialisées
Les armes sont des outils du pouvoir colonial et impérial, alimentant des conflits et des guerres qui affectent de manière disproportionnée les minorités visibles et les communautés vulnérables. La reconnaissance faciale et d'autres formes de technologie d'intelligence artificielle renforcent les modèles institutionnels existants de discrimination, entraînant des effets disproportionnés sur les communautés historiquement marginalisées.
De nombreuses technologies plus ou moins autonomes sont déjà largement déployées sans s'interroger sur les conséquences d'une normalisation de leur usage. À l'extrémité la plus extrême du spectre de l'automatisation croissante se trouvent les robots tueurs.
Les technologies qui permettent aux armes autonomes de profiler, de faire correspondre les modèles et de traiter automatiquement les personnes en tant que données.
Le racisme systémique et la suprématie blanche sont inextricablement liés au développement et à l'utilisation des armes. Les nouvelles technologies problématiques sont également souvent testées d'abord sur les communautés marginalisées.
Nous devrions remettre en question les structures d'inégalité, ne pas les intégrer dans des armes.
Rejoignez #TeamHuman
Nous appelons à une nouvelle loi internationale parce que les lois qui interdisent et réglementent les armes créent des frontières pour les gouvernements et les entreprises entre ce qui est acceptable et ce qui est inacceptable. Nous pouvons faire avancer cela avec un élan accru en utilisant notre voix collective et en exigeant publiquement un changement.
Tiens-toi à jour