image de héros de menu
+

Moins d'autonomie. Plus d'humanité.

La technologie doit être utilisée pour responsabiliser tout le monde, pas pour nous réduire – à des stéréotypes, des étiquettes, des objets ou simplement un modèle de 1 et de 0.

Face à la déshumanisation numérique croissante, la coalition Stop Killer Robots s'efforce d'assurer le contrôle humain de l'usage de la force. Notre campagne appelle à une nouvelle loi internationale sur l'autonomie des systèmes d'armes.

Pourquoi nous existons
+

Les faits sur la déshumanisation numérique

Déshumanisation

Les machines ne nous voient pas comme des personnes, juste un autre morceau de code à traiter et à trier. Des maisons intelligentes à l'utilisation de chiens robots par les forces de l'ordre, les technologies d'IA et la prise de décision automatisée jouent désormais un rôle important dans nos vies. À l'extrémité du spectre de l'automatisation se trouvent les robots tueurs.

Les robots tueurs ne font pas qu'apparaître, nous les créons. Si nous permettons cette déshumanisation, nous lutterons pour nous protéger de la prise de décision par machine dans d'autres domaines de notre vie. Il faut interdire les systèmes d'armes autonomes qui seraient utilisés contre des personnes, pour éviter ce glissement vers la déshumanisation numérique.

IA et course

La reconnaissance faciale semblable à la technologie favorise les visages à la peau claire et extérieurement masculins par rapport aux visages à la peau plus foncée et extérieurement féminins. Et, bien que des efforts soient déployés pour diversifier les ensembles de données, il ne s'agit pas seulement de données non représentatives. Les technologies de l'IA renforcent les modèles institutionnels existants de discrimination. Les stéréotypes sont ancrés dans la prise de décision automatisée.

Une nouvelle loi est nécessaire sur l'autonomie des systèmes d'armes pour créer des frontières entre ce qui est acceptable et inacceptable. Ceci est fondamental pour prévenir la déshumanisation numérique et d'autres cycles d'oppression et de violence. Nous devrions remettre en question les structures d'inégalité, ne pas les intégrer dans des armes.

#KeepCtrl

Que ce soit sur le champ de bataille ou lors d'une manifestation, les machines ne peuvent pas faire de choix éthiques complexes, elles ne peuvent pas comprendre la valeur de la vie humaine. Les machines ne comprennent pas les contextes ou les conséquences : la compréhension est une capacité humaine – et sans cette compréhension, nous perdons l'engagement moral et nous sapons les règles juridiques existantes.

Assurer un contrôle humain significatif signifie comprendre les technologies que nous utilisons, comprendre où nous les utilisons et être pleinement engagé dans les conséquences de nos actions. Les décisions de vie ou de mort ne devraient pas être déléguées à une machine. Il est temps que le nouveau droit international réglemente ces technologies.

Immoral Code est un film qui contemple l'impact des robots tueurs dans un monde de plus en plus automatisé, où les machines décident qui tuer ou quoi détruire. Il examine s'il existe des situations où il est moralement acceptable de prendre la vie, et - un ordinateur connaîtrait-il la différence ?

Code immoral

En savoir plus

Dernières nouvelles du monde entier

1

Simulation militaire d'un drone opéré par l'IA de l'US Air Force

Les informations selon lesquelles l'armée de l'air américaine a simulé un scénario dans lequel un drone exploité par l'IA a décidé de tuer l'opérateur humain afin d'atteindre l'objectif de la mission sont profondément préoccupantes. Si l’US Air Force a confirmé qu’il ne s’agissait pas d’une simulation d’IA, cela montre néanmoins l’urgence d’un droit international sur l’autonomie […]

2

La Convention sur les armes classiques s'épuise alors que les États adoptent un rapport dénué de sens

La dernière réunion des discussions de cette année lors de la réunion du Groupe d'experts gouvernementaux (GGE) sur les systèmes d'armes autonomes (AWS), du 15 au 19 mai 2023, s'est terminée sans progrès substantiel. Une fois de plus, le rapport final est creux sur le contenu et ne parvient pas à définir un cap pour les garanties contre AWS dont le monde a un besoin urgent. Alors que […]

3

Les États progressent sur la politique lors des discussions de l'ONU, alors que l'élan se renforce vers le traité sur l'AWS

La première réunion de 2023 du Groupe d'experts gouvernementaux (GGE) à la Convention sur les armes classiques (CCW) sur les systèmes d'armes autonomes (AWS) a eu lieu du 6 au 10 mars. Suite au communiqué de Belén des États d'Amérique latine et des Caraïbes et à la soumission de 5 propositions écrites supplémentaires pour un cadre international sur l'AWS, les États se sont engagés […]

Recherche et ressources

Négocier un traité sur les systèmes d'armes autonomes - La voie à suivre

L'élan croissant vers la réalisation d'un nouveau droit international est le résultat d'une large reconnaissance des dangers éthiques, juridiques et humanitaires posés par l'autonomie des systèmes d'armes et de la clarté sur la solution dont nous avons besoin. L'occasion est arrivée pour les États de prendre le leadership en entamant des négociations sur un nouveau traité...

Arrêter les robots tueurs : un guide pour les décideurs

Grâce à une fonctionnalité accrue de l'intelligence artificielle et au traitement des données par des algorithmes, les machines commencent à remplacer les humains dans l'application de la force. Cela a des conséquences imprévisibles et potentiellement dévastatrices pour l'humanité. Il est essentiel que les limites convenues au niveau international sur l'autonomie des systèmes d'armes soient convenues. Un nouveau...

Réponse aux questions d'orientation du président du GGE

Ce document présente la réponse de la Campagne pour arrêter les robots tueurs aux questions supplémentaires diffusées par le président du Groupe d'experts gouvernementaux le 12 août 2021. Les réponses couvrent des sujets tels que : Définitions et caractéristiques Interaction homme-machine et contrôle humain Éthique

Grejen med mördarrobotar

Utilisant un langage non technique, cette ressource en suédois présente le sujet des armes autonomes, les menaces posées par le développement et l'utilisation de ces armes, une perspective féministe sur la question, et pourquoi un traité est nécessaire pour assurer un contrôle humain significatif sur l'utilisation de Obliger. La publication originale peut être...

Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous