image de héros de menu

Travailleurs de la technologie et robots tueurs

Nous ne nous attendions pas à ce qu'une campagne pour arrêter les robots tueurs soit nécessaire dans le monde - mais c'est le cas.

Oubliez ce que vous avez vu dans les films : les progrès rapides de la vision par ordinateur, de l'apprentissage automatique, de la puissance de calcul, de la robotique et de l'intelligence artificielle sont vivement recherchés par les militaires du monde entier pour automatiser les décisions de tuer. La double utilisation inhérente de la plupart de ces technologies et les investissements lourds sur le terrain exigent un nouveau droit international pour aborder l'autonomie des systèmes d'armes et pour assurer un contrôle humain significatif dans l'utilisation de la force.

Stop Killer Robots recherche activement des travailleurs de la technologie et des entreprises comme alliés pour atteindre notre objectif commun d'un nouveau traité visant à réglementer l'autonomie des systèmes d'armes. Le secteur privé jouera un rôle clé dans la prévention du développement de ces armes.

 

 

Texte alternatif de l'image

Des milliers d'experts en intelligence artificielle, de roboticiens, de scientifiques et de professionnels apparentés ont cosigné diverses lettres ouvertes depuis 2015 appelant à un traité sur les armes autonomes.

Les travailleurs technologiques d'entreprises mondiales telles que Google, Microsoft et Amazon repoussent leurs recherches, les produits et les plates-formes étant adaptés pour une utilisation dans la guerre. Des sociétés de robotique telles que Clearpath Robotics s'emploient activement à interdire les robots tueurs.

Elon Musk de Tesla, Demis Hassabis de Google et Steve Wozniak d'Apple ont approuvé l'interdiction des armes autonomes. D'autres ont comparé les développements de l'IA aux armes nucléaires, mais jusqu'à présent, n'ont appelé qu'à une réglementation faible qui ne traitera pas des implications juridiques et éthiques de l'autonomie dans les armes.

FAQ

Un traité sur l'autonomie des systèmes d'armes n'étoufferait pas l'innovation, mais contribuerait plutôt à garantir que la recherche et le développement de l'intelligence artificielle se poursuivent sans entrave. Les biologistes n'ont pas trouvé que la Convention sur les armes biologiques a nui à leurs recherches et développements, et les chimistes ne se plaignent pas non plus que la Convention sur les armes chimiques ait eu un impact négatif sur leur travail.

En fait, si la technologie permettant de construire des armes autonomes est autorisée à se développer sans réglementation, de nombreux experts en intelligence artificielle, roboticiens et travailleurs de la technologie craignent que les applications positives de l'intelligence artificielle en pâtissent. Tout dysfonctionnement, erreur ou crime de guerre commis par des systèmes d'armes autonomes ferait l'objet d'une publicité négative, ce qui entraînerait un recul du public sur la tendance à développer l'intelligence artificielle et d'autres technologies émergentes.

Stop Killer Robots est une coalition à problème unique visant à obtenir un traité pour assurer un contrôle humain significatif sur l'utilisation de la force et interdire le ciblage de personnes par des armes autonomes. Notre coalition d'organisations non gouvernementales remet souvent en question des projets militaires spécifiques qui pourraient ouvrir la voie à des systèmes d'armes avec des niveaux d'autonomie inquiétants, mais elle ne demande ni ne préconise que les entreprises ne travaillent pas avec des forces armées ou des gouvernements spécifiques.

Nous conseillons aux technologues de considérer les partenariats, les clients et les investisseurs avec lesquels ils travaillent et de réfléchir de manière critique aux conséquences de toute relation commerciale à haut risque qu'ils nouent.

Stop Killer Robots n'est pas anti-technologie. Nous ne nous opposons pas aux applications militaires ou policières de l'intelligence artificielle et des technologies émergentes en général. En tant que campagne centrée sur l'humain, nous pensons qu'un nouveau traité international pour réglementer les armes autonomes apporterait de nombreux avantages à l'humanité. De nouvelles lois aideraient à clarifier le rôle de la prise de décision humaine liée aux armes et à l'usage de la force dans la guerre, le maintien de l'ordre et d'autres circonstances.

Le développement actuel de l'IA et des technologies émergentes dépasse la capacité de réglementation des décideurs. Les entreprises technologiques et les travailleurs doivent s'engager à ne pas contribuer au développement d'armes autonomes qui ciblent des personnes et ne peuvent pas ou ne peuvent pas fonctionner sous un contrôle humain significatif.

De nombreuses technologies en cours de développement sont à « double usage », c'est-à-dire qu'elles peuvent être utilisées dans divers scénarios (civil, militaire, policier, etc.). Par conséquent, il est crucial que le secteur technologique reste vigilant et tienne toujours compte de l'utilisation finale anticipée ou imprévue.

Que peut faire le secteur technologique ?

Entreprises:

  • Soutenir publiquement l'appel pour assurer un contrôle humain significatif sur l'utilisation de la force et réglementer l'autonomie des systèmes d'armes.
  • S'engager publiquement à ne pas contribuer au développement d'armes autonomes.
  • Incorporez cette position dans les principes existants, les documents de politique et les contrats juridiques tels que les politiques d'utilisation acceptable ou les conditions de service.
  • Assurez-vous que les employés sont bien informés de la manière dont leur travail sera utilisé et établissez des processus internes pour encourager des discussions ouvertes sur toute préoccupation sans crainte de représailles.

Personnes:

  • Soutenez l'appel pour assurer un contrôle humain significatif sur l'utilisation de la force et réglementer l'autonomie des systèmes d'armes.
  • Tenez votre entreprise, votre industrie et vos pairs responsables des recherches qu'ils entreprennent et des clients avec lesquels ils travaillent.
  • Réalisez méthodiquement des évaluations des risques pour évaluer les utilisations, les conséquences ou les risques non intentionnels associés à la technologie que vous développez.
  • Rejoignez le Comité international pour le contrôle des armements robotiques, co-fondateur de notre campagne à www.icrac.net 
Texte alternatif de l'image

Rejoignez notre communauté

Avec des militants opérant dans le monde entier, vous n'êtes pas seul. Nous pouvons vous fournir les connexions et les ressources nécessaires pour apporter un changement significatif, que ce soit au sein de votre organisation, communauté, état ou au niveau national et international. Votre niveau d'implication dépend entièrement de vous - chaque contribution est utile.

10 façons pour les techniciens de s'impliquer

Rencontrez certains de nos champions du secteur technologique

Liz O'Sullivan

Liz O'Sullivan

Liz O'Sullivan est membre du conseil consultatif communautaire pour le projet de surveillance de la technologie de surveillance (STOP), et a précédemment été la première directrice de la technologie de STOP. Actuellement, Liz est PDG d'une nouvelle société d'équité algorithmique, Parity, et était auparavant cofondatrice d'Arthur, une société de surveillance des modèles d'IA.

Elle a passé 10 ans dans la technologie, principalement dans le domaine de l'IA, notamment en tant que responsable des annotations d'images pour la startup de vision par ordinateur, Clarifai, où elle a commencé à dénoncer le potentiel d'abus éthique de la technologie. Liz s'est exprimée publiquement sur la myriade de dommages pouvant survenir dans le pipeline d'IA et milite pour la campagne Stop Killer Robots aux Nations Unies.

 

 

Laura Nolan

Laura Nolan

Laura Nolan est ingénieur logiciel dans l'industrie depuis plus de 15 ans. Elle était l'une des (nombreuses) signataires de la lettre ouverte « cancel Maven », qui demandait à Google d'annuler son implication dans le projet du DoD américain d'utiliser la technologie de l'intelligence artificielle pour analyser les images de surveillance des drones. Elle a fait campagne au sein de Google contre le projet Maven, avant de quitter l'entreprise pour protester contre celui-ci. En 2018, Laura a également fondé TechWontBuildIt Dublin, une organisation pour les travailleurs de la technologie préoccupés par les implications éthiques de notre industrie et du travail que nous effectuons.

Laura est titulaire d'une maîtrise en génie logiciel avancé de l'University College et d'un BA (Mod) en informatique du Trinity College Dublin, où elle a été élue Trinity Scholar.

Noel Sharkey

Noel Sharkey

Noel Sharkey PhD, DSc FIET, FBCS, CITP, FRIN est professeur émérite de robotique et d'intelligence artificielle, Université de Sheffield, Royaume-Uni. Ses précédents emplois universitaires étaient aux laboratoires d'IA de Yale, au département de psychologie de Stanford, à l'Essex Language and Linguistics et à Exeter Computer Science. Il est ingénieur électricien agréé, membre de la société de psychologie expérimentale et d'Equity, le syndicat des acteurs.

Noel préside le Comité international pour le contrôle des armements robotiques, est directeur de la Fondation pour une robotique responsable et membre du Comité directeur de la Campagne pour arrêter les robots tueurs. Il écrit pour les journaux nationaux et est surtout connu du public grâce à des émissions télévisées populaires de la BBC telles que "Robot Wars".

Photo Fondation Heinrich Böll

Un traité global est possible

Plus de 80 pays, dont Israël, la Chine, la Russie, la Corée du Sud, le Royaume-Uni et les États-Unis, participent activement aux pourparlers de l'ONU sur la manière de gérer les préoccupations soulevées par les systèmes d'armes autonomes. Après des années de discussions, une pression supplémentaire de l'industrie technologique est nécessaire pour lancer des négociations formelles sur un traité international visant à aborder l'autonomie des systèmes d'armes et à assurer un contrôle humain significatif sur l'utilisation de la force.

Les décideurs politiques ont besoin des esprits et des chercheurs les plus brillants du monde à la pointe des percées de l'IA pour éviter les dommages causés par l'utilisation de l'IA dans la guerre et la police.

Approuvez l'appel pour arrêter les robots tueurs.

Prendre position.

 

Signez la lettre ouverte

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez