Déclaration au Conseil permanent de l'Organisation des États américains
Merci, Monsieur le Président, et merci au Costa Rica pour son aimable invitation à prendre la parole devant le Conseil permanent.
Je parle au nom de la campagne Stop Killer Robots, une coalition internationale de plus de 200 organisations membres de plus de 70 pays appelant à la négociation d'un nouvel instrument juridiquement contraignant sur les systèmes d'armes autonomes. Cet appel à la négociation bénéficie d'un énorme soutien de la part d'un large éventail de parties prenantes, dont le secrétaire général de l'ONU, le CICR, des milliers d'experts en technologie et en intelligence artificielle, des chefs religieux, la société civile et la majorité de l'opinion publique.
Comme nous le savons tous sans aucun doute, l'IA et les technologies de prise de décision automatisée imprègnent la société dans de multiples domaines. Dans la sphère non militaire, les risques et les défis liés à l'utilisation de l'intelligence artificielle et des systèmes algorithmiques sont largement reconnus, tout comme la nécessité d'une réglementation efficace. En septembre 2021, un rapport du Haut-Commissariat des Nations Unies aux droits de l'homme notait que "les technologies d'IA peuvent" avoir des effets négatifs, voire catastrophiques, si elles sont déployées sans tenir suffisamment compte de leur impact sur les droits de l'homme ". De nombreuses personnalités notables de l'industrie ont appelé les gouvernements à renforcer la réglementation et à créer de nouvelles législations et de nouveaux organismes de réglementation afin de résoudre les graves problèmes soulevés par l'IA et les technologies d'apprentissage automatique. Au niveau de l'Union européenne, le Parlement européen votera bientôt pour adopter la loi sur l'intelligence artificielle, qui deviendra loi d'ici la fin de cette année et qui s'appliquera à tous les pays membres de l'Union européenne. La loi sur l'IA introduira un certain nombre de normes et de garanties pour les technologies d'IA afin de protéger les droits de l'homme, y compris des exigences de transparence et des classifications d'IA à haut risque, et interdira l'utilisation de systèmes de reconnaissance faciale biométrique dans les espaces publics, ainsi que l'interdiction de la biométrie. systèmes de catégorisation, systèmes de reconnaissance des émotions et systèmes de police prédictive.
De telles mesures sont absolument nécessaires, car de graves dommages causés par l'IA et les systèmes de prise de décision automatisés existent déjà. Nous avons constaté des dommages importants, partout dans le monde, à cause de l'utilisation de l'IA et des technologies de prise de décision automatisée. Pour ne donner que deux exemples, aux Pays-Bas, un algorithme a signalé à tort des familles comme ayant commis une fraude à la protection de l'enfance, ciblant en particulier les familles de migrants et entraînant de graves difficultés financières pour des milliers de personnes. Aux États-Unis et dans d'autres juridictions, des personnes - en particulier des personnes de couleur - ont été arrêtées après avoir été identifiées à tort par des systèmes de reconnaissance faciale et biométrique. Les systèmes automatisés et algorithmiques suscitent des préoccupations particulières concernant les préjugés, la discrimination, l'inégalité et la dignité humaine. Ceux qui subiront le plus gros des impacts de ces technologies sont les populations qui ont historiquement « été les plus touchées et les plus lésées par l'émergence de nouvelles technologies et de nouveaux systèmes d'armes ».
La mesure dans laquelle les risques et les défis graves de l'IA et de l'apprentissage automatique sont reconnus par de nombreux États et organismes et organisations internationaux dans l'espace civil devrait être considérée comme une validation des préoccupations connexes concernant l'utilisation de l'IA dans l'espace militaire. Les systèmes d'armes autonomes ne sont pas hypothétiques. Nous observons une tendance significative à l'augmentation de l'autonomie dans diverses fonctions des systèmes d'armes, y compris dans des fonctions critiques telles que la sélection des cibles et l'application de la force. Ces systèmes se présentent sous différentes formes et tailles. Certains sont des drones ou des munitions vagabondes ; certains sont des véhicules terrestres sans pilote, tels que des chars. Trois exemples de systèmes préoccupants déjà utilisés sont le STM Kargu-2, le KUB-BLA du groupe Kalachnikov et le système LANIUS d'Elbit System. Le Kargu-2 est une munition de vagabondage avec des capacités de vol autonomes et un système de reconnaissance automatique de cible, et en 2021, un groupe d'experts de l'ONU a signalé que le Kargu-2 avait été utilisé en Libye et avait été "programmé pour attaquer des cibles sans nécessiter connectivité des données entre l'opérateur et la munition. Le KUB-BLA aurait été utilisé par la Russie en Ukraine et aurait une technologie d'identification visuelle par intelligence artificielle (AIVI) pour la reconnaissance et la classification des cibles en temps réel. Elbit Systems affirme que son système LANIUS peut effectuer une «détection d'ennemis» et une «classification des menaces», en différenciant les combattants des non-combattants, ou les individus hostiles des individus amicaux.
Prétendre être en mesure de faire la distinction entre combattants et civils, entre combattants actifs et hors de combat, ou entre civils, personnes civiles handicapées et civils participant directement aux hostilités sur la base de données acquises par des capteurs et traitées et classées par des algorithmes soulève sérieuses préoccupations juridiques, éthiques et morales. Les armes autonomes ne nous « voient » pas comme des êtres humains. Au lieu de cela, nous sommes « perçus » par la machine comme une collection de points de données. Si ces informations correspondent ou correspondent au profil de la cible, le système d'armes appliquera la force. Aucun humain n'est impliqué dans cette décision de vie ou de mort. La déshumanisation qui résulte de la réduction des personnes à des points de données basés sur des caractéristiques spécifiques soulève de sérieuses questions sur la façon dont les profils cibles algorithmiques sont créés, sur quelles données préexistantes ces profils cibles sont basés et sur quelles données les systèmes ont été formés. Cela soulève également des questions sur la façon dont l'utilisateur peut comprendre ce qui correspond au profil cible d'une arme et pourquoi le système d'armes a décidé d'utiliser la force. Donner aux machines le pouvoir de prendre des décisions de vie ou de mort porte atteinte à la dignité humaine et nous prive de nos droits. Au lieu d'être vus comme des personnes, les gens sont traités comme des objets.
Comme je l'ai déjà noté, il est largement reconnu que l'IA et les systèmes de prise de décision automatisés présentent de nombreux risques et défis - sur le plan éthique, juridique et moral - et que des réponses réglementaires spécifiques à ces risques et défis sont nécessaires. Dans l'espace militaire, les risques et les préjudices découlant de tels systèmes, en particulier les systèmes d'armes autonomes, sont graves, entraînant la mort et des blessures potentielles d'individus et la privation des droits fondamentaux de l'homme. Les États doivent utiliser leur pouvoir pour créer de nouvelles règles juridiquement contraignantes, contenant un mélange d'interdictions et de réglementations pour les systèmes d'armes autonomes. Les États devraient interdire les systèmes d'armes autonomes qui ne peuvent pas être utilisés avec un contrôle humain significatif, interdire les systèmes qui utilisent des capteurs pour viser directement les humains et créer des obligations positives pour assurer un contrôle humain significatif dans tous les autres systèmes. Cette technologie ne nous attend pas quelque part dans le futur - elle est ici et maintenant, et il est temps que les États agissent.
Thank you.