image de héros de menu
AOAV IGw AWS FINAL 150ppi_LR

Empêcher un autre Hiroshima ou Nagasaki

AOAV IGw AWS FINAL 150ppi_LR

Le Japon commémore les 70th anniversaire du bombardement atomique d'Hiroshima et de Nagasaki le 6 aoûtth 9e, respectivement. Ces attaques ont tué environ 140,000 70,000 personnes à Hiroshima et XNUMX XNUMX à Nagasaki, pour la plupart des civils. Depuis lors, l'humanité a été forcée de coexister avec les armes nucléaires. La peur d'une guerre nucléaire persistera jusqu'à ce que les armes nucléaires soient interdites et leurs stocks détruits, mais imaginez si nous aurions pu arrêter leur développement et éviter la tragédie d'Hiroshima et de Nagasaki. 

Dans un déclaration publié à l'occasion du 70e anniversaire des bombardements atomiques d'Hiroshima et de Nagasaki, Association d'aide et de secours du Japon  (AAR Japon) a renouvelé son appel à empêcher la création d'armes entièrement autonomes par le biais d'une interdiction préventive et complète de leur développement, production et utilisation. L'organisation humanitaire non gouvernementale dirigée par Yukie Osa est co-fondateur de la Campagne pour arrêter les robots tueurs et siège à son comité directeur.

AAR Japon constate que les développements technologiques visant à réduire les coûts et les risques pour les soldats humains ainsi qu'à augmenter la vitesse et l'efficacité ont conduit au développement de systèmes d'armes autonomes avec différents niveaux de contrôle humain. La recherche sur l'intelligence artificielle (IA) a progressé ces dernières années, ce qui fait craindre que certains pays ne l'utilisent pour poursuivre le développement d'armes entièrement autonomes ou de «robots tueurs» qui sélectionneraient et attaqueraient des cibles sans aucune autre intervention humaine.

L'AAR Japon est préoccupée par le fait que la technologie n'a pas progressé au point qu'une arme entièrement autonome serait capable de faire la distinction entre les combattants et les civils, y compris les femmes et les enfants, ou de déterminer si un combattant essaie de se rendre ou se prépare à se battre, ou d'identifier les soldats blessés. Il est également extrêmement difficile pour les robots de juger des circonstances qui nécessiteraient le recours à la force. Une arme entièrement autonome pose également un problème de responsabilité, car qui serait responsable si une arme entièrement autonome tuait ou blessait des civils ? La responsabilité légale pour l'utilisation d'armes autonomes est enveloppée dans l'obscurité.

Les forces qui utilisent des armes entièrement autonomes pourraient faire la guerre à moindre coût et à moindre risque pour les soldats humains, ce qui pourrait encourager les dirigeants politiques à déclencher une guerre avec beaucoup moins d'hésitation. Abaisser le seuil d'entrée en guerre pourrait entraîner une épidémie de guerres, créant une insécurité et une violence extrêmes pour l'humanité. Une arme qui peut tuer sans jugement humain poserait une violence aveugle et excessive dans le monde.

Ce n'est pas la première fois que l'AAR Japon coopère avec la société civile internationale sur un problème lié aux armes. Elle est également membre de l'International Campaign to Ban Landmines (ICBL) et de la Cluster Munition Coalition (CMC). Lorsque l'AAR Japon a demandé l'interdiction des mines terrestres et des armes à sous-munitions, les armes avaient déjà été largement utilisées, causant d'importants dommages humanitaires. Les armes entièrement autonomes doivent encore être développées, mais il est maintenant temps d'agir car il deviendra de plus en plus difficile d'obtenir une interdiction une fois que les pays auront investi dans la technologie pour les développer.

C'était aussi le message délivré par 2,587 15,000 chercheurs en intelligence artificielle et robotique et plus de XNUMX XNUMX autres endosseurs dans un lettre ouverte publié la semaine dernière, qui approuve l'appel à interdire les armes qui sélectionnent et engagent des cibles sans intervention humaine. La déclaration publiée lors de la réunion annuelle de la Conférence internationale conjointe sur l'intelligence artificielle envoie un message puissant selon lequel la communauté scientifique est prête à aider les États à atteindre l'objectif d'interdiction.

L'attention des médias s'est concentré sur les signataires de la tête d'affiche de la lettre, qui montrent comment le mouvement visant à arrêter les armes entièrement autonomes se développe et étend sa portée. Yoshihiko Nakamura, professeur de mécano-informatique à l'Université de Tokyo est l'un des signataires notables de la lettre du Japon, mais il devrait y en avoir plus. De nombreux chercheurs en robotique et en intelligence artificielle au Japon pourraient et devraient signer.

Nakamura et les autres signataires de la lettre se comparent aux chimistes, biologistes et physiciens du passé qui n'avaient "aucun intérêt" à fabriquer des armes chimiques ou biologiques et ont donc soutenu les appels à les interdire. Un jour, les robots tueurs seront interdits en raison de l'inquiétude du public et de l'action gouvernementale encouragée par la société civile, y compris ces experts en IA et roboticiens.

Des centaines de milliers de vies ont été détruites à Hiroshima et Nagasaki il y a 70 ans. Pour un pays au passé si douloureux, c'est le mandat du Japon d'arrêter le développement d'une autre arme inhumaine. Travailler à l'interdiction des armes entièrement autonomes permettra au Japon d'aider à protéger les générations futures de la violence et de l'insécurité. Il ne s'agit pas d'un choix politique ou militaire, mais d'une question humanitaire et morale dans laquelle notre société dans son ensemble doit s'engager.

Pour plus d'informations, voir:

Photo : Le dôme d'Hiroshima, qui était près de l'hypocentre de l'explosion (c) via ICANW

Marie

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous