صورة بطل القائمة
AOAV IGw AWS النهائي 150ppi_LR

أقلية من الدول تؤخر الجهود المبذولة لحظر الروبوتات القاتلة

AOAV IGw AWS النهائي 150ppi_LR

 

مرة أخرى ، أظهرت مجموعة صغيرة من القوى العسكرية نقصًا مروعًا في الطموح وانعدام الإحساس بالإلحاح لتحقيق نتيجة ذات مغزى من المحادثات الدبلوماسية حول أنظمة الأسلحة الفتاكة ذاتية التشغيل.

أعربت العديد من الدول التسعين المشاركة في اجتماع الأمم المتحدة هذا الأسبوع بشأن هذه الأسلحة عن رغبتها الراسخة في التحرك للتفاوض بشأن معاهدة جديدة لحظر أو تقييد أنظمة الأسلحة هذه. يُنظر إلى مثل هذه المعاهدة على نطاق واسع على أنها ضرورية لتكريس المبدأ القائل بأنه يجب على الدول الحفاظ على سيطرة بشرية ذات مغزى على استخدام القوة.

تتضاعف الدعوات لحظر الروبوتات القاتلة بسرعة ، وقد دعا أكثر من 4,500 خبير ذكاء اصطناعي إلى معاهدة جديدة لحظر أنظمة الأسلحة الفتاكة المستقلة في خطابات مفتوحة مختلفة منذ عام 2015. ويشمل ذلك يوشوا بنجيو ، ويان لو كون ، وجيفري هينتون ، الذين كانوا حصل الأسبوع على جائزة تورينج ، وهي أعرق جائزة في مجال علوم الكمبيوتر.

من الواضح أن غالبية الدول تريد فعل الشيء الصحيح ، لكن الدعوات من بعض الدول للمبادئ التوجيهية والإعلانات والمبادئ التوجيهية ومدونات السلوك وخلاصة "أفضل الممارسات" العسكرية والاستبيانات والمزيد من اللجان ليست الإجابة. مثل هذه الإجراءات لن ترضي مخاوف الجمهور.

هناك قلق متزايد من أن محادثات اتفاقية الأسلحة التقليدية (CCW) حول أنظمة الأسلحة الفتاكة ذاتية التشغيل هي وسيلة للقوى العسكرية لمحاولة استرضاء المجتمع المدني ، وصرف انتباه الجمهور ، وإدارة توقعات وسائل الإعلام بدلاً من التصدي بجدية للتحديات التي تطرحها على البشرية. .

تحدثت روسيا وأستراليا وإسرائيل والمملكة المتحدة والولايات المتحدة ضد أي تحرك لإنشاء معاهدة جديدة. تستثمر هذه الدول أموالًا وجهودًا كبيرة في تطوير أنظمة أسلحة مع تقليل السيطرة البشرية على الوظائف الحاسمة لاختيار الأهداف والاشتباك معها.

إن العديد من الشواغل الأساسية الأخلاقية ، والأخلاقية ، والقانونية ، والتشغيلية ، والتقنية ، والانتشار ، والاستقرار الدولي ، وغيرها من الشواغل المتعلقة بالأسلحة ذاتية التشغيل بالكامل سوف تتضاعف بدلاً من أن تختفي. إن تفويض قرارات الحياة والموت للآلات يتجاوز "الخط الأحمر" الأخلاقي ، وأصبحت وصمة العار مرتبطة بالفعل باحتمال إزالة السيطرة البشرية ذات المعنى من أنظمة الأسلحة واستخدام القوة.

من الواضح بشكل متزايد أنه يجب حظر الروبوتات القاتلة من خلال معاهدة جديدة. بعد ست سنوات من المحادثات التي شارك فيها أكثر من 80 دولة ، لم تتفق محادثات اتفاقية الأسلحة التقليدية المعينة على النهج التنظيمي الضروري لمنع مستقبل الأسلحة ذاتية التشغيل بالكامل.

إن الخيار الوحيد الموثوق به لمواجهة التحديات الأمنية الإنسانية والأخلاقية والدولية التي تطرحها الأسلحة ذاتية التشغيل بالكامل هو أن تتفاوض الدول على معاهدة جديدة لحظر أنظمة الأسلحة التي يمكنها اختيار الأهداف والاشتباك معها دون رقابة بشرية ذات مغزى.

هناك سابقة لمعاهدة حظر ، بما في ذلك تلك التي تم التفاوض عليها خارج رعاية الأمم المتحدة. في الماضي ، وجدت الدول المسؤولة أنه من الضروري استكمال الأطر القانونية الحالية للأسلحة التي تشكل بطبيعتها تهديدات إنسانية كبيرة ، مثل الأسلحة البيولوجية والأسلحة الكيميائية والألغام المضادة للأفراد والذخائر العنقودية. هناك أيضًا سابقة لحظر استباقي في بروتوكول اتفاقية الأسلحة التقليدية الرابع الذي يحظر أسلحة الليزر المصممة لإصابة الجنود البشريين بالعمى بشكل دائم.

كان اجتماع هذا الأسبوع حول أنظمة الأسلحة الفتاكة ذاتية التشغيل في الأمم المتحدة في جنيف هو الاجتماع السابع لاتفاقية الأسلحة التقليدية حول هذا الموضوع منذ عام 2014. وافتتح الاجتماع باجتماع قوي استئناف من الأمين العام للأمم المتحدة أنطونيو غوتيريش لفرض حظر على أنظمة الأسلحة الفتاكة ذاتية التشغيل ، والتي وصفها بأنها "بغيضة أخلاقياً وغير مقبولة سياسياً". وذكّر بيان الأمين العام الدول الحاضرة بأن "العالم يراقب ، والساعة تدق".

 

ماري

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا