صورة بطل القائمة

حماية المدنيين: أوقفوا الروبوتات القاتلة

حث الأمين العام للأمم المتحدة أنطونيو غوتيريش الدول على التحرك "بسرعة" لمعالجة المخاوف بشأن أنظمة الأسلحة الفتاكة ذاتية التشغيل في عام 2020. تقرير عن حماية المدنيين في النزاعات المسلحة. هو مرصوف حتمية حظر مثل هذه الأسلحة في مناقشة افتراضية لمجلس الأمن التابع للأمم المتحدة حول التقرير في 27 مايو.

تثني حملة "أوقفوا الروبوتات القاتلة" على دعوة زعيم الأمم المتحدة وتحث الدول على الاستجابة لطلبه بالموافقة على "القيود والالتزامات التي ينبغي تطبيقها على الحكم الذاتي في الأسلحة". ينبغي على الدول أن تبدأ الآن مفاوضات بشأن معاهدة دولية جديدة لحظر الأسلحة ذاتية التشغيل بالكامل والاحتفاظ بالسيطرة البشرية الهادفة على استخدام القوة.

هذا هو أول تقرير للأمم المتحدة عن حماية المدنيين منذ عام 2013 لتسليط الضوء على المخاوف بشأن الروبوتات القاتلة. أصدر الأمين العام للأمم المتحدة بان كي مون تقرير 2013، ليصبح أول زعيم للأمم المتحدة يطرح أسئلة جادة حول احتمالية أنظمة الأسلحة التي ، بمجرد تفعيلها ، يمكنها تحديد الأهداف والاشتباك معها دون مزيد من التدخل البشري. ودعا إلى البدء العاجل في مناقشة متعددة الأطراف بشأن مثل هذه المسائل.

وقد استجابت الدول لهذا النداء في نهاية ذلك العام ، عندما وافقت على بدء مناقشة المسائل المتعلقة بأنظمة الأسلحة الفتاكة ذاتية التشغيل في اتفاقية الأسلحة التقليدية في جنيف. أحرزت محادثات اتفاقية الأسلحة التقليدية بعض التقدم منذ ذلك الحين لتحديد القضايا الرئيسية ذات الاهتمام فيما يتعلق بالحكم الذاتي في أنظمة الأسلحة. التزمت عدة دول بعدم امتلاك أو تطوير أنظمة أسلحة فتاكة ذاتية التشغيل ودعت 30 دولة إلى حظر أنظمة الأسلحة هذه.

ومع ذلك ، لم تسفر مناقشات اتفاقية الأسلحة التقليدية عن القليل في طريق التوصل إلى نتيجة دائمة متعددة الأطراف بسبب معارضة حفنة من القوى العسكرية ، وعلى الأخص روسيا والولايات المتحدة ، اللتان ترفضان بشدة مقترحات التفاوض بشأن معاهدة أو بروتوكول دولي جديد.

أقر تقرير حماية المدنيين لعام 2013 بوجود "مخاوف مهمة" بشأن قدرة أنظمة الأسلحة الفتاكة ذاتية التشغيل على العمل وفقًا للقانون الإنساني الدولي والقانون الدولي لحقوق الإنسان. بعد مرور سبع سنوات ، وجد جوتيريس أنه لا تزال هناك شكوك مهمة حول ما إذا كانت الهجمات باستخدام مثل هذه الأسلحة ستتوافق مع القانون الإنساني الدولي. مثل سلفه ، يستشهد غوتيريش أيضًا بـ "القضايا الأخلاقية والمعنوية الأساسية في السماح للتكنولوجيا بأن تتخذ قرارًا بإنهاء حياة الإنسان".

في مجلة تقرير 2020يرى غوتيريش أن "جميع الأطراف تبدو متفقة على أن الاحتفاظ بالسيطرة البشرية أو الحكم على استخدام القوة أمر ضروري على الأقل". وأشار إلى أن "عددًا متزايدًا من الدول الأعضاء قد دعا إلى حظر أنظمة الأسلحة الفتاكة ذاتية التشغيل".

منذ نوفمبر 2018 ، أعرب الأمين العام للأمم المتحدة مرارًا وتكرارًا عن رغبته في معاهدة دولية جديدة لحظر الروبوتات القاتلة. في يناير 2020 ، غوتيريش حذر أن أنظمة الأسلحة هذه "تجلبنا إلى منطقة أخلاقية وسياسية غير مقبولة". في مجلس حقوق الإنسان في فبراير ، قال اتصل لاجل تدابير محددة لحماية حقوق الإنسان من التقنيات الناشئة ، مكرراً دعوته لمعاهدة حظر "لضمان عدم منح الآلات المستقلة أبدًا قدرة مميتة خارج حكم البشر أو سيطرتهم".

يستثمر جميع الأعضاء الخمسة الدائمين في مجلس الأمن التابع للأمم المتحدة بشكل كبير في تطوير أنظمة أسلحة ذات وظائف مستقلة. على عكس فرنسا والاتحاد الروسي والمملكة المتحدة والولايات المتحدة ، تقول الصين إنه يجب تعزيز القانون الإنساني الدولي الحالي عندما يتعلق الأمر بالأسلحة ذاتية التشغيل بالكامل من خلال تطوير معاهدة دولية جديدة.

أعرب معظم أعضاء مجلس الأمن العشرة غير الدائمين عن قلقهم الشديد بشأن أنظمة الأسلحة الفتاكة ذاتية التشغيل والمشاركة في محادثات اتفاقية الأسلحة التقليدية ، ولا سيما بلجيكا وإستونيا وألمانيا وجنوب إفريقيا وتونس. في أبريل ، وزير الخارجية الألماني هايكو ماس تسمى أنظمة الأسلحة هذه "خط أحمر لا ينبغي أبدًا تجاوزه" ، لأن "السماح للآلات باتخاذ القرار بشأن حياة وموت البشر يتعارض مع المعايير الأخلاقية ويقوض كرامة الإنسان".

أكتوبر الماضي ، إندونيسيا أدلى ببيان نيابة عن حركة عدم الانحياز التي يزيد عدد أعضائها عن 120 عضوًا والتي أكدت على الحاجة الملحة لصك ملزم قانونًا ينص على الحظر واللوائح الخاصة بأنظمة الأسلحة الفتاكة ذاتية التشغيل.  

لم يوضح أعضاء مجلس الأمن غير الدائمين الآخرين وجهات نظرهم بشأن الروبوتات القاتلة: جمهورية الدومينيكان والنيجر وسانت فنسنت وجزر غرينادين وفييت نام.

ترأست إستونيا الجلسة الافتراضية لمجلس الأمن في 27 أيار / مايو بصفتها رئيس مجلس الأمن. خلال النقاش ، ألمانيا ودول أخرى مرصوف الآثار السلبية المحتملة للتكنولوجيات الجديدة والناشئة على حماية المدنيين. فرنسا رفع مخاوف بشأن قضية "أنظمة الأسلحة الفتاكة التي تتمتع بالاستقلالية".

فيما يلي مقتطفات من محتوى الروبوتات القاتلة في تقارير حماية المدنيين لعامي 2020 و 2013.

2020 حماية المدنيين تقرير

37 - ومن المهم أيضا التحرك بسرعة لمعالجة الشواغل المتعلقة بالآثار التي تطرحها التطورات في مجال أنظمة الأسلحة الفتاكة ذاتية التشغيل (LAWS). تعتبر الأسلحة المستقلة عمومًا أنظمة تمكّن من تحديد هدف ومهاجمته - سواء كان شخصًا أو كائنًا - دون تدخل بشري. بينما لا تنظم معاهدات القانون الدولي الإنساني أنظمة الأسلحة الفتاكة ذاتية التشغيل تحديدًا ، فلا جدال في أن أي نظام سلاح مستقل يجب أن يكون قابلاً للاستخدام ، ويجب استخدامه ، وفقًا للقانون الدولي الإنساني. ومع ذلك ، هناك شكوك مهمة حول كيفية توافق استخدام منظومات الأسلحة الفتاكة ذاتية التشغيل لتنفيذ الهجمات مع القانون الدولي الإنساني. هناك أيضًا قضايا أخلاقية وأخلاقية أساسية في السماح للتكنولوجيا بأن تقرر الانتحار بحياة الإنسان.

38- دعا عدد متزايد من الدول الأعضاء إلى حظر أنظمة الأسلحة الفتاكة ذاتية التشغيل. يعتقد البعض الآخر أن تطبيق القانون الدولي الإنساني الحالي كافٍ لتنظيم استخدامها. يبدو أن جميع الأطراف متفقة ، على الأقل ، على ضرورة الاحتفاظ بالسيطرة البشرية أو الحكم على استخدام القوة. من الضروري أن تتوصل الدول الأعضاء بسرعة ، بدعم ومشاركة نشطة من الأمم المتحدة والمنظمات الدولية الأخرى والمجتمع المدني والقطاع الخاص ، إلى تفاهم مشترك بشأن الخصائص ، فضلاً عن القيود والالتزامات المتفق عليها ، التي ينبغي تطبيقها على الحكم الذاتي في الأسلحة.

2013 حماية المدنيين تقرير

28 - سيؤدي انتشار تكنولوجيا الطائرات بدون طيار واللجوء المتزايد إلى أنظمة الأسلحة هذه إلى زيادة حدة عدم التناسق الموجود في العديد من النزاعات بين الدول والأطراف من غير الدول. نظرًا لأن التكنولوجيا تسمح لطرف واحد بالابتعاد بشكل متزايد عن ساحة المعركة ، وتقل فرص محاربته ، فقد نرى أطرافًا أدنى من الناحية التكنولوجية تلجأ بشكل متزايد إلى استراتيجيات تهدف إلى إلحاق الضرر بالمدنيين باعتبارها الأهداف الأكثر سهولة. علاوة على ذلك ، تزيد تكنولوجيا الطائرات بدون طيار من فرص شن هجمات قد تُعتبر بطريقة أخرى غير واقعية أو غير مرغوب فيها من خلال أشكال أخرى من القوة الجوية أو نشر القوات البرية. مع ازدياد القدرة على شن الهجمات ، يزداد التهديد الذي يشكله على المدنيين.

29- في المستقبل ، قد تنطبق هذه الشواغل وغيرها على استخدام أنظمة الأسلحة المستقلة ، أو ما يُعرف باسم "الروبوتات القاتلة" ، التي يمكنها ، بمجرد تفعيلها ، اختيار الأهداف والاشتباك معها والعمل في بيئات ديناميكية ومتغيرة دون مزيد من التدخل البشري. وقد أثيرت مخاوف مهمة بشأن قدرة هذه الأنظمة على العمل وفقًا للقانون الإنساني الدولي وقانون حقوق الإنسان. يثير استخدامها المحتمل أسئلة أخرى ذات أهمية كبيرة: هل من المقبول أخلاقياً تفويض القرارات المتعلقة باستخدام القوة المميتة لمثل هذه الأنظمة؟ إذا أدى استخدامها إلى جريمة حرب أو انتهاك خطير لحقوق الإنسان ، فمن سيكون المسؤول قانونًا؟ إذا تعذر تحديد المسؤولية على النحو الذي يقتضيه القانون الدولي ، فهل من القانوني أو الأخلاقي نشر مثل هذه الأنظمة؟ على الرغم من أن أنظمة الأسلحة المستقلة كما هو موصوف هنا لم يتم نشرها حتى الآن ومدى تطورها كتكنولوجيا عسكرية لا يزال غير واضح ، يجب أن تبدأ مناقشة مثل هذه الأسئلة على الفور وليس بمجرد تطوير التكنولوجيا وانتشارها. كما يجب أن يكون شاملاً ويسمح بالمشاركة الكاملة من قبل الجهات الفاعلة في الأمم المتحدة ، ولجنة الصليب الأحمر الدولية ، والمجتمع المدني.

ماري

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا