أدى نشر واستخدام البارود والأسلحة النووية إلى تغيير جذري في كيفية خوض النزاعات وتجاربها من قبل المقاتلين والمدنيين على حدٍ سواء.
يتيح التقدم التكنولوجي الآن لأنظمة الأسلحة تحديد الأهداف ومهاجمتها بشكل مستقل باستخدام معالجة أجهزة الاستشعار. هذا يعني أن تحكم الإنسان أقل في ما يحدث ولماذا. هذا يعني أننا أقرب إلى الآلات التي تتخذ قرارات بشأن من تقتل أو ماذا تدمر.
تفتقر الأسلحة المستقلة إلى الحكم البشري اللازم لتقييم تناسب الهجوم ، وتمييز المدنيين عن المقاتلين ، والالتزام بالمبادئ الأساسية الأخرى لقوانين الحرب.
يظهر التاريخ أن استخدامها لن يقتصر على ظروف معينة. ليس من الواضح من ، إن وجد ، يمكن أن يتحمل المسؤولية عن الأعمال غير القانونية التي يسببها سلاح مستقل - المبرمج أو الصانع أو القائد أو الآلة نفسها - مما يخلق فجوة خطيرة في المساءلة.
ستعالج بعض أنواع الأسلحة المستقلة البيانات وتعمل بسرعات هائلة. هذه الأنظمة المعقدة وغير المتوقعة والسريعة بشكل لا يصدق في عملها ، سيكون لديها القدرة على جعل النزاعات المسلحة تخرج عن نطاق السيطرة بسرعة ، مما يؤدي إلى عدم الاستقرار الإقليمي والعالمي. تفتقر الروبوتات القاتلة في جوهرها إلى القدرة على التعاطف أو فهم الفروق الدقيقة أو السياق.
لهذا السبب تعمل Stop Killer Robots مع قدامى المحاربين العسكريين وخبراء التكنولوجيا والعلماء وعلماء الروبوتات ومنظمات المجتمع المدني في جميع أنحاء العالم لضمان سيطرة بشرية ذات مغزى على استخدام القوة. نحن ندعو إلى قانون دولي جديد لأن القوانين التي تحظر الأسلحة وتنظمها تضع حدودًا للحكومات والجيوش والشركات بين ما هو مقبول وما هو غير مقبول.
الروبوتات القاتلة: منظور ضابط عسكري سابق
الأسئلة الشائعة
جادل بعض مؤيدي الأسلحة المستقلة بأنها ستكون أكثر دقة أو دقة من البشر ، وبالتالي ستؤدي إلى أضرار جانبية أقل. على سبيل المثال ، كتب رون أركين ، "من المحتمل أن تمتلك الروبوتات مجموعة من المستشعرات المجهزة بشكل أفضل لملاحظات ساحة المعركة أكثر من البشر ، مما يخترق ضباب الحرب." يجادل المؤيدون بأنهم سيحققون المزيد من السرعة والكفاءة في ساحة المعركة ، وأنهم سيكونون قادرين على العمل في بيئات ذات اتصالات غير آمنة ، ويمكنهم إنقاذ الأرواح من خلال تقليل الحاجة إلى الجنود البشر والعمل كرادع.
لكن تم تقديم حجج مماثلة للأسلحة العشوائية الأخرى في الماضي ، مثل الألغام الأرضية والذخائر العنقودية والأسلحة النووية. وأودت تلك الأسلحة بحياة مئات الآلاف من الضحايا قبل أن تحظرها المعاهدات الدولية. من خلال التفاعل مع بيئتهم بطرق غير متوقعة ، ستزيد الأسلحة المستقلة من المخاطر على الجنود والمدنيين على حد سواء. يمكن تحقيق الدقة المحسنة دون إزالة التحكم البشري الهادف من استخدام القوة. الفوائد المحتملة للأسلحة المستقلة تفوقها بكثير التحديات الخطيرة التي تشكلها على القانون والأمن الدوليين.
الخطر الآخر الناجم عن نشر الأسلحة المستقلة هو الاعتماد على الاتصالات اللاسلكية. الاتصالات اللاسلكية عرضة للاضطراب المتعمد مثل القرصنة و "التشويش" و "الخداع" ، مما قد يجعل الأنظمة غير قابلة للتشغيل أو تفسد برمجتها. في عام 2012 استخدم الباحثون إشارة اتصالات GPS "وهمية" لإعادة توجيه مسار نظام جوي بدون طيار ، والتحايل بنجاح على النظام وإظهار مخاوف بشأن أمن الأسلحة ذاتية التشغيل وغير المأهولة. في عالم يثير فيه الأمن السيبراني والحرب الإلكترونية مخاوف متزايدة ، يمكن أن تتيح عمليات القرصنة الأكثر تطورًا السيطرة الكاملة على تشغيل الأنظمة المستقلة ، بما في ذلك الإطلاق المحتمل للأسلحة.
الأسلحة المستقلة ، التي من شأنها تحديد الأهداف وإشراكها على أساس بيانات الاستشعار ، ستمنح الجيوش القدرة على استهداف الأشخاص على أساس العرق أو العرق أو الجنس أو نمط اللباس أو الطول أو العمر أو نمط السلوك أو أي بيانات أخرى متاحة يمكن أن تشكل مجموعة مستهدفة. التكنولوجيا ليست مثالية ، وليست محايدة ، والروبوتات القاتلة ستكون عرضة للفشل التقني. هناك أيضًا مخاوف من أن تكون الروبوتات القاتلة أرخص بكثير وأسهل في الإنتاج من أسلحة الدمار الشامل الأخرى. حذر آلاف العلماء من أنه في ظل عدم وجود مواد خام مكلفة أو يصعب الحصول عليها ، فمن الممكن إنتاج أسلحة مستقلة بكميات كبيرة. إذا تُركت التنمية دون تنظيم ، فهناك خطر أن يتم الحصول على هذه الأنظمة ونشرها من قبل الجهات الفاعلة غير الحكومية أو الأفراد إلى جانب الدول.
هناك أيضًا مشاكل أخلاقية ومعنوية وتقنية وقانونية وأمنية مع الأسلحة المستقلة. تفتقر الآلات بطبيعتها إلى الخصائص الإنسانية مثل التعاطف وفهم حقوق الإنسان وكرامته ، وهي ضرورية لاتخاذ خيارات أخلاقية معقدة وتطبيق قوانين الحرب. في حالة حدوث خطأ أو عمل غير قانوني ، تمثل الأسلحة المستقلة فجوة في المساءلة ، مما يجعل من الصعب ضمان العدالة ، خاصة للضحايا. ستتغير طبيعة الحرب بشكل جذري حيث أن إرسال الآلات بدلاً من القوات يقلل من عتبة الصراع. يمكن أيضًا استخدام الأسلحة المستقلة في ظروف أخرى ، مثل مراقبة الحدود والشرطة.
في الاشتباك العسكري حيث يتم توجيه القوة المميتة أو تطبيقها ، هناك تسلسل واضح للقيادة والمساءلة. لأن الجيوش تعمل كمنظمات هرمية ، فإن هيكل القيادة هذا يكون من الأعلى إلى الأسفل ، من القائد الذي يأمر باستخدام القوة إلى الشخص الذي "يسحب الزناد". بأسلحة مستقلة ، القيادة والسيطرة مهددة، والمسؤولية والمساءلة ليسا واضحين للغاية.
إذا تمكن سلاح مستقل من تحديد أهدافه الخاصة وإشراكها ، فإن سلسلة القيادة تتعطل. في هذه الأنظمة ، عند التنشيط ، هناك فترة زمنية يمكن فيها لنظام السلاح استخدام القوة على هدف دون موافقة بشرية إضافية. حتى إذا تم تحديد بعض المعلمات مسبقًا ، نظرًا للطبيعة الديناميكية للصراع ، فإن الآلة ستشتبك مع الأهداف بشكل مستقل دون أمر مباشر. هذا يعني أن المشغل البشري لا يحدد على وجه التحديد أين ومتى وضد أي قوة يتم تطبيقها.
تعني قضايا القابلية للتفسير وإمكانية التنبؤ وإمكانية التكرار أن الاستهداف والاشتباك بواسطة الأسلحة المستقلة يهددان أيضًا السيطرة العسكرية. سيكون هناك القليل من الوضوح أو لا يوجد وضوح على الإطلاق حول سبب وكيفية اتخاذ الروبوت القاتل قرارًا محددًا. إذا أسفرت هذه القرارات عن أخطاء - مثل النيران الصديقة أو الأضرار الجانبية المفرطة - فسيكون من الصعب تحديد ما إذا كان ذلك نتيجة لعمل الماكينات أو العبث العدائي. عندما يتم تعطيل القيادة والسيطرة بهذه الطريقة ، تتسع فجوة المساءلة أيضًا. من المسؤول عن الأعمال غير المشروعة باستخدام الأسلحة المستقلة؟ الأشخاص الذين قاموا بتعيين المتغيرات في وظيفة المنفعة الخاصة بها؟ الأشخاص الذين برمجوها في المقام الأول؟ القائد العسكري؟ من سيحاسب؟
جادل البعض بأنه يمكن الحفاظ على السيطرة من خلال الإشراف المناسب ، أو القدرة على التدخل أو إلغاء الهجوم. ومع ذلك ، هناك مخاوف جدية بشأن ما إذا كان المشغلون البشريون سيكونون قادرين على الحفاظ على الفهم الضروري للحالة للحصول على تحكم فعال. كمية البيانات التي سيتعين على القائد البشري مراجعتها ستفوق القدرة البشرية على تحليلها. سيؤدي عدم القدرة على تفسير مجموعات البيانات الوصفية الضخمة إلى إبعاد البشر عن فهم ما يجري في ساحة المعركة. ستؤدي سرعة ورد فعل الآلات مقارنة بالبشر إلى زيادة وتيرة الحرب ، وستكون النتيجة فقدان سيطرة بشرية ذات مغزى على استخدام القوة.
يعد التمييز أحد المبادئ الأساسية للقانون الدولي الإنساني - وهو شرط التمييز بين المقاتلين والمدنيين. لكن في العقود الأخيرة ، تزايدت النزاعات المسلحة غير الدولية بين القوات الحكومية والجهات الفاعلة غير الحكومية مثل العصابات أو المتمردين. نادرًا ما يُرى مقاتلو الأعداء في هذا النوع من الحرب وهم يرتدون الزي العسكري القياسي ، مما يجعل من الصعب تمييزهم عن المدنيين. في هذا النوع من الحرب ، غالبًا ما يكون هدف الجهات الفاعلة غير الحكومية الاندماج أو الظهور كمدنيين من أجل الحصول على ميزة تكتيكية. بالنظر إلى الصعوبات التي يواجهها الجنود البشريون في تحديد من هو الهدف المشروع ، فمن السهل رؤية المزيد من المخاطر التي يمثلها استخدام الأسلحة المستقلة.
ستحدد الآلة ما إذا كان الهدف مقاتلًا يعتمد فقط على البرمجة ، ومن المحتمل أن يكون قد تم تطويره في مختبر معقم قبل سنوات من اتخاذ قرار القتل. يعد إلغاء قرارات الحياة والموت للآلة معيبًا أخلاقياً وأخلاقياً وقانونياً.
جون ماكبرايد ، LCol (Retd) ، في رسالة مفتوحة حول دعوة الأفراد العسكريين لحظر الأسلحة المستقلة.
تدخل المحادثات الدبلوماسية المتعلقة بالحكم الذاتي في أنظمة الأسلحة مرحلة حرجة ، على الرغم من أن المحادثات في الأمم المتحدة بشأن اتفاقية الأسلحة التقليدية لم تحرز سوى تقدم ضئيل منذ عام 2014. وهناك عدد قليل من القوى العسكرية التي تقاوم بعناد مقترحات لبدء مفاوضات بشأن صك ملزم قانونًا يتناول الحكم الذاتي في أنظمة الأسلحة. وفي الوقت نفسه ، تستمر الاستثمارات العسكرية في الذكاء الاصطناعي والتقنيات الناشئة بلا هوادة. إذا تركت دون رادع ، فقد يؤدي ذلك إلى مزيد من نزع الصفة الإنسانية عن الحرب ، وتضاؤل ثقة الجمهور في العديد من التطبيقات المدنية الواعدة والمفيدة للتكنولوجيات الناشئة.
لا تسعى Stop Killer Robots إلى حظر الأسلحة التي تعمل تحت سيطرة بشرية ذات مغزى. نحن لا نعارض الذكاء الاصطناعي (AI) أو الروبوتات على نطاق واسع ، أو حتى استخدام الذكاء الاصطناعي أو الروبوتات من قبل الجيش. نحن لا نقترح حظرًا على الأنظمة التي لا تحتوي على أسلحة مصممة لإنقاذ الأرواح ، مثل أنظمة التخلص من الذخائر المتفجرة المستقلة ، والتي قد تعمل مع التحكم البشري أو بدونه. لكننا نعتقد أن هناك حدًا لا يجب تجاوزه أبدًا: لا ينبغي تفويض اتخاذ القرارات المتعلقة بالحياة والموت للآلات.
إن تطوير أو نشر أسلحة مستقلة تستهدف الأشخاص ولا يمكن أن تعمل أو لا تعمل تحت سيطرة بشرية ذات مغزى سيقلل من عتبة الدخول في نزاع مسلح ، وأي نظام يتم نشره يكون عرضة للقرصنة أو الأعطال ، مما يزيد من مخاطر الصداقة القوات والمدنيين على حد سواء. نفهم أنه لا يوجد قائد عسكري يريد التنازل عن السيطرة في ساحة المعركة لسلاح مستقل.
تم تصميم التقنيات وصنعها من قبل الناس. تقع على عاتقنا مسؤولية وضع حدود بين ما هو مقبول وما هو غير مقبول. لدينا القدرة على القيام بذلك ، لضمان مساهمة الذكاء الاصطناعي والتقنيات الناشئة الأخرى في حماية البشرية - وليس تدميرها.
في ذروة الحرب الباردة ، أنقذ ضابط روسي العالم. في 26 سبتمبر 1983 ، قرر الملازم أول ستانيسلاف بيتروف عدم قبول أن إشارات الكمبيوتر التي تنبهه إلى هجوم وشيك من الرؤوس النووية الأمريكية كانت دقيقة. ماذا كان سيحدث لو أنه ضغط على زر "أعتقد" لختم توصية النظام؟ ضمان أن أنظمة الأسلحة تعمل تحت سيطرة بشرية ذات مغزى يعني أن قرارات الحياة والموت لا يتم تفويضها للآلات. أهمية صنع القرار البشري في السياق العسكري لا تقل أهمية الآن كما كانت خلال الحرب الباردة
ما يمكن أن تفعله؟
كتب John MacBride ، LCol (Retd) خطابًا مفتوحًا ، بهدف جمع أدلة الدعم لفرض حظر على تطوير واستخدام ونشر الأسلحة المستقلة من قبل قدامى المحاربين وأفراد الجيش.
إذا كنت تشعر بالقلق إزاء الثورة الثالثة الوشيكة في الحرب وما سيعنيه هذا بالنسبة لسلسلة القيادة والنظام والمساءلة والسلامة لأفراد الجيش والمدنيين في جميع أنحاء العالم - يرجى إضافة صوتك إلى مكالمتنا. دعمك لا يقدر بثمن وبمساعدتك يمكننا تحقيق استجابة قانونية للمشاكل التي تطرحها الأسلحة المستقلة.
الأسلحة ذاتية التحكم هي أنظمة أسلحة يمكنها تحديد الأهداف وإطلاق النار عليها دون أن يتحكم بها الإنسان. إنها ليست طائرات بدون طيار مسلحة لها سيطرة بشرية ولكنها آلات ستقرر ما إذا كانت ستقتل أم لا دون تدخل بشري. لن يكون قرار القتل هذا نتيجة للمهارات والمعرفة والذكاء والتدريب والخبرة والإنسانية والأخلاق والوعي بالأوضاع وفهم قوانين الحرب والقانون الإنساني الدولي التي يستخدمها الرجال والنساء في الزي العسكري لاتخاذ مثل هذه القرارات في المعركة. ستحدد الآلة ما إذا كان الهدف مقاتلاً يعتمد فقط على البرمجة التي من المحتمل أن تكون قد تم تطويرها في مختبر معقم قبل سنوات من اتخاذ قرار القتل. يعد إلغاء قرارات الحياة والموت للآلة معيبًا أخلاقياً وأخلاقياً وقانونياً.
لم تقم أي دولة بإدخال أسلحة ذاتية التشغيل بالكامل حتى الآن ولكنها قيد التطوير في عدد من البلدان. لقد حان الوقت الآن لوضع حد لتطورها ونشرها النهائي. يجادل البعض بأن هذه الأسلحة ضرورية وحتمية. من بينها ، الحجة القائلة بأنهم سيحسنون من بقاء الجنود والجنود ، وقد يكون هذا هو الحال إذا لم يكن لدى العدو أسلحة مماثلة ، ولكن إذا كان أحد الأطراف يمتلكها ، يفعل ذلك الآخر. يقال لنا أن الآلات لا تعاني من ضعف بشري ، ولا تتعب ، ولا تغضب ، ولا تتأثر بالطقس أو الظلام لدرجة أن الناس لا يعرفون أي خوف ، وهذا يجعل هذه الآلات تتفوق على جندي. لا تعاني الآلات من نقاط الضعف هذه ، كما أنها ليست مسؤولة أو خاضعة للمساءلة عن قراراتها - يمكنها مهاجمتها مع الإفلات من العقاب وستقوم بذلك. نعتقد أنه يجب حظر خصائص هذه الأسلحة وفقًا للقانون الإنساني الدولي الحالي.
تساعد التطورات التكنولوجية في مجال الروبوتات الجنود بالفعل في مجالات مثل اكتشاف الأجهزة المتفجرة والبحث والإنقاذ وبعض المهام الهندسية. ومع ذلك ، يشعر العديد من الذين يرتدون الزي العسكري سواء العاملين أو المتقاعدين بقلق بالغ بشأن احتمالية تعيين قرارات بشأن ما إذا كان القتل وماذا ومتى يجب على الآلات. الأسلحة المستقلة ليست مسؤولة عن أفعالها. هناك قدر كبير من القلق ، لا سيما عند التفكير في الحرب غير المتكافئة ، من أن الآلات قادرة على التمييز بشكل موثوق بين الأهداف التي قد يتم الاشتباك معها بشكل قانوني وتلك غير القانونية. كجنود وبحارة وطيارين وخطوط جوية ، خدم ومتقاعدين على حد سواء ، ننضم إلى الدعوة إلى حظر تطوير ونشر واستخدام أنظمة الأسلحة التي يتم تطبيق القرار فيها.
القوة العنيفة مصنوعة بشكل مستقل.
الروبوتات القاتلة ستخوض حروبنا: هل يمكن الوثوق بها؟
فجر الروبوتات القاتلة
قرار القتل لا يجب أن يخص إنسان آلي
1
البودكاست: وجهة نظر القائد حول الأسلحة الفتاكة ذاتية التشغيل؟
مقابلة مع اللواء مايك سميث (متقاعد) تبحث في أدوار ومسؤوليات القائد ، ومسألة المساءلة والحاجة إلى قيود على أنظمة الأسلحة المستقلة.
2
بودكاست: مستقبل الأتمتة في الجيش
يبحث هذا البودكاست في مستقبل الأتمتة داخل الجيش. الأمثلة الحالية ، والآثار المحتملة في المستقبل ، والقضايا الأخلاقية التي تأتي معها.
3
بودكاست: التحكم في الأنظمة في الزمان والمكان
تستكشف هذه الحلقة كيف يجب اعتبار الزمان والمكان وسيلتين للحفاظ على سيطرة بشرية ذات مغزى ، والإجابة على الأسئلة الرئيسية: 1) ما هي الأنظمة التي تعتبر غير مقبولة والتي يجب حظرها؟ 2) كيف يتم ضمان السيطرة البشرية الهادفة على الأنظمة التي لا تحتاج إلى حظر؟