صورة بطل القائمة

الروبوتات العسكرية والقاتلة

غالبًا ما يوصف ظهور الأسلحة المستقلة بالثورة الثالثة في الحرب. البارود والأسلحة النووية كانا الأول والثاني.

أدى نشر واستخدام البارود والأسلحة النووية إلى تغيير جذري في كيفية خوض النزاعات وتجاربها من قبل المقاتلين والمدنيين على حدٍ سواء.

يتيح التقدم التكنولوجي الآن لأنظمة الأسلحة تحديد الأهداف ومهاجمتها بشكل مستقل باستخدام معالجة أجهزة الاستشعار. هذا يعني أن تحكم الإنسان أقل في ما يحدث ولماذا. هذا يعني أننا أقرب إلى الآلات التي تتخذ قرارات بشأن من تقتل أو ماذا تدمر.

تفتقر الأسلحة المستقلة إلى الحكم البشري اللازم لتقييم تناسب الهجوم ، وتمييز المدنيين عن المقاتلين ، والالتزام بالمبادئ الأساسية الأخرى لقوانين الحرب.

نص بديل للصورة
غالبًا ما يوصف ظهور الأسلحة المستقلة بالثورة الثالثة في الحرب. البارود والأسلحة النووية كانا الأول والثاني.

يظهر التاريخ أن استخدامها لن يقتصر على ظروف معينة. ليس من الواضح من ، إن وجد ، يمكن أن يتحمل المسؤولية عن الأعمال غير القانونية التي يسببها سلاح مستقل - المبرمج أو الصانع أو القائد أو الآلة نفسها - مما يخلق فجوة خطيرة في المساءلة.

ستعالج بعض أنواع الأسلحة المستقلة البيانات وتعمل بسرعات هائلة. هذه الأنظمة المعقدة وغير المتوقعة والسريعة بشكل لا يصدق في عملها ، سيكون لديها القدرة على جعل النزاعات المسلحة تخرج عن نطاق السيطرة بسرعة ، مما يؤدي إلى عدم الاستقرار الإقليمي والعالمي. تفتقر الروبوتات القاتلة في جوهرها إلى القدرة على التعاطف أو فهم الفروق الدقيقة أو السياق.

لهذا السبب تعمل Stop Killer Robots مع قدامى المحاربين العسكريين وخبراء التكنولوجيا والعلماء وعلماء الروبوتات ومنظمات المجتمع المدني في جميع أنحاء العالم لضمان سيطرة بشرية ذات مغزى على استخدام القوة. نحن ندعو إلى قانون دولي جديد لأن القوانين التي تحظر الأسلحة وتنظمها تضع حدودًا للحكومات والجيوش والشركات بين ما هو مقبول وما هو غير مقبول.

لعب الفيديو نص بديل للصورة

الروبوتات القاتلة: منظور ضابط عسكري سابق

خدم Lode Dewaegheneire لأكثر من 30 عامًا كضابط في سلاح الجو البلجيكي. بعد مهنة عملياتية كطيار لطائرة هليكوبتر ، كان أيضًا مستشارًا عسكريًا للوفد البلجيكي في الأمم المتحدة في جنيف. وهو الآن مستشار عسكري لـ Mines Action Canada ، وهو عضو في Stop Killer Robots.

الأسئلة الشائعة

جادل بعض مؤيدي الأسلحة المستقلة بأنها ستكون أكثر دقة أو دقة من البشر ، وبالتالي ستؤدي إلى أضرار جانبية أقل. على سبيل المثال ، كتب رون أركين ، "من المحتمل أن تمتلك الروبوتات مجموعة من المستشعرات المجهزة بشكل أفضل لملاحظات ساحة المعركة أكثر من البشر ، مما يخترق ضباب الحرب." يجادل المؤيدون بأنهم سيحققون المزيد من السرعة والكفاءة في ساحة المعركة ، وأنهم سيكونون قادرين على العمل في بيئات ذات اتصالات غير آمنة ، ويمكنهم إنقاذ الأرواح من خلال تقليل الحاجة إلى الجنود البشر والعمل كرادع.

لكن تم تقديم حجج مماثلة للأسلحة العشوائية الأخرى في الماضي ، مثل الألغام الأرضية والذخائر العنقودية والأسلحة النووية. وأودت تلك الأسلحة بحياة مئات الآلاف من الضحايا قبل أن تحظرها المعاهدات الدولية. من خلال التفاعل مع بيئتهم بطرق غير متوقعة ، ستزيد الأسلحة المستقلة من المخاطر على الجنود والمدنيين على حد سواء. يمكن تحقيق الدقة المحسنة دون إزالة التحكم البشري الهادف من استخدام القوة. الفوائد المحتملة للأسلحة المستقلة تفوقها بكثير التحديات الخطيرة التي تشكلها على القانون والأمن الدوليين.

الخطر الآخر الناجم عن نشر الأسلحة المستقلة هو الاعتماد على الاتصالات اللاسلكية. الاتصالات اللاسلكية عرضة للاضطراب المتعمد مثل القرصنة و "التشويش" و "الخداع" ، مما قد يجعل الأنظمة غير قابلة للتشغيل أو تفسد برمجتها. في عام 2012 استخدم الباحثون إشارة اتصالات GPS "وهمية" لإعادة توجيه مسار نظام جوي بدون طيار ، والتحايل بنجاح على النظام وإظهار مخاوف بشأن أمن الأسلحة ذاتية التشغيل وغير المأهولة. في عالم يثير فيه الأمن السيبراني والحرب الإلكترونية مخاوف متزايدة ، يمكن أن تتيح عمليات القرصنة الأكثر تطورًا السيطرة الكاملة على تشغيل الأنظمة المستقلة ، بما في ذلك الإطلاق المحتمل للأسلحة.

الأسلحة المستقلة ، التي من شأنها تحديد الأهداف وإشراكها على أساس بيانات الاستشعار ، ستمنح الجيوش القدرة على استهداف الأشخاص على أساس العرق أو العرق أو الجنس أو نمط اللباس أو الطول أو العمر أو نمط السلوك أو أي بيانات أخرى متاحة يمكن أن تشكل مجموعة مستهدفة. التكنولوجيا ليست مثالية ، وليست محايدة ، والروبوتات القاتلة ستكون عرضة للفشل التقني. هناك أيضًا مخاوف من أن تكون الروبوتات القاتلة أرخص بكثير وأسهل في الإنتاج من أسلحة الدمار الشامل الأخرى. حذر آلاف العلماء من أنه في ظل عدم وجود مواد خام مكلفة أو يصعب الحصول عليها ، فمن الممكن إنتاج أسلحة مستقلة بكميات كبيرة. إذا تُركت التنمية دون تنظيم ، فهناك خطر أن يتم الحصول على هذه الأنظمة ونشرها من قبل الجهات الفاعلة غير الحكومية أو الأفراد إلى جانب الدول.

هناك أيضًا مشاكل أخلاقية ومعنوية وتقنية وقانونية وأمنية مع الأسلحة المستقلة. تفتقر الآلات بطبيعتها إلى الخصائص الإنسانية مثل التعاطف وفهم حقوق الإنسان وكرامته ، وهي ضرورية لاتخاذ خيارات أخلاقية معقدة وتطبيق قوانين الحرب. في حالة حدوث خطأ أو عمل غير قانوني ، تمثل الأسلحة المستقلة فجوة في المساءلة ، مما يجعل من الصعب ضمان العدالة ، خاصة للضحايا. ستتغير طبيعة الحرب بشكل جذري حيث أن إرسال الآلات بدلاً من القوات يقلل من عتبة الصراع. يمكن أيضًا استخدام الأسلحة المستقلة في ظروف أخرى ، مثل مراقبة الحدود والشرطة.

في الاشتباك العسكري حيث يتم توجيه القوة المميتة أو تطبيقها ، هناك تسلسل واضح للقيادة والمساءلة. لأن الجيوش تعمل كمنظمات هرمية ، فإن هيكل القيادة هذا يكون من الأعلى إلى الأسفل ، من القائد الذي يأمر باستخدام القوة إلى الشخص الذي "يسحب الزناد". بأسلحة مستقلة ، القيادة والسيطرة مهددة، والمسؤولية والمساءلة ليسا واضحين للغاية.

إذا تمكن سلاح مستقل من تحديد أهدافه الخاصة وإشراكها ، فإن سلسلة القيادة تتعطل. في هذه الأنظمة ، عند التنشيط ، هناك فترة زمنية يمكن فيها لنظام السلاح استخدام القوة على هدف دون موافقة بشرية إضافية. حتى إذا تم تحديد بعض المعلمات مسبقًا ، نظرًا للطبيعة الديناميكية للصراع ، فإن الآلة ستشتبك مع الأهداف بشكل مستقل دون أمر مباشر. هذا يعني أن المشغل البشري لا يحدد على وجه التحديد أين ومتى وضد أي قوة يتم تطبيقها.

تعني قضايا القابلية للتفسير وإمكانية التنبؤ وإمكانية التكرار أن الاستهداف والاشتباك بواسطة الأسلحة المستقلة يهددان أيضًا السيطرة العسكرية. سيكون هناك القليل من الوضوح أو لا يوجد وضوح على الإطلاق حول سبب وكيفية اتخاذ الروبوت القاتل قرارًا محددًا. إذا أسفرت هذه القرارات عن أخطاء - مثل النيران الصديقة أو الأضرار الجانبية المفرطة - فسيكون من الصعب تحديد ما إذا كان ذلك نتيجة لعمل الماكينات أو العبث العدائي. عندما يتم تعطيل القيادة والسيطرة بهذه الطريقة ، تتسع فجوة المساءلة أيضًا. من المسؤول عن الأعمال غير المشروعة باستخدام الأسلحة المستقلة؟ الأشخاص الذين قاموا بتعيين المتغيرات في وظيفة المنفعة الخاصة بها؟ الأشخاص الذين برمجوها في المقام الأول؟ القائد العسكري؟ من سيحاسب؟

جادل البعض بأنه يمكن الحفاظ على السيطرة من خلال الإشراف المناسب ، أو القدرة على التدخل أو إلغاء الهجوم. ومع ذلك ، هناك مخاوف جدية بشأن ما إذا كان المشغلون البشريون سيكونون قادرين على الحفاظ على الفهم الضروري للحالة للحصول على تحكم فعال. كمية البيانات التي سيتعين على القائد البشري مراجعتها ستفوق القدرة البشرية على تحليلها. سيؤدي عدم القدرة على تفسير مجموعات البيانات الوصفية الضخمة إلى إبعاد البشر عن فهم ما يجري في ساحة المعركة. ستؤدي سرعة ورد فعل الآلات مقارنة بالبشر إلى زيادة وتيرة الحرب ، وستكون النتيجة فقدان سيطرة بشرية ذات مغزى على استخدام القوة.

يعد التمييز أحد المبادئ الأساسية للقانون الدولي الإنساني - وهو شرط التمييز بين المقاتلين والمدنيين. لكن في العقود الأخيرة ، تزايدت النزاعات المسلحة غير الدولية بين القوات الحكومية والجهات الفاعلة غير الحكومية مثل العصابات أو المتمردين. نادرًا ما يُرى مقاتلو الأعداء في هذا النوع من الحرب وهم يرتدون الزي العسكري القياسي ، مما يجعل من الصعب تمييزهم عن المدنيين. في هذا النوع من الحرب ، غالبًا ما يكون هدف الجهات الفاعلة غير الحكومية الاندماج أو الظهور كمدنيين من أجل الحصول على ميزة تكتيكية. بالنظر إلى الصعوبات التي يواجهها الجنود البشريون في تحديد من هو الهدف المشروع ، فمن السهل رؤية المزيد من المخاطر التي يمثلها استخدام الأسلحة المستقلة.

ستحدد الآلة ما إذا كان الهدف مقاتلًا يعتمد فقط على البرمجة ، ومن المحتمل أن يكون قد تم تطويره في مختبر معقم قبل سنوات من اتخاذ قرار القتل. يعد إلغاء قرارات الحياة والموت للآلة معيبًا أخلاقياً وأخلاقياً وقانونياً.

جون ماكبرايد ، LCol (Retd) ، في رسالة مفتوحة حول دعوة الأفراد العسكريين لحظر الأسلحة المستقلة.

تدخل المحادثات الدبلوماسية المتعلقة بالحكم الذاتي في أنظمة الأسلحة مرحلة حرجة ، على الرغم من أن المحادثات في الأمم المتحدة بشأن اتفاقية الأسلحة التقليدية لم تحرز سوى تقدم ضئيل منذ عام 2014. وهناك عدد قليل من القوى العسكرية التي تقاوم بعناد مقترحات لبدء مفاوضات بشأن صك ملزم قانونًا يتناول الحكم الذاتي في أنظمة الأسلحة. وفي الوقت نفسه ، تستمر الاستثمارات العسكرية في الذكاء الاصطناعي والتقنيات الناشئة بلا هوادة. إذا تركت دون رادع ، فقد يؤدي ذلك إلى مزيد من نزع الصفة الإنسانية عن الحرب ، وتضاؤل ​​ثقة الجمهور في العديد من التطبيقات المدنية الواعدة والمفيدة للتكنولوجيات الناشئة.

المزيد

لا تسعى Stop Killer Robots إلى حظر الأسلحة التي تعمل تحت سيطرة بشرية ذات مغزى. نحن لا نعارض الذكاء الاصطناعي (AI) أو الروبوتات على نطاق واسع ، أو حتى استخدام الذكاء الاصطناعي أو الروبوتات من قبل الجيش. نحن لا نقترح حظرًا على الأنظمة التي لا تحتوي على أسلحة مصممة لإنقاذ الأرواح ، مثل أنظمة التخلص من الذخائر المتفجرة المستقلة ، والتي قد تعمل مع التحكم البشري أو بدونه. لكننا نعتقد أن هناك حدًا لا يجب تجاوزه أبدًا: لا ينبغي تفويض اتخاذ القرارات المتعلقة بالحياة والموت للآلات.

إن تطوير أو نشر أسلحة مستقلة تستهدف الأشخاص ولا يمكن أن تعمل أو لا تعمل تحت سيطرة بشرية ذات مغزى سيقلل من عتبة الدخول في نزاع مسلح ، وأي نظام يتم نشره يكون عرضة للقرصنة أو الأعطال ، مما يزيد من مخاطر الصداقة القوات والمدنيين على حد سواء. نفهم أنه لا يوجد قائد عسكري يريد التنازل عن السيطرة في ساحة المعركة لسلاح مستقل.

تم تصميم التقنيات وصنعها من قبل الناس. تقع على عاتقنا مسؤولية وضع حدود بين ما هو مقبول وما هو غير مقبول. لدينا القدرة على القيام بذلك ، لضمان مساهمة الذكاء الاصطناعي والتقنيات الناشئة الأخرى في حماية البشرية - وليس تدميرها.

في ذروة الحرب الباردة ، أنقذ ضابط روسي العالم. في 26 سبتمبر 1983 ، قرر الملازم أول ستانيسلاف بيتروف عدم قبول أن إشارات الكمبيوتر التي تنبهه إلى هجوم وشيك من الرؤوس النووية الأمريكية كانت دقيقة. ماذا كان سيحدث لو أنه ضغط على زر "أعتقد" لختم توصية النظام؟ ضمان أن أنظمة الأسلحة تعمل تحت سيطرة بشرية ذات مغزى يعني أن قرارات الحياة والموت لا يتم تفويضها للآلات. أهمية صنع القرار البشري في السياق العسكري لا تقل أهمية الآن كما كانت خلال الحرب الباردة

ما يمكن أن تفعله؟

كتب John MacBride ، LCol (Retd) خطابًا مفتوحًا ، بهدف جمع أدلة الدعم لفرض حظر على تطوير واستخدام ونشر الأسلحة المستقلة من قبل قدامى المحاربين وأفراد الجيش.

إذا كنت تشعر بالقلق إزاء الثورة الثالثة الوشيكة في الحرب وما سيعنيه هذا بالنسبة لسلسلة القيادة والنظام والمساءلة والسلامة لأفراد الجيش والمدنيين في جميع أنحاء العالم - يرجى إضافة صوتك إلى مكالمتنا. دعمك لا يقدر بثمن وبمساعدتك يمكننا تحقيق استجابة قانونية للمشاكل التي تطرحها الأسلحة المستقلة.


الأسلحة ذاتية التحكم هي أنظمة أسلحة يمكنها تحديد الأهداف وإطلاق النار عليها دون أن يتحكم بها الإنسان. إنها ليست طائرات بدون طيار مسلحة لها سيطرة بشرية ولكنها آلات ستقرر ما إذا كانت ستقتل أم لا دون تدخل بشري. لن يكون قرار القتل هذا نتيجة للمهارات والمعرفة والذكاء والتدريب والخبرة والإنسانية والأخلاق والوعي بالأوضاع وفهم قوانين الحرب والقانون الإنساني الدولي التي يستخدمها الرجال والنساء في الزي العسكري لاتخاذ مثل هذه القرارات في المعركة. ستحدد الآلة ما إذا كان الهدف مقاتلاً يعتمد فقط على البرمجة التي من المحتمل أن تكون قد تم تطويرها في مختبر معقم قبل سنوات من اتخاذ قرار القتل. يعد إلغاء قرارات الحياة والموت للآلة معيبًا أخلاقياً وأخلاقياً وقانونياً.

لم تقم أي دولة بإدخال أسلحة ذاتية التشغيل بالكامل حتى الآن ولكنها قيد التطوير في عدد من البلدان. لقد حان الوقت الآن لوضع حد لتطورها ونشرها النهائي. يجادل البعض بأن هذه الأسلحة ضرورية وحتمية. من بينها ، الحجة القائلة بأنهم سيحسنون من بقاء الجنود والجنود ، وقد يكون هذا هو الحال إذا لم يكن لدى العدو أسلحة مماثلة ، ولكن إذا كان أحد الأطراف يمتلكها ، يفعل ذلك الآخر. يقال لنا أن الآلات لا تعاني من ضعف بشري ، ولا تتعب ، ولا تغضب ، ولا تتأثر بالطقس أو الظلام لدرجة أن الناس لا يعرفون أي خوف ، وهذا يجعل هذه الآلات تتفوق على جندي. لا تعاني الآلات من نقاط الضعف هذه ، كما أنها ليست مسؤولة أو خاضعة للمساءلة عن قراراتها - يمكنها مهاجمتها مع الإفلات من العقاب وستقوم بذلك. نعتقد أنه يجب حظر خصائص هذه الأسلحة وفقًا للقانون الإنساني الدولي الحالي.

تساعد التطورات التكنولوجية في مجال الروبوتات الجنود بالفعل في مجالات مثل اكتشاف الأجهزة المتفجرة والبحث والإنقاذ وبعض المهام الهندسية. ومع ذلك ، يشعر العديد من الذين يرتدون الزي العسكري سواء العاملين أو المتقاعدين بقلق بالغ بشأن احتمالية تعيين قرارات بشأن ما إذا كان القتل وماذا ومتى يجب على الآلات. الأسلحة المستقلة ليست مسؤولة عن أفعالها. هناك قدر كبير من القلق ، لا سيما عند التفكير في الحرب غير المتكافئة ، من أن الآلات قادرة على التمييز بشكل موثوق بين الأهداف التي قد يتم الاشتباك معها بشكل قانوني وتلك غير القانونية. كجنود وبحارة وطيارين وخطوط جوية ، خدم ومتقاعدين على حد سواء ، ننضم إلى الدعوة إلى حظر تطوير ونشر واستخدام أنظمة الأسلحة التي يتم تطبيق القرار فيها.
القوة العنيفة مصنوعة بشكل مستقل.

1

سوف توقع؟

دعمك لا يقدر بثمن وبمساعدتك يمكن منع تطوير وإنتاج واستخدام أسلحة مستقلة بالكامل.

لعب الفيديو نص بديل للصورة

الروبوتات القاتلة ستخوض حروبنا: هل يمكن الوثوق بها؟

بول شار هو مدير برنامج التكنولوجيا والأمن القومي في مركز الأمن الأمريكي الجديد. يقترح أن الإجابة على الأسئلة ، مثل ما إذا كان بإمكان الروبوت اتخاذ قرارات سليمة أخلاقياً أم لا ، سيساعدنا في إيجاد طريقة إنسانية للمضي قدمًا في تطوير الأسلحة المستقلة. إن مشكلة إخراج البشر تمامًا من الحلقة ، وإعطاء الروبوتات القاتلة العنان لها ، تتلخص في أهمية إنسانيتنا.
لعب الفيديو نص بديل للصورة

فجر الروبوتات القاتلة

في INHUMAN KIND ، تكتسب Motherboard وصولاً حصريًا إلى أسطول صغير من روبوتات التخلص من القنابل التابعة للجيش الأمريكي - وهي نفس المنصات التي استخدمها الجيش كسلاح - ولزوج من روبوتات DARPA التي يبلغ ارتفاعها ستة أقدام. نلتقي أيضًا بالحائزة على جائزة نوبل للسلام ، جودي ويليامز ، والفيزيائي الشهير ماكس تيجمارك ، وآخرين ممن يتصارعون مع شبح الذكاء الاصطناعي ، والروبوتات القاتلة ، والسابقة التكنولوجية التي نشأت في العصر الذري. إنها قصة عن العلاقة المتطورة بين البشر والروبوتات ، وما يبشر به الذكاء الاصطناعي في الآلات لمستقبل الحرب والجنس البشري.
لعب الفيديو نص بديل للصورة

قرار القتل لا يجب أن يخص إنسان آلي

كروائي دانيال سواريز يدور حكايات بائسة عن المستقبل. لكن على منصة TEDGlobal ، يتحدث إلينا من خلال سيناريو من واقع الحياة نحتاج جميعًا إلى معرفة المزيد عنه: صعود أسلحة الحرب الروبوتية المستقلة. ويقترح أن الطائرات بدون طيار المتقدمة والأسلحة الآلية وأدوات جمع المعلومات الاستخبارية التي تعمل بالذكاء الاصطناعي يمكن أن تتخذ القرار بإخراج الحرب من أيدي البشر.

2

بودكاست: مستقبل الأتمتة في الجيش

يبحث هذا البودكاست في مستقبل الأتمتة داخل الجيش. الأمثلة الحالية ، والآثار المحتملة في المستقبل ، والقضايا الأخلاقية التي تأتي معها.

3

بودكاست: التحكم في الأنظمة في الزمان والمكان

تستكشف هذه الحلقة كيف يجب اعتبار الزمان والمكان وسيلتين للحفاظ على سيطرة بشرية ذات مغزى ، والإجابة على الأسئلة الرئيسية: 1) ما هي الأنظمة التي تعتبر غير مقبولة والتي يجب حظرها؟ 2) كيف يتم ضمان السيطرة البشرية الهادفة على الأنظمة التي لا تحتاج إلى حظر؟

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا