صورة بطل القائمة

الأسئلة المتكررة

إجابات على أسئلتك حول الأسلحة المستقلة وعمل "أوقفوا الروبوتات القاتلة".

إننا نشهد على نحو متزايد تطوير أنظمة الأسلحة ذات الوظائف المستقلة، ودعم القرار بالذكاء الاصطناعي وأنظمة التوصية المستهدفة، واستخدامها في الصراعات المستمرة، بما في ذلك في غزة وأوكرانيا. وتُستخدم هذه الصراعات بمثابة اختبارات للتكنولوجيات ذات مستويات متزايدة من الاستقلالية. في حين لم يتم التحقق بعد من التقارير حول استخدام أنظمة الأسلحة التي تستخدم معالجة أجهزة الاستشعار لاختيار الهدف وتحديد مكان وزمان حدوث الهجوم دون موافقة الإنسان، إلا أن الأنظمة السابقة يتم نشرها من قبل العديد من الدول.

وهذا أمر مقلق للغاية في ظل غياب قواعد وحدود واضحة تنطبق تحديدًا على هذه الأسلحة والأنظمة الأخرى. خاصة وأن المطورين والمستخدمين يدفعون حدود ما هو مقبول بموجب المعايير القانونية والأخلاقية.

تدعو حملة "أوقفوا الروبوتات القاتلة" إلى وضع قانون دولي جديد (أي معاهدة) يتضمن مجموعة من اللوائح والمحظورات على أنظمة الأسلحة المستقلة. في حين تظهر الاتجاهات زيادة في استخدام الاستقلالية في الحرب، فمن المهم التمييز بين ما يعتبر سلاحًا مستقلًا وما لا يعد سلاحًا مستقلاً. وهذا يسمح لنا بالضغط بشكل فعال من أجل قانون دولي جديد مع تسليط الضوء على المخاوف المتداخلة بين الأسلحة المستقلة، وأنظمة الأسلحة ذات الوظائف المستقلة، والأنظمة العسكرية الأخرى.

في الأقسام أدناه نوضح الفرق بين هذه التقنيات، ونوضح الخطوط العريضة لدينا موقف السياسة وتقديم معلومات أساسية إضافية عن حملتنا.

 

الروبوتات القاتلة

أنظمة الأسلحة المستقلة هي أسلحة تكتشف وتطبق القوة على الهدف بناءً على مدخلات أجهزة الاستشعار، بدلاً من المدخلات البشرية المباشرة. بعد أن يقوم المستخدم البشري بتنشيط نظام الأسلحة، هناك فترة من الوقت يستطيع فيها نظام الأسلحة تطبيق القوة على الهدف دون موافقة بشرية مباشرة. وهذا يعني أن ماذا أو من سيتم الهجوم عليه، وأين ومتى سيحدث هذا الهجوم، يتم تحديدهما من خلال معالجة أجهزة الاستشعار، وليس من قبل البشر. هذا الاستهداف المعتمد على أجهزة الاستشعار هو وظيفة من وظائف نظام الأسلحة. لذلك، يعمل نظام الأسلحة بشكل مستقل عندما تؤدي معالجة أجهزة الاستشعار إلى تفعيل القوة تلقائيًا. شاهد موردنا "شرح الأسلحة المستقلة" لفهم كيفية عمل أنظمة الأسلحة المستقلة بشكل أفضل.

الروبوتات القاتلة هي أنظمة الأسلحة المستقلة التي لا يمكن استخدامها بما يتماشى مع المعايير القانونية والأخلاقية ويجب حظرها. هذه أنظمة لا يمكن استخدامها مع سيطرة بشرية ذات معنى، وأنظمة تستهدف البشر. 

الروبوتات القاتلة ترفع مشاكل أخلاقية وأخلاقية وقانونية كبيرة، تحدي السيطرة البشرية على استخدام القوة وتسليم عملية صنع القرار بشأن الحياة والموت للآلات. كما أنها تثير المخاوف حولها نزع الإنسانية الرقمية، العملية التي يتم من خلالها تحويل الأشخاص إلى نقاط بيانات يتم استخدامها بعد ذلك لاتخاذ القرارات و/أو اتخاذ الإجراءات التي تؤثر سلبًا على حياتهم. 

والأنظمة التي تعمل بهذه الطريقة تهدد السلام والأمن والاستقرار الدوليين. إن الاستقلالية في أنظمة الأسلحة تقلل من سيطرة المشغل البشري ويقوض المساءلة والمسؤولية في الصراع. وتثير أنظمة الأسلحة هذه أيضًا مخاوف جدية بشأن الامتثال للقانون الدولي لحقوق الإنسان ومبادئ القانون الإنساني الدولي Различие, التناسب, الحذر، والحظر هجمات عشوائية.

إذا تم استخدامها، فإن الأسلحة المستقلة سوف تغير بشكل جذري طبيعة كيفية خوض الحروب. ومن شأنها أن تؤدي إلى المزيد من الحروب غير المتكافئة، وزعزعة استقرار السلام والأمن الدوليين من خلال إثارة سباق تسلح جديد. كما أنها ستنقل عبء الصراع إلى كاهل المدنيين. لكن مخاطر الروبوتات القاتلة لا تهدد الأشخاص في الصراعات فحسب. إن استخدام هذه الأسلحة داخل مجتمعاتنا على نطاق أوسع يمكن أن يكون له أيضًا عواقب وخيمة.

فكر في الاحتجاجات المستقبلية، ومراقبة الحدود، والشرطة، والمراقبة، أو حتى في الأنواع الأخرى من التقنيات التي نستخدمها. ماذا سيقول عن مجتمعنا - وما هو التأثير الذي قد يحدثه على النضال من أجل التكنولوجيا الأخلاقية - إذا سمحنا للآلات باتخاذ القرارات النهائية المتعلقة بالحياة والموت؟ إن ظهور الأسلحة المستقلة وعواقبها يؤثر علينا جميعا.

يقول بعض الناس إن الروبوتات القاتلة ستكون أكثر دقة، وأنها ستكون أسرع وأكثر كفاءة من الجنود البشر، ويمكن أن تذهب إلى أماكن يصعب على الجنود العمل فيها، ويمكن أن تكون أكثر دقة في الاستهداف، وتنقذ الأرواح عن طريق تقليل "الجنود على الأرض". الأرض"، ويكون بمثابة رادع. ولكن أشياء مماثلة قيلت عن الألغام الأرضية، والذخائر العنقودية، والأسلحة النووية ــ الأسلحة العشوائية التي قتلت وأصابت مئات الآلاف من البشر قبل حظرها.

إن التقنيات التي تغير سلوكها أو تكيف برمجتها بشكل مستقل لا يمكن استخدامها بتحكم حقيقي. يمكن للتقنيات الأخرى أن تمثل "الصندوق الأسود"، حيث لا يمكن معرفة سبب أو كيفية اتخاذ القرارات. وبموجب القانون، يجب أن يكون القادة العسكريون قادرين على الحكم على مدى ضرورة الهجوم وتناسبه، والتمييز بين المدنيين والأهداف العسكرية المشروعة.

وهذا لا يعني فهم نظام الأسلحة فحسب، بل يعني أيضًا فهم السياق الذي يمكن استخدامه فيه. الآلات لا تفهم السياق أو العواقب: الفهم قدرة بشرية - وبدون هذا الفهم، نفقد المسؤولية الأخلاقية ونقوض القواعد القانونية القائمة. إن تهديدات ومخاطر الروبوتات القاتلة تفوق بكثير أي مزايا محتملة.

تتضمن العديد من الأنظمة وظائف آلية مختلفة (مثل التعرف التلقائي على الهدف)، ولكنها لا تفعل ذلك تطبيق القوة على (مهاجمة) الأهداف بناءً على مدخلات أجهزة الاستشعار. على سبيل المثال، تحتوي معظم أنظمة الأسلحة التي تستخدم التعرف التلقائي على الأهداف حاليًا على مشغل بشري يحتاج إلى الموافقة على أي هجوم (نسميها الأنظمة القائمة على الموافقة). ومع ذلك، فمن الصعب التحقق من مستوى الاستقلالية التي يتمتع بها النظام فيما يتعلق بأي وظيفة. للمزيد راجع هذا التقرير الذي أعدته PAX حول الآثار القانونية والأخلاقية للاتجاهات في الاستقلالية في أنظمة الأسلحة.

تثير مثل هذه الأنظمة أيضًا مخاوف أخلاقية وقانونية، لا سيما فيما يتعلق بالتجريد الرقمي من الإنسانية، وما إذا كان المستخدم قادرًا على إصدار حكم قائم على أسس متينة بشأن ما إذا كانت آثار الهجوم تتماشى مع المعايير القانونية والأخلاقية. لدينا فريق البحث والرصد، بحث القرار الآليقام بإنشاء ملف مراقب الأسلحة مورد يحتوي على أمثلة لأنظمة الأسلحة ذات الميزات المفيدة للمخاوف المتعلقة بزيادة الاستقلالية في الأسلحة.

عدم اليقين بشأن قدرات أنظمة الأسلحة ووظائفها المستقلة (أو عدم وجودها)، والاتجاه نحو زيادة الاستقلالية في الحرب بما في ذلك الصراعات الحالية، تسليط الضوء بشكل أكبر على سبب الحاجة الملحة إلى قانون دولي جديد بشأن الاستقلالية في أنظمة الأسلحة.

أنظمة التوصية المستهدفة بالذكاء الاصطناعي أو أنظمة توليد الأهداف ليست أنظمة أسلحة. إنها أنظمة معالجة البيانات التي تقوم بمعالجة وتحليل كميات كبيرة من البيانات بسرعة عالية لإنشاء الأهداف وتقديم توصيات الاستهداف. يمكن أن تشمل البيانات المستخدمة صور الأقمار الصناعية، والاتصالات، ولقطات الطائرات بدون طيار، وما إلى ذلك. وتشمل أمثلة هذه الأنظمة نظام الحبسورا الإسرائيلي (المعروف أيضًا باسم "الإنجيل").، إسرائيل نظام الخزامىو مشروع الولايات المتحدة مافن

هذه الأنظمة هي أنظمة التوصية المستهدفة أو أنظمة "دعم القرار"؛ فهي ليست أسلحة. وعلى هذا النحو، فهي لا تقع ضمن نطاق معاهدة بشأن أنظمة الأسلحة المستقلة. 

في حين أنها ليست أنظمة أسلحة، هذه الأنظمة ولا تزال تثير قضايا إنسانية وأخلاقية ومعنوية وقانونية كبيرة. هناك مخاطر جدية تتمثل في أن البشر قد يفرطون في الثقة في توصيات النظام (تحيز الأتمتة) وقد يصبحون معتمدين بشكل مفرط على الأنظمة الآلية دون فهم كيفية إنشاء التوصيات. كما أن الرغبة في زيادة السرعة يمكن أن تحد من المشاركة المعرفية للمستخدمين في عملية صنع القرار. ويمكن لهذه الأنظمة أيضًا أن تخلق "ستارًا من الدخان" للمساءلة فيما يتعلق بمن سيكون مسؤولاً إذا أدت التوصيات إلى انتهاكات للقانون الدولي الإنساني.

لمعرفة المزيد عن المشكلات التي تثيرها أنظمة التوصية المستهدفة هذه، اقرأ مقالة لوسي سوشمان عن "آلة القتل المتسارعة خوارزميًا"و مقال إلك شوارتز ونيل رينيك، "اللاإنسانية في دائرة الضوء: استهداف الذكاء الاصطناعي وتآكل ضبط النفس الأخلاقي".

أنظمة "التحكم في الحرائق"، والتي تشتمل على عدد من المكونات التي تعمل معًا لمساعدة نظام الأسلحة بعيدة المدى على الاستهداف والتتبع والضرب، مثل أنظمة SMASH الخاصة بـ SmartShooter و أنظمة AimLock، يمكن دمجها مع بنادق هجومية وأسلحة أخرى. قد تستخدم هذه الأنظمة الخوارزميات (خاصة التعرف على الصور) لاكتشاف الأهداف أو تصنيفها أو تتبعها، و"التثبيت" على هدف يختاره عامل بشري، وإطلاق النار بناءً على أمر عامل بشري. وبما أن هناك إنسانًا يتخذ القرار بنشر القوة (الهجوم) على هدف، فهذه ليست أسلحة ذاتية التشغيل. وفي حين أن هذه الأنظمة ليست أنظمة أسلحة مستقلة، إلا أن هذه الأنظمة تثير أيضًا قضايا أخلاقية وأخلاقية وقانونية، ومخاوف بشأن التجريد الرقمي من الإنسانية.

هناك أنواع عديدة من الروبوتات التي يمكن استخدامها لأغراض عسكرية أخرى، مثل الروبوتات للتخلص من القنابل، ونقل المعدات العسكرية، وإزالة الألغام، والبحث والإنقاذ، ولأغراض المراقبة، وما إلى ذلك.

بعض الروبوتات ، مثل روبوت "كلاب" يتم التحكم فيه عن بعد، حظيت باهتمام كبير في السنوات الأخيرة، لا سيما بسبب المخاوف بشأن احتمال تسليحها واستخدامها من قبل العسكريين و من قبل قوات الشرطة. وكما هو الحال مع جميع أنظمة الأسلحة، يجب استخدام هذه الروبوتات فقط بما يتماشى مع المعايير القانونية والأخلاقية.

 تزايد استخدام مثل هذه الروبوتات للأغراض العسكرية و إن عدم اليقين بشأن قدراتها، ومدى وظائفها المستقلة، واحتمال تسليحها، يسلط الضوء بشكل أكبر على سبب الحاجة الملحة إلى قانون دولي جديد بشأن الاستقلالية في أنظمة الأسلحة. 

وبالمثل، فإن استخدام مثل هذه الروبوتات في سياقات غير الصراع، مثل الشرطة ومراقبة الحدود، يثير تساؤلات حول حماية حقوق الإنسان وتطبيق القانون الدولي لحقوق الإنسان.

بينما ست شركات الروبوتات وقد تعهدوا سابقًا بعدم السماح بتسليح الروبوتات الخاصة بهمومع ذلك، فإن التطوير المستمر للأنظمة الروبوتية للاستخدام العسكري يوضح أن التنظيم الذاتي لن يكون كافيًا للتعامل مع التحديات التي تفرضها التقنيات الناشئة على حماية المدنيين والقانون الإنساني الدولي.

حملتنا

إيقاف الروبوتات القاتلة هو تحالف عالمي يضم أكثر من 250 منظمة غير حكومية دولية وإقليمية ووطنية وشركاء أكاديميين يعملون في أكثر من 70 دولة لضمان سيطرة بشرية ذات معنى على استخدام القوة من خلال تطوير قانون دولي جديد. لدينا أيضا شبكة الشباب الذي يجمع القادة الشباب من جميع أنحاء العالم للتعاون ودعم جهودنا لتأمين مستقبل خالٍ من القتل الآلي.

حملة "أوقفوا الروبوتات القاتلة". يدعو إلى قانون دولي جديد بشأن أنظمة الأسلحة المستقلة. وينبغي لهذه المعاهدة الجديدة أن تحظر أنظمة الأسلحة المستقلة والتي تستهدف البشر بشكل مباشروأنظمة الأسلحة المستقلة التي لا يمكن استخدامها بشكل مفيد السيطرة البشرية (وهذا ما نسميه الروبوتات القاتلة). ينبغي أن تنظم المعاهدة جميع أنظمة الأسلحة المستقلة الأخرى من خلال إنشاء التزامات إيجابية (الأشياء التي يتعين على الدول القيام بها لضمان الامتثال، أو التدابير التي يتعين عليها اتخاذها لمنع انتهاكات القانون الدولي)، بما في ذلك قواعد محددة بشأن القدرة على التنبؤ، وفهم، والتوقيت الزمني والمحدد. القيود المكانية. ال اللجنة الدولية للصليب الأحمر  كما يوصي بضرورة حظر الأنظمة المصممة أو المستخدمة لاستهداف البشر وأنظمة الأسلحة المستقلة التي لا يمكن التنبؤ بها بشكل صريح، ويجب أن تخضع جميع أنظمة الأسلحة المستقلة الأخرى لالتزامات إيجابية.

وتدعو منظمة "أوقفوا الروبوتات القاتلة"، مثل اللجنة الدولية للصليب الأحمر، إلى وضع قواعد دولية جديدة ملزمة قانونًا لحظر وتنظيم أنظمة الأسلحة المستقلة، بدلاً من "الحظر" الكامل. وذلك لأن القانون الدولي الجديد في شكل مزيج من المحظورات واللوائح التنظيمية سيكون أوسع نطاقًا من الحظر، ويمكنه تناول المزيد من القضايا المثيرة للقلق، ومن شأنه أن ينشئ أقوى معاهدة دولية ممكنة. إلى جانب معالجة حظر الأسلحة ذاتية التشغيل غير المقبولة بشكل أساسي، يجب أن تتضمن المعاهدة قواعد لضمان استخدام الأسلحة الأخرى ذاتية التشغيل بما يتماشى مع المعايير القانونية والأخلاقية.

ومن شأن القواعد الدولية الجديدة في شكل صك ملزم قانونا أن تخلق إطارا دائما وفعالا لحظر وتنظيم تطوير واستخدام أنظمة الأسلحة المستقلة. إن أي أداة ذات نطاق واسع، وبنية منطقية وخطوط معيارية واضحة ــ مثل حظر استهداف الأشخاص ــ من شأنها أن تضع معياراً مقنعاً حتى بالنسبة للدول التي لم تنضم إليها في البداية. إن الأداة المبنية على هذه الخطوط سوف تشكل تطور التقنيات في المستقبل.

لا يزال الزخم يتزايد في جميع أنحاء العالم وراء الدعوة إلى فرض قيود على الاستقلال الذاتي في أنظمة الأسلحة من خلال معاهدة دولية جديدة. تعتبر الروبوتات القاتلة تهديدًا كبيرًا للبشرية ويتطلب استجابة سريعة وقوية متعددة الأطراف. ومؤخرًا، في نوفمبر 2023، تم تم اعتماد أول قرار على الإطلاق للأمم المتحدة بشأن الروبوتات القاتلة في الجمعية العامة للأمم المتحدة. جاء ذلك عقب أ سلسلة من المواقف الإقليمية (أي الإعلانات والبيانات) التي تم اعتمادها بشأن الروبوتات القاتلة في وقت سابق من عام 2023. حاليًا، غالبية الدول دعم التفاوض بشأن قواعد جديدة لأنظمة الأسلحة المستقلةكما يفعل الأمين العام للأمم المتحدة ورئيس اللجنة الدولية للصليب الأحمر وجهوا نداء مشتركًا تاريخيًا في أكتوبر 2023 ودعا الدول إلى التفاوض على صك جديد ملزم قانونا بحلول عام 2026.

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا