صورة بطل القائمة
AOAV IGw AWS النهائي 150ppi_LR

خبراء في الروبوتات القاتلة في دافوس

AOAV IGw AWS النهائي 150ppi_LR

عقد المنتدى الاقتصادي العالمي أمس (21 يناير 2015) لمدة ساعة نقاش بالتعاون مع TIME للنظر في "ماذا لو ذهبت الروبوتات إلى الحرب؟" ضمت الجلسة في الاجتماع السنوي في دافوس بسويسرا أربعة متحدثين: رئيسة الأمم المتحدة السابقة لنزع السلاح أنجيلا كين ، ورئيس BAE Systems السير روجر كار ، وخبير الذكاء الاصطناعي (AI). ستيوارت راسل وخبير أخلاقيات الروبوت آلان وينفيلد.

على الرغم من خلفياتهم المختلفة ، اتفق جميع المشاركين على أن أنظمة الأسلحة المستقلة تشكل مخاطر وتتطلب إجراءات دبلوماسية سريعة للتفاوض على صك ملزم قانونًا يرسم الخط في الأسلحة التي لا تخضع لسيطرة الإنسان. أثيرت مخاوف الروبوت القاتل في لوحات أخرى ، مما يشير إلى مستوى عالٍ من الاهتمام بالموضوع في دافوس.

كان أعضاء اللجنة واضحين بشأن ماهية الروبوت القاتل وما هو ليس كذلك. قال راسل إن السلاح المستقل بالكامل يحدد موقع أو يختار هدفًا ويطلق النار دون تدخل بشري. وأوضح كار أنه سيكون قادرًا على تحديد واختيار هدف ، وتعديل سلوكه إذا لزم الأمر ، ونشر القوة [إطلاق النار] دون أي تدخل بشري. لاحظ كين أنه لا يوجد حتى الآن تعريف رسمي للسلاح المستقل بالكامل ، لكنه حذر الدول أيضًا من "عدم قضاء الكثير من الوقت في ذلك".

وصف كار "إمكانات سوق بقيمة 20 مليار دولار" بينما تتسابق 40 دولة لتطوير أسلحة مستقلة. تم إدراج حملة وقف الروبوتات القاتلة على الأقل ست دول تبحث عن أسلحة مستقلة أو تطورها أو تختبرها: الولايات المتحدة والصين وإسرائيل وكوريا الجنوبية وروسيا والمملكة المتحدة. لفهم الاختلاف ، قد يكون من المفيد أن يوضح كار معايير البلدان المدرجة في القائمة الطويلة.

اتفق جميع أعضاء اللجنة على أن إبقاء الروبوتات القاتلة في أيدي الحكومات المسؤولة وبعيدًا عن أيدي الجماعات المسلحة غير الحكومية سيكون تحديًا إن لم يكن مستحيلًا. تشمل الاعتبارات الاستراتيجية الأخرى ما يسمى بقيمة الردع ، والتي رفضها أعضاء اللجنة. لاحظ كل من راسل وكار أن الأسلحة ذاتية التحكم بالكامل لن تكون قادرة على الامتثال لقوانين الحرب ، ولم يدع أحدًا أنها يمكن أن تفي بمتطلبات القانون الإنساني الدولي.

كانت المخاوف الأخلاقية والأخلاقية من بين أشد المخاوف التي تم التعبير عنها ، وربما كان الأمر الأكثر إثارة للدهشة من ممثل صناعة الأسلحة كار ، الذي قال إن الأسلحة المستقلة بالكامل ستكون "خالية من المسؤولية" ولن يكون لها "عاطفة أو إحساس بالرحمة". وحذر من أنه "إذا قمت بإزالة الأخلاق والحكم والأخلاق من المساعي الإنسانية ، سواء كان ذلك في سلام أو حرب ، فسوف تأخذ الإنسانية إلى مستوى آخر يتجاوز فهمنا".

قال وينفيلد إنه ليس من الممكن تقنيًا حاليًا بناء نظام مصطنع بفاعلية أخلاقية. وقال إن العلماء يتساءلون عن سبب رغبة أي شخص في المحاولة لأن القيام بذلك يتجاوز "الخط الأحمر الأخلاقي".

عاد المتحدثون إلى فكرة التحكم البشري عدة مرات ، مؤكدين أهميتها المركزية في النقاش الدولي الناشئ. قال كار بشكل قاطع أن شركة BAE Systems والحكومة البريطانية تعتقدان بقوة أن إزالة الإنسان "خطأ جوهري" وأكد أنه لا أحد يريد السماح للآلات باختيار ماذا وأين وكيف تقاتل.

وصفت أنجيلا كين ، التي تعمل الآن زميلة في مركز نزع السلاح وعدم الانتشار ومقره فيينا ، كيف يمكن للدول استخدام إطار اتفاقية الأسلحة التقليدية للتفاوض على بروتوكول آخر بشأن الأسلحة المستقلة. وانتقدت وتيرة المداولات الدبلوماسية في هذا المنتدى منذ عام 2014 ووصفتها بأنها "جليدية" وشجعت الولايات المتحدة على "تولي القيادة" دبلوماسيًا و "رفع مستوى النقاش" كما تفعل فرنسا وألمانيا بشأن الروبوتات القاتلة في اتفاقية الأسلحة التقليدية. ووصف راسل الأشهر الثمانية عشر القادمة إلى العامين المقبلين بأنها حاسمة في تحقيق عملية التفاوض. تكرر كار مرارًا وتكرارًا أنه "يجب رسم خط" لأسباب ليس أقلها أن الآخرين من المحتمل أن يستخدموا الروبوتات القاتلة بشكل غير مسؤول.

وصف كار القيادة السياسية بأنها "تحد كبير" للحصول على قوة جذب للتعامل مع الروبوتات القاتلة لأن "الأشخاص الذين يصدرون أحكامًا حول التشريعات لا يفهمون تمامًا التحدي أو العملية" وأوصى بإشراك المشرعين في عملية التوعية بالمخاطر. دعا وينفيلد أعضاء الجمهور والجمهور إلى الاتصال بممثلهم المنتخب أو عضو البرلمان وإخبارهم أن الروبوتات القاتلة غير مقبولة "نحن الشعب".

قبل وأثناء اللجنة ، أجرى دافوس استطلاعًا من ثلاثة أسئلة حول الروبوتات القاتلة. خلال الجلسة ، تم تقديم النتائج الأولى ، ووجدت أن 88٪ من الأشخاص في الغرفة في دافوس و 55٪ في الخارج وافقوا على أنه في حالة الهجوم عليهم يجب الدفاع عنهم بأسلحة مستقلة بدلاً من "أبناء وبنات" البشر. ورفض أعضاء اللجنة هذه النتيجة ووصفوها بأنها ساذجة. قالت وينفيلد إنها كشفت عن "ثقة غير عادية في غير محلها ومضللة في أنظمة الذكاء الاصطناعي" لأنه "حتى الروبوت المصمم جيدًا سوف يتصرف بطريقة فوضوية ويرتكب أخطاء في بيئة فوضوية". هناك أيضًا قلق من أن الجمهور يشتري الضجيج الإعلامي حول الفوائد المحتملة ويضع ثقة كبيرة في مثل هذه الأنظمة ، بينما أصبحت الأجيال غير حساسة للحرب بواسطة ألعاب الفيديو.

بحسب أ البند بقلم راسل المنشور على موقع دافوس الإلكتروني لعام 2016 ، انضم العديد من أعضاء مجلس الأجندة العالمي للذكاء الاصطناعي والروبوتات التابع للمنتدى الاقتصادي العالمي إلى أكثر من 3,000 خبير في الذكاء الاصطناعي في التوقيع على 2015 رسالة مفتوحة الدعوة إلى حظر الأسلحة المستقلة.

لم تكن لوحة 2016 حول الروبوتات القاتلة هي المرة الأولى التي ينظر فيها دافوس في الأمر. في يناير 2015 ، لوحة تقنية شارك فيها راسل وكين روث من هيومن رايتس ووتش ، وقد خصص وقتًا طويلاً لمناقشة الأمر.

لمزيد من المعلومات:

ماري

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا