صورة بطل القائمة
AOAV IGw AWS النهائي 150ppi_LR

تعتبر دافوس الروبوتات القاتلة

AOAV IGw AWS النهائي 150ppi_LR

أثيرت مخاوف بشأن الأسلحة ذاتية التشغيل أو "الروبوتات القاتلة" في المنتدى الاقتصادي العالمي لعام 2015 في دافوس ، سويسرا مع العديد من المنشورات والمتحدثين الذين تناولوا هذه المسألة. هذه هي المرة الأولى التي ينظر فيها الاجتماع السنوي لقادة العالم من الحكومات والشركات والمجتمع المدني في التحديات التي تشكلها أنظمة الأسلحة التي تختار الأهداف وتستخدم القوة دون مزيد من التدخل البشري.

تناولت العديد من المنشورات الصادرة قبل المنتدى الاقتصادي العالمي لعام 2015 التحدي ، بما في ذلك المنتدى لعام 2015 المخاطر العالمية التقرير الذي يتضمن قسمًا موجزًا ​​تحت عنوان "الذكاء الاصطناعي - صعود الآلات" (صفحة 40). وفقًا للتقرير ، "تعمل عدة دول على تطوير أنظمة أسلحة فتاكة ذاتية التشغيل يمكنها تقييم المعلومات واختيار الأهداف وفتح النيران دون تدخل بشري" مما يثير "تحديات جديدة للقانون الدولي وحماية غير المقاتلين". خلص التقرير إلى عدم وضوح بشأن من سيكون مسؤولاً إذا كان نظام الأسلحة المستقلة ينتهك القانون الدولي ويشير إلى أن "العمل الاستباقي والموجه نحو المستقبل في العديد من المجالات ضروري لمواجهة" ميل التقدم التكنولوجي لتجاوز السيطرة الاجتماعية على تقنية.'"

تتكرر هذه النتائج في 15 يناير بريد.. اعلاني نشره المنتدى والبروفيسور ستيوارت راسل من جامعة كاليفورنيا في بيركلي ، والذي وقع في وقت سابق من هذا الشهر رسالة مفتوحة حث على البحث حول كيفية جني فوائد وإمكانات الذكاء الاصطناعي "مع تجنب المزالق المحتملة". شارك راسل في تأليف أ أولويات البحث المذكرة الصادرة جنبًا إلى جنب مع الرسالة المفتوحة التي تسرد الأسئلة حول الأسلحة المستقلة من بين اهتمامات أخرى يجب دراستها.

في لجنة المنتدى الاقتصادي العالمي حول كيف أن التطورات في الذكاء الاصطناعي وأجهزة الاستشعار الذكية والتكنولوجيا الاجتماعية "ستغير الحياة" في 22 يناير ، حذر راسل من أن الأسلحة ذاتية التحكم يمكن أن تغير طبيعة الحرب تمامًا وتساءل الجمهور: "هل هذا هو الاتجاه نريد أن نذهب؟ لست متأكدا. "

أدارت الجلسة التي استغرقت ساعة فقط والمقدمة المقدمة السيدة هيروكو كونيا نيابة عن هيئة الإذاعة اليابانية NHK.

كان المتحدث الآخر على اللوحة كين روثالمدير التنفيذي ل هيومن رايتس ووتش، وهي أحد مؤسسي حملة Stop Killer Robots. تناول المخاوف القانونية والأخلاقية والمتعلقة بالانتشار وتساءل عما إذا كانت الآلات تتمتع "بصقل الحكم لتقرير من هو المقاتل". وصف روث "العائق الرئيسي للحرب" بأنه "التعاطف البشري" وأعرب عن شكوكه في أن "البرمجة الأفضل" يمكن أن تعالج المخاوف المثارة ، محذرًا ، "هناك أحكام أخلاقية على المحك."

لاحظ روث أنه بالنسبة لبعض التقنيات ، "من الأفضل بكثير إبقاء الجني في الزجاجة" ، لأنه "بمجرد خروجها ، يكون من الصعب جدًا العودة إليها" ، مع إعطاء مثال الأسلحة النووية. وحث على فرض حظر استباقي على الأسلحة ذاتية التشغيل بالكامل ووصف المثال الإيجابي الذي أرسته قبل 20 عامًا اتفاقية الأسلحة التقليدية عندما حظرت الدول بشكل استباقي أشعة الليزر المسببة للعمى لأنها وجدت أن احتمال وجود أسلحة من شأنها أن تعمى بشكل دائم مرعب للغاية.

أحد المشاركين في المنتدى الاقتصادي العالمي الذي حضر الجلسة كان رجل الأعمال النرويجي يوهان هـ. أندرسن، رئيس مجلس الأخلاقيات في صندوق البترول النرويجي. في مقابلة مع صحيفة الأعمال النرويجية اليومية DN (داجنس نيرينغسليف) ، قال أندرسن إن احتمالية امتلاك أسلحة ذاتية التشغيل بالكامل تقلقه. بناء على توصية من مجلس الأخلاقيات ، قام الصندوق بسحب استثماراته من الشركات العاملة في إنتاج الألغام الأرضية المضادة للأفراد والذخائر العنقودية والأسلحة النووية. عند سؤاله عما إذا كان ينبغي للمجلس اقتراح استبعاد منتجي الأسلحة المستقلة ، قال أندرسون إنه يأمل ألا تكون هناك حاجة لاتخاذ مثل هذا القرار إذا نجحت جهود الحظر الوقائي لهذه الأسلحة.

لمزيد من المعلومات:

ماري

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا