صورة بطل القائمة
صورة لمبنى الأمم المتحدة

شبكات القتل الممكّنة بالذكاء الاصطناعي والمنحدر الزلق نحو أنظمة الأسلحة المستقلة

لورا نولان هي مبرمجة كمبيوتر استقالت من Google بسبب Project Maven. وهي الآن عضوة في اللجنة الدولية للتحكم في أسلحة الروبوت (ICRAC) وعضو مؤسس في حملة وقف الروبوتات القاتلة. #KeepCtrl.

الصور الأصلية: مات ريدينج وماركوس سبيسكي.

Lالشهر الماضي ، اتفاقية الأمم المتحدة بشأن الأسلحة التقليديةoNS (CCW) يجتمع لمناقشة أنظمة الأسلحة الفتاكة ذاتية التشغيل (LAWS) ، والتي توصف أحيانًا بأنها "روبوتات قاتلة". أنظمة الأسلحة الفتاكة ذاتية التشغيل (LAWS) هي أنظمة لديها القدرة على تحديد الأهداف وتطبيق القوة بشكل مستقل ، دون سيطرة بشرية ذات مغزى. تعمل اتفاقية الأسلحة التقليدية على هذه القضية منذ عام 2014 ، لكنها لم تتوصل بعد إلى اتفاق بشأن أي إجراء لمعالجة المخاوف التي تثيرها هذه الأسلحة.

كحملة لوقف الروبوتات القاتلة ضعها في نهاية عام 2019: "الدبلوماسية تمضي قدمًا بوتيرة بطيئة ، لكن الضغط يتزايد على الدول لبدء مفاوضات بشأن معاهدة جديدة بشأن الأسلحة ذاتية التشغيل بالكامل دون تأخير. هناك اعتراف متزايد بأن أنظمة الأسلحة التي من شأنها تحديد الأهداف وإشراكها على أساس معالجة أجهزة الاستشعار والتي لا تسمح بتحكم بشري ذي مغزى تتجاوز عتبة القبول ويجب حظرها ".

في الشهر الماضي ، أنهى الجيش الأمريكي تدريبات استمرت ثلاثة أسابيع ، أطلق عليها اسم Project Convergence ، تهدف إلى اختبار وتطوير "الذكاء الاصطناعي (AI) يُمكّن قتل الويب"، وهي شبكة من شأنها ربط أنظمة اختيار الهدف المؤتمتة بأنظمة الأسلحة. تفاخروا بقدرتهم على الكشف عن الهدف وإطلاق النار عليه (من المدفعية الأرضية أو الطائرات بدون طيار) ضمن ثواني شنومكس. يمكن للجنود إطلاق صواريخ من طائرات بدون طيار عبر تطبيق هاتف ذكي. يتم دمج بيانات الاستطلاع من الطائرات بدون طيار مع مصادر أخرى وتعرض "الشبكة" التهديدات على الخريطة الرقمية.

صورة جوية لشاحنة في منتصف الطريق

الصورة: ديفا دارشان.

يرأس حملة لوقف الروبوتات القاتل يهدف إلى الحفاظ على سيطرة بشرية ذات مغزى على استخدام القوة. تُظهر التقنيات التي يتم اختبارها كجزء من Project Convergence العديد من مخاوفنا. هل يمكن للمشغل اتخاذ قرار سليم بشأن ما إذا كان سيضرب هدفًا تم اكتشافه حديثًا في أقل من 20 ثانية ، أم أنه يصيب زر "أنا أصدق" لختم توصية النظام ، وتفويض سلطة اتخاذ القرار الحقيقية للبرمجيات؟ في نظام اجتماعي تقني يتم تحسينه بشكل صريح لتقليل الوقت من اكتشاف تهديد محتمل إلى تدميره ، قد لا يكافأ الفرد لممارسة اليقظة. فكرة شن هجمات عبر واجهة المستخدم المحدودة للغاية للهاتف الذكي هي أيضًا فكرة مثيرة للقلق.

لا يوجد في أي مكان في التقارير العامة حول Project Convergence أي مناقشة حول العوامل البشرية في تصميم واجهات البرامج ، وما هو التدريب الذي يحصل عليه المستخدمون حول كيفية عمل أنظمة الاستهداف المعنية (وحول أوجه القصور في هذه الأنظمة) ، أو كيفية ضمان وجود سياق كافٍ للمشغلين و حان الوقت لاتخاذ القرارات. هذا يتفق مع مجلس ابتكار الدفاع (DIB) مبادئ الذكاء الاصطناعي، الذي تم نشره العام الماضي ، والذي يغفل أيضًا أي ذكر للعوامل البشرية ، أو واجهات الكمبيوتر ، أو كيفية التعامل مع احتمالية حدوث تحيز الأتمتة (ميل البشر إلى تفضيل الاقتراحات من أنظمة صنع القرار الآلية).

تتضمن مبادئ الذكاء الاصطناعي في DIB الموثوقية: `` يجب أن يكون لأنظمة DoD AI مجال استخدام واضح ومحدد جيدًا ، ويجب اختبار وتأمين سلامة وأمن وقوة هذه الأنظمة طوال دورة حياتها بالكامل ضمن مجال الاستخدام هذا. ". يتناقض هذا المبدأ مع النهج المتبع في Project Convergence ، والذي يستخدم "واجهة [واجهات] التوصيل والتشغيل للحصول على حجرة جديدة للعمل على الطائرة بدون طيار لأول مرة ، دون تكامل تقني شاق أو عمليات إعادة اعتماد للسلامة تستغرق وقتًا طويلاً"ونظام الشبكة"تحسن بشكل كبير من القدرة القتالية لألوية المناورة لدينا ، ولكن [...] لم يتم تعيينها في الميدان للقيام بالأشياء التي نقوم بها'.

قد لا تكون أنواع الأنظمة المرصوفة بالحصى المستخدمة كجزء من Project Convergence تمامًا ما يعتقده الكثير منا على أنه نظام أسلحة مستقل - فهناك استهداف آلي ، ولكن استخدام القوة منفصل عن تحديد الهدف ، وهناك صانع القرار البشري في الحلقة (على الرغم من أننا لسنا متأكدين من أن صانع القرار لديه دائمًا ما يكفي من الوقت والسياق).

ومع ذلك ، فإن هذه الأنظمة هي ، على الأقل ، خطوة مهمة على طول منحدر زلق نحو أسلحة مستقلة تمامًا. يسمي آرثر ميشيل هولاند هذه الأنواع من الأدوات "أنظمة التمكين المميتةويشير إلى أنه "في حالة عدم وجود معايير بشأن مثل هذه الأمور ، ناهيك عن بروتوكولات المساءلة الحسابية ، لا توجد طريقة جيدة لتقييم ما إذا كان القتل السيئ الذي تم تمكينه من خلال الخوارزميات ناتجًا عن ضعف البيانات أو الخطأ البشري أو فعل عدواني متعمد ضد مجموعة محمية. يمكن أن يضل الفاعل العسكري حسن النية بخوارزمية منحرفة ولا يعرفها ؛ ولكن بنفس السهولة ، قد يستخدم الممثل ذو الدوافع المظلمة الخوارزميات كحجاب مناسب لاتخاذ قرار خبيث متعمد ".

هذه الأنواع من المخاوف هي بالضبط سبب دعوة حملة وقف الروبوتات القاتلة إلى الاحتفاظ بسيطرة بشرية ذات مغزى على استخدام القوة كقوة. التزام عام، بدلاً من السعي إلى تنظيم أي تقنية محددة. الوقت الان. ناقش هذا المقال مشروع تقارب الولايات المتحدة كمثال مناسب (ومُبلغ عنه جيدًا) ، لكن العديد من القوى العسكرية الكبرى تستكشف الاستهداف القائم على الذكاء الاصطناعي وصناعة الأسلحة أنظمة بناء ذات مستويات متزايدة من الاستقلالية.

صورة من Biotest

الصورة: مفيد مجنون

هذا هو عام 2020. لقد شهدنا أسوأ وباء عالمي منذ مائة عام. نحن في أزمة مناخية وقد احترقت الغابات في جميع أنحاء العالم بمعدل قياسي. نحن نواجه تباطؤًا اقتصاديًا ، وانكشافًا لأزمات غذائية وأزمات غذائية قائمة منذ فترة طويلة. لكن مع كل أزمة ، شهدها عام 2020 طريقنا ، كان هناك أشخاص حول العالم صعدوا للعب دورهم من أجل الإنسانية. لذا ، في حين أن عام 2020 يمثل محاسبة قاتمة ، لا يزال بإمكاننا اختيار مستقبل لا يضيف `` شبكات قتل مدعومة بالذكاء الاصطناعي '' وأسلحة مستقلة إلى القائمة. التطورات التكنولوجية لا تتباطأ ولكن هناك وقت للعمل ، إذا تصرفنا بسرعة.

لمعرفة المزيد عن الروبوتات القاتلة وما يمكنك القيام به ، قم بزيارة: www.stopkillerrobots.org


المقال الأصلي في Medium.com.

لورا نولان

رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا