صورة بطل القائمة
يُظهر الرسم البلدان التي لديها أقوى معارضة للروبوتات القاتلة.

RightsCon: منع نزع الإنسانية الرقمية

في 10 يونيو ، عقدت حملة "أوقفوا الروبوتات القاتلة" جلسة نقاش بعنوان "منع التجريد الرقمي من الإنسانية" كجزء من حدث RightsCon السنوي لـ Access Now. احتفالاً بالذكرى العاشرة لتأسيسها ، استمر برنامج RightsCon في الفترة من 10 يونيو إلى 7 يونيو 11 وعقد تقريبًا للعام الثاني. جمع المؤتمر الأفراد وأصحاب المصلحة والنشطاء من جميع أنحاء العالم لمناقشة القضايا الرئيسية في مجال التكنولوجيا وحقوق الإنسان. هذه هي المرة الثانية التي تشارك فيها الحملة في RightsCon.

كانت الجلسة التي استمرت ساعة يعيش التغريد وركزت على استكشاف كيف يمكن للتقنيات الناشئة ، مثل الآلات ذات القدرات الآلية أو المستقلة لصنع القرار ، إعادة إنتاج أو تفاقم الأضرار الاجتماعية وعدم المساواة والقمع. وضمت الفعالية لوسي سوشمان ، الأستاذة الفخرية في أنثروبولوجيا العلوم والتكنولوجيا في جامعة لانكستر. الدكتورة سارة شوكر ، زميلة ما بعد الدكتوراه في جامعة واترلو ومؤسسة Glassbox ؛ لورا نولان ، مهندسة برمجيات وعضو اللجنة الدولية لمراقبة أسلحة الروبوت (ICRAC) ؛ و Mutale Nkonde Nkonde ، المدير التنفيذي لمنظمة العفو الدولية من أجل الناس. أدارت مديرة التوعية بالحملة ، إيزابيل جونز ، أكثر من 85 مشاركًا في الحضور.

افتتحت الجلسة بمناقشة حول ما يعنيه نزع الصفة الرقمية عن الإنسانية ، كما هو موضح سابقًا في a بلوق وظيفة بواسطة نولان. تم وصف التجريد الرقمي من الإنسانية كظاهرة حيث يؤدي الاعتماد على برامج الآلات والأنظمة للتحليل والتقييم واتخاذ القرارات بشأن البشر إلى تقليل الشخص إلى "شيء يتم التصرف بناءً عليه [باعتباره] كائنًا ، وليس شخصًا يتمتع بحقوق الإنسان و وكالة." سلط نكوندي الضوء على التمييز العنصري كأحد جوانب نزع الإنسانية الرقمية. إن استخدام مجموعات بيانات التدريب المتحيزة للأنظمة يفسح المجال لنفس هياكل "العنصرية القديمة باستخدام آلات جديدة" التي تستمر في تغذية العنف المتزايد ضد الأجسام السوداء وتؤدي إلى مزيد من عدم المساواة.

قد يكون لمثل هذه الأنظمة - من ضبط الأمن التنبئي إلى التقييم الاجتماعي - نوايا حسنة ، لكنها يمكن أن تؤدي في الواقع إلى آثار ضارة مع استمرارها في إدامة دورات القمع والعنف. وأشار المتحدثون إلى الكلب الآلي نشر في مدينة نيويورك أو bugsplat برنامج كأمثلة على كيفية نشر هذه التقنيات بالفعل. ذهب مثلثمان للحديث عن "التعلم" الذي يدخل في تطوير ما هو أساسًا أنظمة الاستهداف. إن آلات التدريب على التفريق بين مجموعات البيانات الخاصة بالتفاح والبرتقال ، أو الكلاب والقطط ، تختلف عن تدريب النظام على التمييز بين المدنيين والمقاتلين الذين يمتلكون هويات بشرية وعلاقات مختلفة. بدلاً من ذلك ، ما نحصل عليه هو "صورة نمطية فج للغاية ... ثم الادعاء بأن ذلك يتيح استهدافًا أكثر دقة ودقة."  

أبرز Shoker أيضًا عند "استخدام أي نوع من برامج التعلم الآلي ، فأنت في الأساس تقوم بمراجعة الحياة البشرية ، واختيار سمات معينة لغرض التدخل البشري". مع غموض التعلم الآلي ، يثير هذا مخاوف جدية من أن الهويات المنسوبة إلينا تقلل في النهاية من الفاعلية البشرية وتنتهك الحقوق. يعتمد شوكر على مثال استخدام الافتراضات الأبوية والجندرية في الاستهداف لتحديد الذكور في سن الخدمة العسكرية ، والتي غالبًا ما تجعل الأولاد الذين تقل أعمارهم عن 15 عامًا يوضعون في فئة المقاتلين.

اختُتمت الجلسة بأفكار من كل عضو في فريق المناقشة حول ما يمكننا القيام به لاتخاذ إجراءات ودفع التغييرات في السياسة لمنع حدوث أضرار في المستقبل. تضمنت الانعكاسات دعوة لتحسين التنظيم على البيانات من خلال عمليات المراجعة وتقييمات تأثير حقوق الإنسان ، والتوجيه للامتثال ، وإعادة تصور السرديات الحالية لتغيير السياسات ، وإزالة الغموض عن التكنولوجيا ، والعمل الجماعي.

ايزابيل

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا