صورة بطل القائمة

عمال التكنولوجيا والروبوتات القاتلة

لم نتوقع أن تكون هناك حاجة إلى حملة لإيقاف الروبوتات القاتلة في العالم - لكنها كذلك.

انسَ ما شاهدته في الأفلام - تسعى الجيوش في جميع أنحاء العالم إلى تحقيق تقدم سريع في رؤية الكمبيوتر والتعلم الآلي وقوة الحوسبة والروبوتات والذكاء الاصطناعي لأتمتة قرارات القتل. يتطلب الاستخدام المزدوج المتأصل لمعظم هذه التقنيات والاستثمارات الضخمة في هذا المجال قانونًا دوليًا جديدًا لمعالجة الاستقلالية في أنظمة الأسلحة ولضمان التحكم البشري الهادف في استخدام القوة.

تسعى Stop Killer Robots بنشاط إلى الاستعانة بالعاملين في مجال التكنولوجيا والشركات كحلفاء لتحقيق هدفنا المشترك المتمثل في معاهدة جديدة لتنظيم الاستقلالية في أنظمة الأسلحة. سيلعب القطاع الخاص دورًا رئيسيًا في منع تطوير هذه الأسلحة.

 

 

نص بديل للصورة

شارك الآلاف من خبراء الذكاء الاصطناعي وعلماء الروبوتات والعلماء والمهنيين ذوي الصلة في التوقيع على العديد من الرسائل المفتوحة منذ عام 2015 للدعوة إلى معاهدة بشأن الأسلحة المستقلة.

يضغط العاملون في مجال التكنولوجيا في الشركات العالمية مثل Google و Microsoft و Amazon على أبحاثهم ومنتجاتهم ومنصاتهم التي يتم تكييفها للاستخدام في الحرب. تعمل شركات الروبوتات مثل Clearpath Robotics على حظر الروبوتات القاتلة.

أيد Elon Musk من Tesla و Demis Hasabis من Google و Steve Wozniak من Apple حظرًا على الأسلحة المستقلة. وقارن آخرون التطورات في الذكاء الاصطناعي بالأسلحة النووية ، لكن حتى الآن ، دعوا فقط إلى تنظيم ضعيف لن يعالج الآثار القانونية والأخلاقية للحكم الذاتي في الأسلحة.

الأسئلة المتداولة

إن المعاهدة التي تتناول الاستقلالية في أنظمة الأسلحة لن تخنق الابتكار ، بل ستساعد في ضمان استمرار البحث والتطوير في مجال الذكاء الاصطناعي دون عوائق. لم يجد علماء الأحياء أن اتفاقية الأسلحة البيولوجية قد أضرت بأبحاثهم وتطوراتهم ، ولا يشتكي الكيميائيون من أن اتفاقية الأسلحة الكيميائية أثرت سلبًا على عملهم.

في الواقع ، إذا سُمح لتكنولوجيا بناء أسلحة مستقلة بالتطوير دون تنظيم ، فإن العديد من خبراء الذكاء الاصطناعي وعلماء الروبوتات والعاملين في مجال التكنولوجيا يخشون من أن التطبيقات الإيجابية للذكاء الاصطناعي ستعاني. ستتلقى أي أعطال أو أخطاء أو جرائم حرب ترتكبها أنظمة الأسلحة المستقلة دعاية سلبية ، مما يؤدي إلى تراجع الرأي العام عن الاتجاه نحو تطوير الذكاء الاصطناعي والتقنيات الناشئة الأخرى.

Stop Killer Robots هو تحالف من قضية واحدة يركز على تأمين معاهدة لضمان سيطرة بشرية ذات مغزى على استخدام القوة وحظر استهداف الأشخاص بأسلحة مستقلة. غالبًا ما يشكك تحالفنا من المنظمات غير الحكومية في مشاريع عسكرية محددة يمكن أن تمهد الطريق لأنظمة أسلحة ذات مستويات تتعلق بالاستقلالية ، لكنها لا تطلب أو تدعو الشركات إلى عدم العمل مع جيوش أو حكومات معينة.

ننصح التقنيين بالنظر في الشراكات والعملاء والمستثمرين الذين يعملون معهم ، والتفكير بشكل نقدي في النتائج المترتبة على أي علاقات تجارية عالية المخاطر يدخلون فيها.

برنامج Stop Killer Robots ليس مضادًا للتكنولوجيا. نحن لا نعارض التطبيقات العسكرية أو الشرطية للذكاء الاصطناعي والتقنيات الناشئة بشكل عام. بصفتنا حملة تتمحور حول الإنسان ، نعتقد أن معاهدة دولية جديدة لتنظيم الأسلحة المستقلة ستحقق العديد من الفوائد للبشرية. ستساعد القوانين الجديدة في توضيح دور صنع القرار البشري فيما يتعلق بالأسلحة واستخدام القوة في الحرب والشرطة وغيرها من الظروف.

يفوق التطور الحالي للذكاء الاصطناعي والتقنيات الناشئة قدرة صانعي السياسات على التنظيم. يجب على شركات التكنولوجيا والعاملين فيها الالتزام بعدم المساهمة في تطوير أسلحة مستقلة تستهدف الأشخاص ولا يمكنها أو لا تستطيع أن تعمل تحت سيطرة بشرية ذات مغزى.

العديد من التقنيات قيد التطوير "ذات استخدام مزدوج" ، مما يعني أنه يمكن استخدامها في سيناريوهات مختلفة (مدنية ، عسكرية ، شرطة ، إلخ). لذلك ، من الأهمية بمكان أن يظل قطاع التكنولوجيا يقظًا وأن يفكر دائمًا في الاستخدام النهائي المتوقع أو غير المتوقع.

ما الذي يمكن أن يفعله قطاع التكنولوجيا؟

الشركات:

  • الموافقة علنًا على الدعوة إلى ضمان سيطرة بشرية ذات مغزى على استخدام القوة وتنظيم الاستقلالية في أنظمة الأسلحة.
  • تقديم التزام عام بعدم المساهمة في تطوير أسلحة مستقلة.
  • دمج هذا الموقف في المبادئ الحالية ووثائق السياسة والعقود القانونية مثل سياسات الاستخدام أو شروط الخدمة المقبولة.
  • تأكد من أن الموظفين على دراية جيدة بكيفية استخدام عملهم ، وقم بإنشاء عمليات داخلية لتشجيع المناقشات المفتوحة حول أي مخاوف دون الخوف من الانتقام.

الأفراد:

  • ادعم الدعوة إلى ضمان سيطرة بشرية هادفة على استخدام القوة وتنظيم الاستقلالية في أنظمة الأسلحة.
  • اجعل شركتك وصناعتك وأقرانك مسؤولين عن الأبحاث التي يجرونها والعملاء الذين يعملون معهم.
  • إجراء تقييمات المخاطر بشكل منهجي لتقييم الاستخدامات أو العواقب أو المخاطر غير المقصودة المرتبطة بالتكنولوجيا التي تطورها.
  • انضم إلى اللجنة الدولية للحد من أسلحة الروبوت ، أحد مؤسسي حملتنا في www.icrac.net 
نص بديل للصورة

إنضمي إلى مجتمع رمالي

مع النشطاء العاملين في جميع أنحاء العالم ، أنت لست وحدك. يمكننا تزويدك بالاتصالات والموارد اللازمة لإجراء تغيير ذي مغزى - سواء كان ذلك داخل مؤسستك أو مجتمعك أو ولايتك أو على المستوى الوطني والدولي. مستوى مشاركتك متروك لك تمامًا - كل مساهمة تساعدك.

10 طرق لعمال التكنولوجيا للمشاركة

قابل بعضًا من أبطال قطاع التكنولوجيا لدينا

ليز أوسوليفان

ليز أوسوليفان

ليز أوسوليفان هي عضو في المجلس الاستشاري المجتمعي لمشروع مراقبة تكنولوجيا المراقبة (STOP) ، وشغلت سابقًا منصب مدير التكنولوجيا الأول في STOP. تشغل ليز حاليًا منصب الرئيس التنفيذي لشركة Parity الجديدة لإنصاف الخوارزميات ، وكانت سابقًا أحد مؤسسي شركة Arthur ، وهي شركة مراقبة نماذج الذكاء الاصطناعي.

لقد أمضت 10 سنوات في مجال التكنولوجيا ، وخاصة في مجال الذكاء الاصطناعي ، ولا سيما كرئيسة التعليقات التوضيحية للصور لشركة رؤية الكمبيوتر الناشئة ، Clarifai ، حيث بدأت في التحدث علنًا ضد احتمال إساءة استخدام التكنولوجيا للأخلاق. تحدثت ليز علنًا عن الأضرار التي لا تعد ولا تحصى التي يمكن أن تحدث داخل خط أنابيب الذكاء الاصطناعي ، وتدافع عن حملة Stop Killer Robots في الأمم المتحدة.

 

 

لورا نولان

لورا نولان

تعمل لورا نولان مهندسة برمجيات في الصناعة لأكثر من 15 عامًا. كانت واحدة من الموقعين (الكثيرين) على خطاب "إلغاء مافن" المفتوح ، الذي دعا Google إلى إلغاء مشاركتها في مشروع وزارة الدفاع الأمريكية لاستخدام تقنية الذكاء الاصطناعي لتحليل لقطات المراقبة بطائرات بدون طيار. قامت بحملة داخل Google ضد Project Maven ، قبل مغادرة الشركة احتجاجًا على ذلك. في عام 2018 ، أسست لورا أيضًا TechWontBuildIt Dublin ، وهي منظمة للعاملين في مجال التكنولوجيا المهتمين بالآثار الأخلاقية لصناعتنا والعمل الذي نقوم به.

حصلت لورا على درجة الماجستير في هندسة البرمجيات المتقدمة من الكلية الجامعية وشهادة البكالوريوس (Mod) في علوم الكمبيوتر من كلية ترينيتي في دبلن ، حيث تم انتخابها باحثة في الثالوث.

نويل شاركي

نويل شاركي

نويل شاركي دكتوراه ، DSc FIET ، FBCS ، CITP ، FRIN هو أستاذ فخري في الروبوتات والذكاء الاصطناعي ، جامعة شيفيلد ، المملكة المتحدة. كانت وظائفه الجامعية السابقة في مختبرات ييل للذكاء الاصطناعي ، وقسم علم النفس في ستانفورد ، ولغة إسكس واللغويات ، وعلوم الكمبيوتر في إكستر. وهو مهندس كهربائي معتمد وعضو في جمعية علم النفس التجريبي ونقابة الممثلين.

يرأس نويل اللجنة الدولية للتحكم في أسلحة الروبوتات ، ومدير مؤسسة الروبوتات المسؤولة وعضو لجنة توجيه حملة وقف الروبوتات القاتلة. وهو يكتب في National Newspapers وهو معروف للجمهور من خلال برامج BBC التلفزيونية الشهيرة مثل Robot Wars.

الصورة: مؤسسة هاينريش بول

معاهدة شاملة ممكنة

تشارك أكثر من 80 دولة ، بما في ذلك إسرائيل والصين وروسيا وكوريا الجنوبية والمملكة المتحدة والولايات المتحدة ، بنشاط في محادثات الأمم المتحدة حول كيفية التعامل مع المخاوف التي تثيرها أنظمة الأسلحة المستقلة. بعد سنوات من النقاش ، هناك حاجة إلى ضغوط إضافية من صناعة التكنولوجيا لبدء مفاوضات رسمية بشأن معاهدة دولية لمعالجة الاستقلالية في أنظمة الأسلحة وضمان سيطرة بشرية ذات مغزى على استخدام القوة.

يحتاج صانعو السياسات إلى أذكى العقول والباحثين في العالم في طليعة اختراقات الذكاء الاصطناعي لمنع الضرر الناجم عن استخدام الذكاء الاصطناعي في الحرب والشرطة.

قم بتأييد الدعوة لوقف الروبوتات القاتلة.

اتخاذ موقف.

 

وقّع على الخطاب المفتوح

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا