صورة بطل القائمة
مارتا كوزمينا ، قائدة وادي السليكون لحملة وقف الروبوتات القاتلة مع دايفد ريكهام ناشط الروبوت. الصورة: آري بيسر.

قوة السؤال في وادي السيليكون

مارتا كوسمينا هي قائدة وادي السيليكون لحملة وقف الروبوتات القاتلة. تقيم في سان فرانسيسكو ، الولايات المتحدة الأمريكية ، ومن خلال دورها ، تسعى إلى تنشيط قطاع التكنولوجيا ، والحصول على المشاركة السياسية ، ودعم الحلفاء التقنيين لتقديم خبراتهم إلى الأمم المتحدة.

مارتا كوزمينا ، قائدة وادي السليكون لحملة وقف الروبوتات القاتلة مع دايفد ريكهام ناشط الروبوت. الصورة: آري بيسر.

طرح سؤال يمكن أن يشعل الحركة. كل ما يتطلبه الأمر iليقوم شخص واحد بالوقوف والتشكيك في الوضع الراهن والتفكير بشكل نقدي في الوضع الحالي. لقد رأينا هذا العام الماضي مع Project Maven ، وأراه كل يوم في عملي كرئيس Silicon Valley لحملة Stop Killer Robots. بعيد جدا، الآلاف من العاملين في مجال التكنولوجيا تعهدوا بضمان أن عملهم لن يساهم أبدًا في أسلحة ذاتية التشغيل بالكامل ، و أكثر من شركات 200 دعم معاهدة لضمان عدم استخدام هذه الأسلحة مطلقًا.

عندما يتعلق الأمر باستخدام الذكاء الاصطناعي في الحرب ، فإن مناقشة الأخلاق الشرطية ليست كافية. في حين أن المبادئ التوجيهية والمبادئ والتنظيم الذاتي هي خطوة أولى رائعة ، فمن الواضح أنه من أجل كبح التهديد الذي تتعرض له البشرية من خلال الأسلحة ذاتية التحكم - "الروبوتات القاتلة" - هناك حاجة إلى تشريع عاجل. تحث الحملة الحكومات على التفاوض بشأن قانون دولي جديد يحتفظ بالسيطرة البشرية الهادفة على استخدام القوة.

في كل عام ، توثق حملتنا المعارضة المتزايدة من صناعة التكنولوجيا لتطوير واستخدام أسلحة مستقلة تمامًا. يتفهم حلفاؤنا التقنيون حدود هذه التكنولوجيا ، وقد عملوا على سد الفجوة بين التكنولوجيا والسياسة.

لقد رأينا بالفعل العواقب غير المقصودة للتكنولوجيات الناشئة. إذا كان العاملون في مجال التكنولوجيا قلقين بشأن استخدام عملهم في الروبوتات القاتلة ، فمن المهم أن تظل يقظًا ، وأن تضع في اعتبارك الاستخدام النهائي للتكنولوجيا التي يطورونها ، وأن تشكك في الشراكات والعملاء والمستثمرين المشاركين في المشاريع عالية المخاطر. في المرة القادمة التي يتولى فيها أحد قادة الصناعة أو التنفيذيين في الشركة أو صانع السياسات ، اسألهم مباشرةً عن الأسلحة ذاتية التحكم تمامًا. من المهم تسجيلهم في السجلات حتى يمكن محاسبتهم ، ولضمان توافق بيانهم مع القيم والرسالة والرؤية التي يدعون لتمثيلها.

قوة السؤال في Sillicon Valley Sidewalk Graffitti

أحد الأمثلة على استنسل الطباشير بواسطة الحملة في نيويورك بالقرب من مكاتب أمازون ومايكروسوفت وبالانتير وكلارافاي. الصورة: كلير كونبوي.

استحوذت حملة Stop Killer Robots على المسرح في العديد من المؤتمرات التقنية والأحداث المتعلقة بالأخلاقيات هذا العام لإثارة ناقوس الخطر بشأن التهديد الذي تشكله الأسلحة ذاتية التحكم. فقط هذا العام ، قدم نشطاء حملتنا في تقنية فيفا في فرنسا، صحيح الشمالية في كندا، ديفكون في الولايات المتحدة ، و Inteligencia Artificial y Ética: El Desafío de las Armas Autónomas Letalesin في الأرجنتين ، من بين العديد من الأحداث الأخرى في جميع أنحاء العالم.

نشجعك دائمًا على أن تطرح علينا أصعب أسئلتك ، ولكن بعض الأسئلة التي نسمعها غالبًا تتم الإجابة عليها أدناه:

سيحتاج المسؤولون الحكوميون ، بما في ذلك المفاوضون بشأن المعاهدة ، إلى مدخلات من الخبراء التقنيين لضمان أن المعاهدة التي تحظر الروبوتات القاتلة لا تخنق الابتكار ، وتضمن بدلاً من ذلك استمرار البحث والتطوير في مجال الذكاء الاصطناعي دون عوائق. لم يجد علماء الأحياء أن اتفاقية الأسلحة البيولوجية أضرت بأبحاثهم وتطوراتهم ، ولا يشتكي الكيميائيون من أن اتفاقية الأسلحة الكيميائية أثرت سلبًا على عملهم. في الواقع ، إذا سُمح بتطوير التكنولوجيا اللازمة لتطوير أسلحة مستقلة بالكامل دون تنظيم ، يخشى العديد من خبراء الذكاء الاصطناعي وعلماء الروبوتات والعاملين في مجال التكنولوجيا من أن التطبيقات الإيجابية للذكاء الاصطناعي ستعاني. ستتلقى أي أعطال أو أخطاء أو جرائم حرب ترتكبها أنظمة أسلحة مستقلة تمامًا دعاية سلبية ، مما يؤدي إلى تراجع الجمهور عن الاتجاه نحو تطوير الذكاء الاصطناعي والتقنيات الناشئة الأخرى.

 

قوة السؤال في Sillicon Valley Sidewalk Graffitti 2

أحد الأمثلة على استنسل الطباشير بواسطة الحملة في نيويورك بالقرب من مكاتب أمازون ومايكروسوفت وبالانتير وكلارافاي. الصورة: كلير كونبوي.

نحن تحالف ذو قضية واحدة يركز على تأمين معاهدة لحظر الأسلحة ذاتية التشغيل بالكامل والاحتفاظ بالسيطرة البشرية الهادفة على استخدام القوة. غالبًا ما يتساءل أعضاؤنا عن مشاريع عسكرية محددة يمكن أن تمهد الطريق نحو أسلحة مستقلة تمامًا ، لكننا لا نطلب أو ندعو الشركات إلى عدم العمل مع الجيوش أو الحكومات. ننصح التقنيين بالنظر في الشراكات والعملاء والمستثمرين الذين يعملون معهم ، والتفكير بشكل نقدي في النتائج المترتبة على أي علاقات تجارية عالية المخاطر يدخلون فيها.

 

 

حملتنا ليست ضد التكنولوجيا. لا تعارض التطبيقات العسكرية أو الشرطية للذكاء الاصطناعي والتقنيات الناشئة بشكل عام. نحن نعارض الاستقلالية في الوظائف الحاسمة لاختيار الأهداف وإشراكها ، في جميع الظروف. كمبادرة محورها الإنسان ، نعتقد أن معاهدة دولية جديدة تحظر الروبوتات القاتلة ستجلب العديد من الفوائد للبشرية. سيساعد القانون الجديد في توضيح دور صنع القرار البشري فيما يتعلق بالأسلحة واستخدام القوة في الحرب والشرطة وغيرها من الظروف.

يفوق التطور الحالي للذكاء الاصطناعي والتقنيات الناشئة قدرة صانعي السياسات على التنظيم ، وينظر ذلك بوضوح في حالة الأسلحة ذاتية التشغيل بالكامل. يجب على شركات التكنولوجيا والعاملين فيها الالتزام بعدم المساهمة في تطوير أسلحة ذاتية التشغيل بالكامل. العديد من التقنيات قيد التطوير "ذات استخدام مزدوج" ، مما يعني أنه يمكن استخدامها في سيناريوهات مختلفة - مدنية ، وعسكرية ، وشرطية ، وما إلى ذلك. لذلك ، من الأهمية بمكان أن يظل قطاع التكنولوجيا يقظًا وأن يفكر دائمًا في الاستخدام النهائي المتوقع.

الأسلحة ليست مصممة لإنقاذ الأرواح ، بل إنها مصممة لتودي بحياة الناس. الأسلحة المستقلة بالكامل لا يمكن التنبؤ بها. من خلال التفاعل مع بيئتهم بطرق غير متوقعة ، يمكن أن يتسببوا في قتل الأشقاء أو إلحاق الأذى بالقوات الصديقة. يمكن تحقيق دقة محسّنة دون إزالة السيطرة البشرية الهادفة من الهجمات الفردية. تسعى الحملة إلى حظر التطوير والتطبيق المحدد لتقنيات معينة ، وتقنين القيود المفروضة على الاستخدام المقصود ، وضمان المساءلة بموجب القانون الدولي. لا يوجد ضحايا للروبوتات القاتلة حتى الآن ، ونريد أن نبقيها على هذا النحو.

منذ عام 2014 ، شاركت أكثر من 90 دولة في المحادثات الدبلوماسية حول أنظمة الأسلحة الفتاكة ذاتية التشغيل في الأمم المتحدة ، وترى غالبية تلك الدول الآن الحاجة إلى معاهدة جديدة لحظر أو تقييد مثل هذه الأسلحة. تعارض حفنة من القوى العسكرية ، لا سيما روسيا والولايات المتحدة ، أي جهد لتنظيم أنظمة الأسلحة هذه. هذه المحادثات هي تمرين في بناء المعرفة والشفافية ، ولكن يجب أن تؤدي إلى مفاوضات حول معاهدة جديدة. هذا هو الرد الوحيد متعدد الأطراف القادر على مواجهة التهديد الذي تشكله الأسلحة ذاتية التشغيل على البشرية. تمت كتابة قوانين الحرب الحالية للبشر وليس للآلات ، ويجب تعزيزها لضمان المساءلة وإثبات المستقبل ضد التطورات التكنولوجية الأخرى. ستؤسس معاهدة جديدة معيارًا قويًا يوصم إزالة السيطرة البشرية ذات المعنى من استخدام القوة. هذا من شأنه أن يدفع إلى الامتثال حتى من قبل البلدان والجهات الفاعلة التي لم توقع في البداية.

www.stopkillerrobots.org الصورة: آري بيسر. الجرافيك: كلير كونبوي

إذا كانت هذه المقالة تلقى صدى معك كعامل تقني ، فراجع حملة لإيقاف موارد الروبوتات القاتلة للعاملين في مجال التكنولوجيا: www.stopkillerrobots.org/tech أو انضم إلى المحادثة باستخدام #TechAgainstKillerRobots


تم نشر المقالة الأصلية في Medium.com.

مارتا كوزمينا

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا