صورة بطل القائمة

الشباب والروبوتات القاتلة

عندما يجتمع الشباب ، يمكننا أن نجعل العالم يستمع.

قد تبدو الروبوتات القاتلة مثل الخيال العلمي ، لكنها للأسف هي الخطوة الكبيرة التالية في نزع الإنسانية عن الإنسانية. في ترسيخ التحيزات وعدم المساواة من الأجيال السابقة. لكن يمكن منعها.

ما لم نتحرك ، سيتعين على الأجيال القادمة أن تتعايش مع عواقب القرارات التي يتم اتخاذها الآن - تطوير تقنيات جديدة مع التحيز الخوارزمي ، وتغير المناخ ، والصراعات غير العادلة ، والظلم الاجتماعي والسياسي والاضطرابات ... العالم الذي نعيش فيه يستطيع تكون معقدة ولكن غالبًا ما تكون لدينا قوة أكبر للتأثير في الأحداث أكثر مما نعتقد.

 

نص بديل للصورة

هناك العديد من القضايا العالمية والاجتماعية التي سيتعين علينا مواجهتها في حياتنا.

لا ينبغي للقادة السياسيين أن يستثمروا في الأسلحة المستقلة الآن ، عندما يتعين على الشباب مواجهة واقع ونتائج قراراتهم في المستقبل. تمامًا كما هو الحال مع تغير المناخ ، من خلال وقف تطوير الروبوتات القاتلة لدينا الفرصة لجلب أمل جديد ؛ أن نكون عوامل تغيير ذات نفوذ ونفوذ.

لقد نشأنا في عصر رقمي ونحن المستقبل. المبرمجون والمبرمجون والمهندسون والجنود والدبلوماسيون والسياسيون والناشطون والمنظمون والمبدعون الذين سيتعين عليهم التعامل مع حقائق الروبوتات القاتلة.

لدينا القدرة على تشكيل مستقبل التكنولوجيا والصناعة والسياسة. للاستثمار في مجتمعاتنا والإنسانية على نطاق أوسع. كل واحد منا لديه الفرصة لنقل رسالة مفادها أن القتل لا ينبغي تفويضه للآلات ، وأن كل حياة بشرية لها قيمة.


 

الأسئلة المتداولة

هناك مشاكل أخلاقية ومعنوية وتقنية وقانونية وأمنية مع الأسلحة المستقلة. تفتقر الآلات إلى الخصائص البشرية بطبيعتها مثل التعاطف الضروري لاتخاذ خيارات أخلاقية معقدة. التكنولوجيا ليست مثالية ، وليست محايدة ، وستكون الروبوتات القاتلة عرضة للإخفاقات التقنية مثل القرصنة. في حالة وقوع خطأ أو فعل غير مشروع ، من يتحمل المسؤولية؟ المبرمج أم الصانع أم القائد العسكري أم الآلة نفسها؟ فجوة المساءلة ستجعل من الصعب ضمان العدالة ، وخاصة للضحايا. ستتغير طبيعة الحرب بشكل جذري حيث أن إرسال الآلات بدلاً من القوات سيزيل معظم عقبات صراعات اليوم. يمكن أيضًا استخدام الأسلحة المستقلة في ظروف أخرى ، مثل مراقبة الحدود والشرطة. كما يمكن استخدامها لقمع الاحتجاجات ودعم الأنظمة.

إذا تم استخدام الأسلحة المستقلة بالكامل ، فستغير بشكل أساسي طبيعة كيفية خوض الحروب. ستؤدي إلى مزيد من الحرب غير المتكافئة ، وزعزعة استقرار السلم والأمن الدوليين من خلال إطلاق شرارة سباق تسلح جديد. كما أنها ستزيد من عبء الصراع على عاتق المدنيين. لكن مخاطر الروبوتات القاتلة لا تهدد فقط الأشخاص في الصراع. يمكن أن يكون لاستخدام هذه الأسلحة في مجتمعاتنا على نطاق أوسع عواقب وخيمة. فكر في الاحتجاجات المستقبلية ومراقبة الحدود والشرطة والمراقبة. أو حتى حول أنواع التقنيات الأخرى التي نستخدمها. ماذا سيقول عن مجتمعنا - وما هو تأثيره على الكفاح من أجل التكنولوجيا الأخلاقية - إذا سمحنا للآلات باتخاذ قرارات الحياة والموت النهائية؟ حقًا ، ظهور وعواقب الأسلحة المستقلة سيؤثر علينا جميعًا.

يقول بعض الناس أن الروبوتات القاتلة ستكون أكثر دقة - فهي ستكون أسرع وأكثر كفاءة من البشر ، ويمكن أن تذهب إلى الأماكن التي يصعب على الجنود العمل فيها ، ويمكن أن تكون أكثر دقة في الاستهداف ، وتنقذ الأرواح من خلال تقليل "الأحذية على الأرض "، والعمل كرادع. لكن قيلت أشياء مماثلة عن الألغام الأرضية والذخائر العنقودية والأسلحة النووية - أسلحة عشوائية قتلت وجرحت مئات الآلاف من الأشخاص قبل حظرها ، والحقيقة هي أن الروبوتات القاتلة ستفتقر إلى التعاطف والحكم البشري. سوف يخفضون من عتبة العنف والصراع ، ويكونون أدوات للاضطهاد. هذا احتمال مخيف ، ويجب أن نتأكد من عدم تحوله إلى حقيقة منتشرة. يمكن تحقيق الدقة دون إزالة السيطرة البشرية الهادفة من استخدام القوة. تهديدات ومخاطر الروبوتات القاتلة تفوق بكثير أي مزايا محتملة.

يستمر الزخم في جميع أنحاء العالم في البناء وراء الدعوة إلى فرض قيود على الاستقلالية في أنظمة الأسلحة من خلال معاهدة دولية جديدة. تعتبر الروبوتات القاتلة تهديدًا كبيرًا للبشرية يتطلب استجابة سريعة وقوية متعددة الأطراف.

أكثر من 185 منظمة غير حكومية تدعم الحركة لوقف الروبوتات القاتلة. ويشارك خبراء تقنيون وزعماء عالميون ومؤسسات دولية وهيئات برلمانية وأبطال سياسيون دعواتنا إلى المعاهدة. اعترفت قرابة 100 دولة بأهمية السيطرة البشرية على استخدام القوة. تعهدت المئات من شركات التكنولوجيا بعدم المشاركة أو دعم تطوير أو إنتاج أو استخدام أنظمة الأسلحة المستقلة. حذر الآلاف من خبراء الذكاء الاصطناعي والروبوتات من هذه الأسلحة ودعوا الأمم المتحدة إلى اتخاذ إجراءات. هناك أيضا قلق عام واضح. في استطلاعات IPSOS التي تم إصدارها في 2019 و 2020 ، صرح أكثر من ثلاثة من كل خمسة أشخاص بمعارضتهم لتطوير أنظمة أسلحة من شأنها تحديد الأهداف ومهاجمتها دون تدخل بشري.

وصف الأمين العام للأمم المتحدة ، غوتيريش ، الأسلحة المستقلة بأنها "بغيضة أخلاقياً وغير مقبولة سياسياً" ، وأصدر عدة بيانات منذ عام 2018 حث فيها الدول على التفاوض بشأن معاهدة. وقالت اللجنة الدولية للصليب الأحمر إن هناك حاجة إلى قانون جديد لمعالجة الحكم الذاتي في الأسلحة ودعت إلى معاهدة تجمع بين المحظورات واللوائح. أيد البرلمان الأوروبي ومقررو مجلس حقوق الإنسان و 26 من الحائزين على جائزة نوبل للسلام وحتى أباطرة التكنولوجيا مثل إيلون ماسك من تسلا وديميس حسابيس من جوجل وستيف وزنياك من شركة آبل دعوات لحظر الأسلحة المستقلة.

هناك مخاوف من أن شركات التكنولوجيا ، خاصة تلك التي تعمل بموجب عقود عسكرية ، ليس لديها سياسات للتأكد من أن عملها لا يساهم في تطوير أسلحة مستقلة. وجد تقرير صدر عام 2019 من PAX أن Microsoft و Amazon قد تم تصنيفهما من بين شركات التكنولوجيا الأكثر خطورة في العالم والتي قد تعرض العالم للخطر من خلال تطوير الروبوتات القاتل. في عام 2018 ، احتج الآلاف من الموظفين على عقد Google مع البنتاغون في مبادرة تسمى Project Maven. أدى إجراء العامل التقني إلى عدم قيام Google بتجديد Project Maven وإصدار مجموعة من المبادئ لتوجيه عملها فيما يتعلق بالذكاء الاصطناعي. في هذه المبادئ الأخلاقية للذكاء الاصطناعي ، تلتزم Google بعدم "تصميم أو نشر ذكاء اصطناعي لاستخدامه في الأسلحة".

يجب استخدام التكنولوجيا لجعل العالم مكانًا أفضل ، ويجب على شركات التكنولوجيا مثل Amazon و Google و Microsoft و Facebook وغيرها الالتزام علنًا بعدم المساهمة في تطوير أسلحة مستقلة. يعرف عمال التكنولوجيا وعلماء الروبوتات والمهندسون والباحثون هذا - ولهذا السبب وقع الآلاف منهم على خطابات مفتوحة وتعهدات تدعو إلى قانون دولي جديد لمعالجة الاستقلالية في الأسلحة وضمان سيطرة بشرية ذات مغزى على استخدام القوة.

انه ممكن. العديد من الجامعات لديها مؤسسات بحثية تعمل على الذكاء الاصطناعي والتعلم الآلي. إذا كنت تريد أن تكون متأكدًا ، يمكنك التحقق مما إذا كانت جامعتك لديها موقف أخلاقي أو بيان واضح لموقفها من الروبوتات القاتلة. أو إذا كان لديهم عقود مع وزارات الدفاع أو الشركات الخاصة التي تعاقدت معهم لتطوير تقنيات معينة. من الأهمية بمكان أن تكون الجامعات على دراية بكيفية استخدام التكنولوجيا التي تطورها في المستقبل. يحذر تقرير PAX بعنوان "Conflicted Intelligence" من مخاطر أبحاث وشراكات الذكاء الاصطناعي في الجامعات ، ويوضح كيف يمكن للجامعات المساعدة في منع تطوير أسلحة مستقلة.

إذا كان يبدو أن جامعتك تطور تقنيات تتعلق بالروبوتات القاتلة ، فلا داعي للذعر! هناك طريقة للعمل. في عام 2018 ، أعلن المعهد الكوري المتقدم للعلوم والتكنولوجيا (KAIST) عن تعاونه مع شركة إنتاج الأسلحة Hanwha Systems. كان الهدف هو "المشاركة في تطوير تقنيات ذكاء اصطناعي لتطبيقها على الأسلحة العسكرية ، والانضمام إلى المنافسة العالمية لتطوير أسلحة مستقلة". أدى الإعلان إلى مقاطعة الأساتذة والطلاب في جميع أنحاء العالم ، مما دفع الجامعة في النهاية إلى تقديم تطمينات علنية بأنها لن تطور روبوتات قاتلة. نفذت سياسة تنص على أن "الذكاء الاصطناعي في أي حدث لا ينبغي أن يؤذي الناس". الأمل يأتي من العمل. لمزيد من الأفكار حول كيفية منع جامعتك من تطوير أسلحة مستقلة ، تحقق من كتيب الإجراءات الرائعة لجامعات PAX.

إذا كنت تقرأ هذا فأنت تساهم بالفعل في الحركة. تابعنا على وسائل التواصل الاجتماعي وانضم إلى شبكة الشباب لدينا. علم الناس من حولك - أصدقائك وعائلتك ومدرستك - عن الروبوتات القاتلة. شارك بأفكارك وآرائك على وسائل التواصل الاجتماعي. الوعي هو الخطوة الأولى للتغيير ، وكلما زاد انتشار الرسالة ، زاد احتمال قدرتنا على المضي قدمًا بمزيد من الزخم.

نص بديل للصورة

شبكة الشباب

للشباب الحق والمسؤولية في المشاركة في القرارات التي تؤثر عليهم. شبكة الشباب هي مكان للقادة الشباب لجلب مهاراتهم ونقاط قوتهم للحركة لوقف الروبوتات القاتلة. تربط الشبكة الشباب من جميع أنحاء العالم ، وتسهل المجتمع والتعاون ، وتوفر موارد وفرصًا يمكن الوصول إليها لجميع الشباب لتأمين مستقبل بدون قتل آلي.

شبكة الشباب
نص بديل للصورة

الجامعات والروبوتات القاتلة

تلعب الجامعات دورًا كبيرًا في تشكيل المجتمع. غالبًا ما يقودون الابتكار ويلعبون دورًا رئيسيًا في تدريب الجيل القادم من القادة. العديد من الاختراعات المهمة المستخدمة في الحياة اليومية ، من أحزمة الأمان إلى شاشات اللمس ، تأتي من الأبحاث الجامعية - هناك العديد من التأثيرات الإيجابية والتطبيقات التي يمكن أن تحدثها الأبحاث الجامعية.

ومع ذلك ، ليست كل الابتكارات الناشئة عن الجامعات مفيدة. في العديد من البلدان ، ترعى صناعة الدفاع منشآت البحث الجامعي. يمكن أن يعمل الطلاب والأساتذة في مشروع سيتم استخدامه لتعزيز تطوير الأسلحة المستقلة. لهذا السبب يجب على الجامعات أن تنشر سياسات واضحة ، توضح أين ترسم الخط الفاصل بين التكنولوجيا التي سوف تطورها والتي لن تطورها.

علم نفسك ، ورفع مستوى الوعي ، واتخاذ الإجراءات.

احفظ برنامج Uni الخاص بك من Killer Robots
لعب الفيديو نص بديل للصورة

الكشافة والروبوتات القاتلة

في صيف عام 2019 ، حضر أكثر من 40,000 ألف كشاف من 169 دولة المخيم الكشفي العالمي الرابع والعشرين في قمة بكتل سكوت ريزيرف في ويست فيرجينيا بالولايات المتحدة الأمريكية. لأكثر من 24 أيام ، تم جمع الكشافة من أقاصي العالم لتعزيز السلام والتفاهم المتبادل والقيادة والمهارات الحياتية. تحدث فريقنا إلى الآلاف من الكشافة ، الذين أخبرونا لماذا يريدون #KeepCtrl على استخدام القوة.

في عام 2020 ، شكلت المنظمة العالمية للحركة الكشفية - منطقة البلدان الأمريكية وحملة وقف الروبوتات القاتلة شراكة لتعزيز قدرات الأطفال والمراهقين والمتطوعين الكشافة الكبار لتطبيق أهداف التنمية المستدامة ، ولا سيما رقم 16 "السلام والعدالة" والمؤسسات الصلبة “، من أجل التخفيف من تأثير وتهديدات الروبوتات القاتلة على أمن وسلام السكان المدنيين. يهدف المسعى المشترك إلى تعزيز القدرة على اكتساب وتحسين معرفتهم بالروبوتات القاتلة والفوائد العالمية لحظرها لدعم السلام العالمي.

الكشافة ، مرحبًا بكم في #TeamHuman
نص بديل للصورة

جائزة يبرس للسلام

كل ثلاث سنوات منذ عام 2002 ، منح طلاب المدارس في مدينة إيبرس البلجيكية جائزة السلام الدولية لمنظمة أو شخص أو مبادرة ساهمت مؤخرًا في السلام. مُنحت جائزة 2020 لحملة Stop Killer Robots وكان تسعون بالمائة ممن صوتوا لجائزة Ypres للسلام 18 عامًا أو أقل.

يخبرنا هذا أن الاهتمام بالروبوتات القاتلة والمستقبل الذي نحاول تأمينه يتزايد في جميع أنحاء العالم ، وخاصة بالنسبة للشباب.

المزيد عن جائزة يبرس للسلام

2

اليوم العالمي للشباب 2020

يشرح منسق ناشط الشباب المجري إليس كاتونا لماذا يجب على الشباب اتخاذ إجراءات لوقف الروبوتات القاتلة في يوم الشباب العالمي 2020.

3

الروبوتات الجيدة أصبحت سيئة

مارتا كوسمينا تتحدث عن كيف يمكن أن يكون للاختراعات العظيمة عواقب غير مقصودة. فكيف نحمي الروبوتات لدينا من الذهاب إلى الجانب المظلم؟ كطلاب ، أنتم صانعو التغيير اليوم وقادة الغد. لنتحدث عن دور الروبوتات في إنفاذ القانون والحرب ، وكيف نبني روبوتات يمكننا أن نفخر بها.

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا