صورة بطل القائمة

الشباب والروبوتات القاتلة

عندما يجتمع الشباب ، يمكننا أن نجعل العالم يستمع.

قد تبدو الروبوتات القاتلة مثل الخيال العلمي ، لكنها للأسف هي الخطوة الكبيرة التالية في نزع الإنسانية عن الإنسانية. في ترسيخ التحيزات وعدم المساواة من الأجيال السابقة. تعمل الروبوتات القاتلة على تغيير العلاقة بين الناس والتكنولوجيا من خلال تسليم اتخاذ القرارات المتعلقة بالحياة والموت للآلات. إنهم يتحدون السيطرة البشرية على استخدام القوة ، وحيثما يستهدفون الناس ، فإنهم يجروننا من إنسانيتنا - ويقلصوننا إلى نقاط البيانات.

ما لم نتصرف ، سيتعين على الأجيال القادمة أن تتعايش مع عواقب القرارات التي يتم اتخاذها الآن - تطوير تقنيات جديدة مع التحيز الخوارزمي ، وتغير المناخ ، والصراعات غير العادلة ، والظلم الاجتماعي والسياسي والاضطرابات ... العالم الذي نعيش فيه يستطيع تكون معقدة ولكن لدينا قوة أكبر للتأثير في الأحداث أكثر مما نعتقد.

 

نص بديل للصورة

هناك العديد من القضايا العالمية والاجتماعية التي سيتعين علينا مواجهتها في حياتنا.

في المستقبل ، سيتعين على الشباب مواجهة واقع ونتائج القرارات التي يتم اتخاذها اليوم. يعمل الشباب حول العالم لإحداث التغيير وأمل جديد. كعوامل للتغيير بالقوة والتأثير.

لقد نشأنا في عصر رقمي ونحن المستقبل. المبرمجون والمبرمجون والمهندسون والجنود والدبلوماسيون والسياسيون والناشطون والمنظمون والمبدعون الذين سيتعين عليهم التعامل مع حقائق الروبوتات القاتلة.

لدينا القدرة على تشكيل مستقبل التكنولوجيا والصناعة والسياسة. للاستثمار في مجتمعاتنا والإنسانية على نطاق أوسع. كل واحد منا لديه الفرصة لنقل رسالة مفادها أن القتل لا ينبغي تفويضه للآلات ، وأن كل حياة بشرية لها قيمة.


 

الأسئلة الشائعة

هناك مشاكل أخلاقية ومعنوية وتقنية وقانونية وأمنية مع الأسلحة المستقلة. سواء في ساحة المعركة أو في مظاهرة ، لا تستطيع الآلات اتخاذ خيارات أخلاقية معقدة - فهي لا تستطيع فهم قيمة الحياة البشرية. في حالة وقوع خطأ أو فعل غير مشروع ، من يتحمل المسؤولية؟ المبرمج أم الصانع أم القائد العسكري أم الآلة نفسها؟ فجوة المساءلة هذه ستجعل من الصعب ضمان العدالة ، خاصة للضحايا. المشاكل الأخرى مع الروبوتات القاتلة تشمل الزيادة نزع الإنسانية الرقمية، والتحيزات الخوارزمية ، وفقدان السيطرة البشرية ذات المعنى ، وخفض عتبة الحرب ، وسباق تسلح محتمل مزعزع للاستقرار ، وتحول أساسي في علاقتنا مع التكنولوجيا.

إذا تم استخدام الأسلحة المستقلة ، فستغير بشكل أساسي طبيعة كيفية خوض الحروب. ستؤدي إلى مزيد من الحرب غير المتكافئة ، وزعزعة استقرار السلم والأمن الدوليين من خلال إطلاق شرارة سباق تسلح جديد. كما أنها ستزيد من عبء الصراع على عاتق المدنيين. لكن مخاطر الروبوتات القاتلة لا تهدد فقط الأشخاص في الصراع. يمكن أن يكون لاستخدام هذه الأسلحة في مجتمعاتنا على نطاق أوسع عواقب وخيمة. فكر في الاحتجاجات المستقبلية ، ومراقبة الحدود ، والشرطة ، والمراقبة ، أو حتى حول أنواع التقنيات الأخرى التي نستخدمها. ماذا سيقول عن مجتمعنا - وما هو تأثيره على الكفاح من أجل التكنولوجيا الأخلاقية - إذا سمحنا للآلات باتخاذ قرارات الحياة والموت النهائية؟ ظهور وعواقب الأسلحة المستقلة يؤثر علينا جميعًا.

يقول بعض الناس إن الروبوتات القاتلة ستكون أكثر دقة - فهي ستكون أسرع وأكثر كفاءة من البشر ، ويمكن أن تذهب إلى الأماكن التي يصعب على الجنود العمل فيها ، ويمكن أن تكون أكثر دقة في الاستهداف ، وتنقذ الأرواح من خلال تقليل "الأحذية على الأرض "، والعمل كرادع. لكن قيلت أشياء مماثلة عن الألغام الأرضية والذخائر العنقودية والأسلحة النووية - أسلحة عشوائية قتلت وجرحت مئات الآلاف من الناس قبل أن يتم حظرها. لا يمكن استخدام التقنيات التي تغير سلوكها أو تكيف برامجها الخاصة بشكل مستقل بتحكم حقيقي. يمكن أن تقدم التقنيات الأخرى "الصندوق الأسود" ، حيث لا يمكن معرفة سبب أو كيفية اتخاذ القرارات. بموجب القانون ، يجب أن يكون القادة العسكريون قادرين على الحكم على ضرورة وتناسب الهجوم والتمييز بين المدنيين والأهداف العسكرية المشروعة. هذا لا يعني فقط فهم نظام الأسلحة ، ولكن أيضًا فهم السياق الذي يمكن استخدامه فيه. الآلات لا تفهم السياق أو العواقب: الفهم قدرة بشرية - وبدون هذا الفهم ، نفقد المسؤولية الأخلاقية ونقوض القواعد القانونية القائمة. تهديدات ومخاطر الروبوتات القاتلة تفوق بكثير أي مزايا محتملة.

يستمر الزخم في جميع أنحاء العالم في البناء وراء الدعوة إلى فرض قيود على الاستقلالية في أنظمة الأسلحة من خلال معاهدة دولية جديدة. تعتبر الروبوتات القاتلة تهديدًا كبيرًا للبشرية يتطلب استجابة سريعة وقوية متعددة الأطراف.

تدعم أكثر من 250 منظمة غير حكومية الحركة الرامية إلى وقف الروبوتات القاتلة. ويشارك في دعواتنا لإبرام معاهدة خبراء فنيون وقادة عالميون ومؤسسات دولية وهيئات برلمانية وأبطال سياسيون. وتدعو أكثر من 110 دولة الآن إلى وضع قواعد قانونية جديدة وحدود لأنظمة الأسلحة المستقلة. وتعهدت مئات الشركات التقنية بعدم المشاركة في أو دعم تطوير أو إنتاج أو استخدام أنظمة الأسلحة المستقلة. وحذر آلاف الخبراء في مجال الذكاء الاصطناعي والروبوتات من هذه الأسلحة ودعوا الأمم المتحدة إلى اتخاذ إجراءات. وهناك أيضًا قلق عام واضح. ففي استطلاعات أجرتها شركة IPSOS في عامي 2019 و2020، ذكر أكثر من ثلاثة من كل خمسة أشخاص معارضتهم لتطوير أنظمة أسلحة من شأنها اختيار الأهداف ومهاجمتها دون تدخل بشري.

وصف الأمين العام للأمم المتحدة ، غوتيريش ، الأسلحة المستقلة بأنها "بغيضة أخلاقياً وغير مقبولة سياسياً" ، وأصدر عدة بيانات منذ عام 2018 حث فيها الدول على التفاوض بشأن معاهدة. وقالت اللجنة الدولية للصليب الأحمر إن هناك حاجة إلى قانون جديد لمعالجة الحكم الذاتي في الأسلحة ودعت إلى معاهدة تجمع بين المحظورات واللوائح. أيد البرلمان الأوروبي ومقررو مجلس حقوق الإنسان و 26 من الحائزين على جائزة نوبل للسلام دعوات لحظر وتنظيم الأسلحة المستقلة.

هناك مخاوف من أن شركات التكنولوجيا ، خاصة تلك التي تعمل بموجب عقود عسكرية ، ليس لديها سياسات للتأكد من أن عملها لا يساهم في تطوير أسلحة مستقلة. وجد تقرير صدر عام 2019 من PAX أن Microsoft و Amazon قد تم تصنيفهما من بين شركات التكنولوجيا الأكثر خطورة في العالم والتي قد تعرض العالم للخطر من خلال تطوير الروبوتات القاتل. في عام 2018 ، احتج الآلاف من الموظفين على عقد Google مع البنتاغون في مبادرة تسمى Project Maven. أدى إجراء العامل التقني إلى عدم قيام Google بتجديد Project Maven وإصدار مجموعة من المبادئ لتوجيه عملها فيما يتعلق بالذكاء الاصطناعي. في هذه المبادئ الأخلاقية للذكاء الاصطناعي ، تلتزم Google بعدم "تصميم أو نشر ذكاء اصطناعي لاستخدامه في الأسلحة".

يجب استخدام التكنولوجيا لجعل العالم مكانًا أفضل ، ويجب على شركات التكنولوجيا مثل Amazon و Google و Microsoft و Facebook وغيرها الالتزام علنًا بعدم المساهمة في تطوير أسلحة مستقلة. يعرف عمال التكنولوجيا وعلماء الروبوتات والمهندسون والباحثون هذا - ولهذا السبب وقع الآلاف منهم على خطابات مفتوحة وتعهدات تدعو إلى قانون دولي جديد لمعالجة الاستقلالية في الأسلحة وضمان سيطرة بشرية ذات مغزى على استخدام القوة.

انه ممكن. العديد من الجامعات لديها مؤسسات بحثية تعمل على الذكاء الاصطناعي والتعلم الآلي. إذا كنت تريد أن تكون متأكدًا ، يمكنك التحقق مما إذا كانت جامعتك لديها موقف أخلاقي أو بيان واضح لموقفها من الروبوتات القاتلة. أو إذا كان لديهم عقود مع وزارات الدفاع أو الشركات الخاصة التي تعاقدت معهم لتطوير تقنيات معينة. من الأهمية بمكان أن تكون الجامعات على دراية بكيفية استخدام التكنولوجيا التي تطورها في المستقبل. يحذر تقرير PAX بعنوان "Conflicted Intelligence" من مخاطر أبحاث وشراكات الذكاء الاصطناعي في الجامعات ، ويوضح كيف يمكن للجامعات المساعدة في منع تطوير أسلحة مستقلة.

إذا كان يبدو أن جامعتك تطور تقنيات تتعلق بالروبوتات القاتلة ، فلا داعي للذعر! هناك طريقة للعمل. في عام 2018 ، أعلن المعهد الكوري المتقدم للعلوم والتكنولوجيا (KAIST) عن تعاونه مع شركة إنتاج الأسلحة Hanwha Systems. كان الهدف هو "المشاركة في تطوير تقنيات ذكاء اصطناعي لتطبيقها على الأسلحة العسكرية ، والانضمام إلى المنافسة العالمية لتطوير أسلحة مستقلة". أدى الإعلان إلى مقاطعة الأساتذة والطلاب في جميع أنحاء العالم ، مما دفع الجامعة في النهاية إلى تقديم تطمينات علنية بأنها لن تطور روبوتات قاتلة. نفذت سياسة تنص على أن "الذكاء الاصطناعي في أي حدث لا ينبغي أن يؤذي الناس". الأمل يأتي من العمل. لمزيد من الأفكار حول كيفية منع جامعتك من تطوير أسلحة مستقلة ، تحقق من كتيب الإجراءات الرائعة لجامعات PAX.

إذا كنت تقرأ هذا فأنت تساهم بالفعل في الحركة. تابعنا على وسائل التواصل الإجتماعي. انضم إلى شبكتنا الشبابية. علم الناس من حولك - أصدقائك ، عائلتك ، مدرستك - عن الروبوتات القاتلة. شارك بأفكارك وآرائك على وسائل التواصل الاجتماعي. الوعي هو الخطوة الأولى للتغيير ، وكلما زاد انتشار الرسالة ، زاد احتمال قدرتنا على المضي قدمًا بمزيد من الزخم.

نص بديل للصورة

شبكة الشباب

للشباب الحق والمسؤولية في المشاركة في القرارات التي تؤثر عليهم. شبكة الشباب هي مكان للقادة الشباب لجلب مهاراتهم ونقاط قوتهم للحركة لوقف الروبوتات القاتلة. تربط الشبكة الشباب من جميع أنحاء العالم ، وتسهل المجتمع والتعاون ، وتوفر موارد وفرصًا يمكن الوصول إليها لجميع الشباب لتأمين مستقبل بدون قتل آلي.
انضم إلى شبكة الشباب
نص بديل للصورة

الجامعات والروبوتات القاتلة

تلعب الجامعات دورًا كبيرًا في تشكيل المجتمع. غالبًا ما يقودون الابتكار ويلعبون دورًا رئيسيًا في تدريب الجيل القادم من القادة. العديد من الاختراعات المهمة المستخدمة في الحياة اليومية ، من أحزمة الأمان إلى شاشات اللمس ، تأتي من الأبحاث الجامعية - هناك العديد من التأثيرات الإيجابية والتطبيقات التي يمكن أن تحدثها الأبحاث الجامعية.

ومع ذلك ، ليست كل الابتكارات الناشئة عن الجامعات مفيدة. في العديد من البلدان ، ترعى صناعة الدفاع منشآت البحث الجامعي. يمكن أن يعمل الطلاب والأساتذة في مشروع سيتم استخدامه لتعزيز تطوير الأسلحة المستقلة. لهذا السبب يجب على الجامعات أن تنشر سياسات واضحة ، توضح أين ترسم الخط الفاصل بين التكنولوجيا التي سوف تطورها والتي لن تطورها.

علم نفسك ، ورفع مستوى الوعي ، واتخاذ الإجراءات.
احفظ برنامج Uni الخاص بك من Killer Robots
لعب الفيديو نص بديل للصورة

الكشافة والروبوتات القاتلة

في صيف عام 2019 ، حضر أكثر من 40,000 ألف كشاف من 169 دولة المخيم الكشفي العالمي الرابع والعشرين في قمة بكتل سكوت ريزيرف في ويست فيرجينيا بالولايات المتحدة الأمريكية. لأكثر من 24 أيام ، تم جمع الكشافة من أقاصي العالم لتعزيز السلام والتفاهم المتبادل والقيادة والمهارات الحياتية. تحدث فريقنا إلى الآلاف من الكشافة ، الذين أخبرونا لماذا يريدون #KeepCtrl على استخدام القوة.

في عام 2020 ، شكلت المنظمة العالمية للحركة الكشفية - منطقة البلدان الأمريكية وحملة وقف الروبوتات القاتلة شراكة لتعزيز قدرات الأطفال والمراهقين والمتطوعين الكشافة الكبار لتطبيق أهداف التنمية المستدامة ، ولا سيما رقم 16 "السلام والعدالة" والمؤسسات الصلبة “، من أجل التخفيف من تأثير وتهديدات الروبوتات القاتلة على أمن وسلام السكان المدنيين. يهدف المسعى المشترك إلى تعزيز القدرة على اكتساب وتحسين معرفتهم بالروبوتات القاتلة والفوائد العالمية لحظرها لدعم السلام العالمي.
الكشافة ، مرحبًا بكم في #TeamHuman
نص بديل للصورة

جائزة يبرس للسلام

كل ثلاث سنوات منذ عام 2002 ، منح طلاب المدارس في مدينة إيبرس البلجيكية جائزة السلام الدولية لمنظمة أو شخص أو مبادرة ساهمت مؤخرًا في السلام. مُنحت جائزة 2020 لحملة Stop Killer Robots وكان تسعون بالمائة ممن صوتوا لجائزة Ypres للسلام 18 عامًا أو أقل.

يخبرنا هذا أن الاهتمام بالروبوتات القاتلة والمستقبل الذي نحاول تأمينه يتزايد في جميع أنحاء العالم ، وخاصة بالنسبة للشباب.

المزيد عن جائزة يبرس للسلام

2

اليوم العالمي للشباب 2020

يشرح منسق ناشط الشباب المجري إليس كاتونا لماذا يجب على الشباب اتخاذ إجراءات لوقف الروبوتات القاتلة في يوم الشباب العالمي 2020.

3

الروبوتات الجيدة أصبحت سيئة

مارتا كوسمينا تتحدث عن كيف يمكن أن يكون للاختراعات العظيمة عواقب غير مقصودة. فكيف نحمي الروبوتات لدينا من الذهاب إلى الجانب المظلم؟ كطلاب ، أنتم صانعو التغيير اليوم وقادة الغد. لنتحدث عن دور الروبوتات في إنفاذ القانون والحرب ، وكيف نبني روبوتات يمكننا أن نفخر بها.

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا