1
تعرف على النشطاء الشباب في أمريكا اللاتينية!
يتشارك النشطاء الشباب في أمريكا اللاتينية لماذا يجب على الشباب الآخرين الاهتمام بالروبوتات القاتلة.
عندما يجتمع الشباب ، يمكننا أن نجعل العالم يستمع.
قد تبدو الروبوتات القاتلة مثل الخيال العلمي ، لكنها للأسف هي الخطوة الكبيرة التالية في نزع الإنسانية عن الإنسانية. في ترسيخ التحيزات وعدم المساواة من الأجيال السابقة. تعمل الروبوتات القاتلة على تغيير العلاقة بين الناس والتكنولوجيا من خلال تسليم اتخاذ القرارات المتعلقة بالحياة والموت للآلات. إنهم يتحدون السيطرة البشرية على استخدام القوة ، وحيثما يستهدفون الناس ، فإنهم يجروننا من إنسانيتنا - ويقلصوننا إلى نقاط البيانات.
ما لم نتصرف ، سيتعين على الأجيال القادمة أن تتعايش مع عواقب القرارات التي يتم اتخاذها الآن - تطوير تقنيات جديدة مع التحيز الخوارزمي ، وتغير المناخ ، والصراعات غير العادلة ، والظلم الاجتماعي والسياسي والاضطرابات ... العالم الذي نعيش فيه يستطيع تكون معقدة ولكن لدينا قوة أكبر للتأثير في الأحداث أكثر مما نعتقد.
هناك العديد من القضايا العالمية والاجتماعية التي سيتعين علينا مواجهتها في حياتنا.
في المستقبل ، سيتعين على الشباب مواجهة واقع ونتائج القرارات التي يتم اتخاذها اليوم. يعمل الشباب حول العالم لإحداث التغيير وأمل جديد. كعوامل للتغيير بالقوة والتأثير.
لقد نشأنا في عصر رقمي ونحن المستقبل. المبرمجون والمبرمجون والمهندسون والجنود والدبلوماسيون والسياسيون والناشطون والمنظمون والمبدعون الذين سيتعين عليهم التعامل مع حقائق الروبوتات القاتلة.
لدينا القدرة على تشكيل مستقبل التكنولوجيا والصناعة والسياسة. للاستثمار في مجتمعاتنا والإنسانية على نطاق أوسع. كل واحد منا لديه الفرصة لنقل رسالة مفادها أن القتل لا ينبغي تفويضه للآلات ، وأن كل حياة بشرية لها قيمة.
هناك مشاكل أخلاقية ومعنوية وتقنية وقانونية وأمنية مع الأسلحة المستقلة. سواء في ساحة المعركة أو في مظاهرة ، لا تستطيع الآلات اتخاذ خيارات أخلاقية معقدة - فهي لا تستطيع فهم قيمة الحياة البشرية. في حالة وقوع خطأ أو فعل غير مشروع ، من يتحمل المسؤولية؟ المبرمج أم الصانع أم القائد العسكري أم الآلة نفسها؟ فجوة المساءلة هذه ستجعل من الصعب ضمان العدالة ، خاصة للضحايا. المشاكل الأخرى مع الروبوتات القاتلة تشمل الزيادة نزع الإنسانية الرقمية، والتحيزات الخوارزمية ، وفقدان السيطرة البشرية ذات المعنى ، وخفض عتبة الحرب ، وسباق تسلح محتمل مزعزع للاستقرار ، وتحول أساسي في علاقتنا مع التكنولوجيا.
إذا تم استخدام الأسلحة المستقلة ، فستغير بشكل أساسي طبيعة كيفية خوض الحروب. ستؤدي إلى مزيد من الحرب غير المتكافئة ، وزعزعة استقرار السلم والأمن الدوليين من خلال إطلاق شرارة سباق تسلح جديد. كما أنها ستزيد من عبء الصراع على عاتق المدنيين. لكن مخاطر الروبوتات القاتلة لا تهدد فقط الأشخاص في الصراع. يمكن أن يكون لاستخدام هذه الأسلحة في مجتمعاتنا على نطاق أوسع عواقب وخيمة. فكر في الاحتجاجات المستقبلية ، ومراقبة الحدود ، والشرطة ، والمراقبة ، أو حتى حول أنواع التقنيات الأخرى التي نستخدمها. ماذا سيقول عن مجتمعنا - وما هو تأثيره على الكفاح من أجل التكنولوجيا الأخلاقية - إذا سمحنا للآلات باتخاذ قرارات الحياة والموت النهائية؟ ظهور وعواقب الأسلحة المستقلة يؤثر علينا جميعًا.
يقول بعض الناس إن الروبوتات القاتلة ستكون أكثر دقة - فهي ستكون أسرع وأكثر كفاءة من البشر ، ويمكن أن تذهب إلى الأماكن التي يصعب على الجنود العمل فيها ، ويمكن أن تكون أكثر دقة في الاستهداف ، وتنقذ الأرواح من خلال تقليل "الأحذية على الأرض "، والعمل كرادع. لكن قيلت أشياء مماثلة عن الألغام الأرضية والذخائر العنقودية والأسلحة النووية - أسلحة عشوائية قتلت وجرحت مئات الآلاف من الناس قبل أن يتم حظرها. لا يمكن استخدام التقنيات التي تغير سلوكها أو تكيف برامجها الخاصة بشكل مستقل بتحكم حقيقي. يمكن أن تقدم التقنيات الأخرى "الصندوق الأسود" ، حيث لا يمكن معرفة سبب أو كيفية اتخاذ القرارات. بموجب القانون ، يجب أن يكون القادة العسكريون قادرين على الحكم على ضرورة وتناسب الهجوم والتمييز بين المدنيين والأهداف العسكرية المشروعة. هذا لا يعني فقط فهم نظام الأسلحة ، ولكن أيضًا فهم السياق الذي يمكن استخدامه فيه. الآلات لا تفهم السياق أو العواقب: الفهم قدرة بشرية - وبدون هذا الفهم ، نفقد المسؤولية الأخلاقية ونقوض القواعد القانونية القائمة. تهديدات ومخاطر الروبوتات القاتلة تفوق بكثير أي مزايا محتملة.
يستمر الزخم في جميع أنحاء العالم في البناء وراء الدعوة إلى فرض قيود على الاستقلالية في أنظمة الأسلحة من خلال معاهدة دولية جديدة. تعتبر الروبوتات القاتلة تهديدًا كبيرًا للبشرية يتطلب استجابة سريعة وقوية متعددة الأطراف.
تدعم أكثر من 250 منظمة غير حكومية الحركة الرامية إلى وقف الروبوتات القاتلة. ويشارك في دعواتنا لإبرام معاهدة خبراء فنيون وقادة عالميون ومؤسسات دولية وهيئات برلمانية وأبطال سياسيون. وتدعو أكثر من 110 دولة الآن إلى وضع قواعد قانونية جديدة وحدود لأنظمة الأسلحة المستقلة. وتعهدت مئات الشركات التقنية بعدم المشاركة في أو دعم تطوير أو إنتاج أو استخدام أنظمة الأسلحة المستقلة. وحذر آلاف الخبراء في مجال الذكاء الاصطناعي والروبوتات من هذه الأسلحة ودعوا الأمم المتحدة إلى اتخاذ إجراءات. وهناك أيضًا قلق عام واضح. ففي استطلاعات أجرتها شركة IPSOS في عامي 2019 و2020، ذكر أكثر من ثلاثة من كل خمسة أشخاص معارضتهم لتطوير أنظمة أسلحة من شأنها اختيار الأهداف ومهاجمتها دون تدخل بشري.
وصف الأمين العام للأمم المتحدة ، غوتيريش ، الأسلحة المستقلة بأنها "بغيضة أخلاقياً وغير مقبولة سياسياً" ، وأصدر عدة بيانات منذ عام 2018 حث فيها الدول على التفاوض بشأن معاهدة. وقالت اللجنة الدولية للصليب الأحمر إن هناك حاجة إلى قانون جديد لمعالجة الحكم الذاتي في الأسلحة ودعت إلى معاهدة تجمع بين المحظورات واللوائح. أيد البرلمان الأوروبي ومقررو مجلس حقوق الإنسان و 26 من الحائزين على جائزة نوبل للسلام دعوات لحظر وتنظيم الأسلحة المستقلة.
هناك مخاوف من أن شركات التكنولوجيا ، خاصة تلك التي تعمل بموجب عقود عسكرية ، ليس لديها سياسات للتأكد من أن عملها لا يساهم في تطوير أسلحة مستقلة. وجد تقرير صدر عام 2019 من PAX أن Microsoft و Amazon قد تم تصنيفهما من بين شركات التكنولوجيا الأكثر خطورة في العالم والتي قد تعرض العالم للخطر من خلال تطوير الروبوتات القاتل. في عام 2018 ، احتج الآلاف من الموظفين على عقد Google مع البنتاغون في مبادرة تسمى Project Maven. أدى إجراء العامل التقني إلى عدم قيام Google بتجديد Project Maven وإصدار مجموعة من المبادئ لتوجيه عملها فيما يتعلق بالذكاء الاصطناعي. في هذه المبادئ الأخلاقية للذكاء الاصطناعي ، تلتزم Google بعدم "تصميم أو نشر ذكاء اصطناعي لاستخدامه في الأسلحة".
يجب استخدام التكنولوجيا لجعل العالم مكانًا أفضل ، ويجب على شركات التكنولوجيا مثل Amazon و Google و Microsoft و Facebook وغيرها الالتزام علنًا بعدم المساهمة في تطوير أسلحة مستقلة. يعرف عمال التكنولوجيا وعلماء الروبوتات والمهندسون والباحثون هذا - ولهذا السبب وقع الآلاف منهم على خطابات مفتوحة وتعهدات تدعو إلى قانون دولي جديد لمعالجة الاستقلالية في الأسلحة وضمان سيطرة بشرية ذات مغزى على استخدام القوة.
انه ممكن. العديد من الجامعات لديها مؤسسات بحثية تعمل على الذكاء الاصطناعي والتعلم الآلي. إذا كنت تريد أن تكون متأكدًا ، يمكنك التحقق مما إذا كانت جامعتك لديها موقف أخلاقي أو بيان واضح لموقفها من الروبوتات القاتلة. أو إذا كان لديهم عقود مع وزارات الدفاع أو الشركات الخاصة التي تعاقدت معهم لتطوير تقنيات معينة. من الأهمية بمكان أن تكون الجامعات على دراية بكيفية استخدام التكنولوجيا التي تطورها في المستقبل. يحذر تقرير PAX بعنوان "Conflicted Intelligence" من مخاطر أبحاث وشراكات الذكاء الاصطناعي في الجامعات ، ويوضح كيف يمكن للجامعات المساعدة في منع تطوير أسلحة مستقلة.
إذا كان يبدو أن جامعتك تطور تقنيات تتعلق بالروبوتات القاتلة ، فلا داعي للذعر! هناك طريقة للعمل. في عام 2018 ، أعلن المعهد الكوري المتقدم للعلوم والتكنولوجيا (KAIST) عن تعاونه مع شركة إنتاج الأسلحة Hanwha Systems. كان الهدف هو "المشاركة في تطوير تقنيات ذكاء اصطناعي لتطبيقها على الأسلحة العسكرية ، والانضمام إلى المنافسة العالمية لتطوير أسلحة مستقلة". أدى الإعلان إلى مقاطعة الأساتذة والطلاب في جميع أنحاء العالم ، مما دفع الجامعة في النهاية إلى تقديم تطمينات علنية بأنها لن تطور روبوتات قاتلة. نفذت سياسة تنص على أن "الذكاء الاصطناعي في أي حدث لا ينبغي أن يؤذي الناس". الأمل يأتي من العمل. لمزيد من الأفكار حول كيفية منع جامعتك من تطوير أسلحة مستقلة ، تحقق من كتيب الإجراءات الرائعة لجامعات PAX.
إذا كنت تقرأ هذا فأنت تساهم بالفعل في الحركة. تابعنا على وسائل التواصل الإجتماعي. انضم إلى شبكتنا الشبابية. علم الناس من حولك - أصدقائك ، عائلتك ، مدرستك - عن الروبوتات القاتلة. شارك بأفكارك وآرائك على وسائل التواصل الاجتماعي. الوعي هو الخطوة الأولى للتغيير ، وكلما زاد انتشار الرسالة ، زاد احتمال قدرتنا على المضي قدمًا بمزيد من الزخم.
1
يتشارك النشطاء الشباب في أمريكا اللاتينية لماذا يجب على الشباب الآخرين الاهتمام بالروبوتات القاتلة.
2
يشرح منسق ناشط الشباب المجري إليس كاتونا لماذا يجب على الشباب اتخاذ إجراءات لوقف الروبوتات القاتلة في يوم الشباب العالمي 2020.
3
مارتا كوسمينا تتحدث عن كيف يمكن أن يكون للاختراعات العظيمة عواقب غير مقصودة. فكيف نحمي الروبوتات لدينا من الذهاب إلى الجانب المظلم؟ كطلاب ، أنتم صانعو التغيير اليوم وقادة الغد. لنتحدث عن دور الروبوتات في إنفاذ القانون والحرب ، وكيف نبني روبوتات يمكننا أن نفخر بها.