1
تعرف على النشطاء الشباب في أمريكا اللاتينية!
يتشارك النشطاء الشباب في أمريكا اللاتينية لماذا يجب على الشباب الآخرين الاهتمام بالروبوتات القاتلة.
عندما يجتمع الشباب ، يمكننا أن نجعل العالم يستمع.
قد تبدو الروبوتات القاتلة مثل الخيال العلمي ، لكنها للأسف هي الخطوة الكبيرة التالية في نزع الإنسانية عن الإنسانية. في ترسيخ التحيزات وعدم المساواة من الأجيال السابقة. لكن يمكن منعها.
ما لم نتحرك ، سيتعين على الأجيال القادمة أن تتعايش مع عواقب القرارات التي يتم اتخاذها الآن - تطوير تقنيات جديدة مع التحيز الخوارزمي ، وتغير المناخ ، والصراعات غير العادلة ، والظلم الاجتماعي والسياسي والاضطرابات ... العالم الذي نعيش فيه يستطيع تكون معقدة ولكن غالبًا ما تكون لدينا قوة أكبر للتأثير في الأحداث أكثر مما نعتقد.
هناك العديد من القضايا العالمية والاجتماعية التي سيتعين علينا مواجهتها في حياتنا.
لا ينبغي للقادة السياسيين أن يستثمروا في الأسلحة المستقلة الآن ، عندما يتعين على الشباب مواجهة واقع ونتائج قراراتهم في المستقبل. تمامًا كما هو الحال مع تغير المناخ ، من خلال وقف تطوير الروبوتات القاتلة لدينا الفرصة لجلب أمل جديد ؛ أن نكون عوامل تغيير ذات نفوذ ونفوذ.
لقد نشأنا في عصر رقمي ونحن المستقبل. المبرمجون والمبرمجون والمهندسون والجنود والدبلوماسيون والسياسيون والناشطون والمنظمون والمبدعون الذين سيتعين عليهم التعامل مع حقائق الروبوتات القاتلة.
لدينا القدرة على تشكيل مستقبل التكنولوجيا والصناعة والسياسة. للاستثمار في مجتمعاتنا والإنسانية على نطاق أوسع. كل واحد منا لديه الفرصة لنقل رسالة مفادها أن القتل لا ينبغي تفويضه للآلات ، وأن كل حياة بشرية لها قيمة.
هناك مشاكل أخلاقية ومعنوية وتقنية وقانونية وأمنية مع الأسلحة المستقلة. تفتقر الآلات إلى الخصائص البشرية بطبيعتها مثل التعاطف الضروري لاتخاذ خيارات أخلاقية معقدة. التكنولوجيا ليست مثالية ، وليست محايدة ، وستكون الروبوتات القاتلة عرضة للإخفاقات التقنية مثل القرصنة. في حالة وقوع خطأ أو فعل غير مشروع ، من يتحمل المسؤولية؟ المبرمج أم الصانع أم القائد العسكري أم الآلة نفسها؟ فجوة المساءلة ستجعل من الصعب ضمان العدالة ، وخاصة للضحايا. ستتغير طبيعة الحرب بشكل جذري حيث أن إرسال الآلات بدلاً من القوات سيزيل معظم عقبات صراعات اليوم. يمكن أيضًا استخدام الأسلحة المستقلة في ظروف أخرى ، مثل مراقبة الحدود والشرطة. كما يمكن استخدامها لقمع الاحتجاجات ودعم الأنظمة.
إذا تم استخدام الأسلحة المستقلة بالكامل ، فستغير بشكل أساسي طبيعة كيفية خوض الحروب. ستؤدي إلى مزيد من الحرب غير المتكافئة ، وزعزعة استقرار السلم والأمن الدوليين من خلال إطلاق شرارة سباق تسلح جديد. كما أنها ستزيد من عبء الصراع على عاتق المدنيين. لكن مخاطر الروبوتات القاتلة لا تهدد فقط الأشخاص في الصراع. يمكن أن يكون لاستخدام هذه الأسلحة في مجتمعاتنا على نطاق أوسع عواقب وخيمة. فكر في الاحتجاجات المستقبلية ومراقبة الحدود والشرطة والمراقبة. أو حتى حول أنواع التقنيات الأخرى التي نستخدمها. ماذا سيقول عن مجتمعنا - وما هو تأثيره على الكفاح من أجل التكنولوجيا الأخلاقية - إذا سمحنا للآلات باتخاذ قرارات الحياة والموت النهائية؟ حقًا ، ظهور وعواقب الأسلحة المستقلة سيؤثر علينا جميعًا.
يقول بعض الناس أن الروبوتات القاتلة ستكون أكثر دقة - فهي ستكون أسرع وأكثر كفاءة من البشر ، ويمكن أن تذهب إلى الأماكن التي يصعب على الجنود العمل فيها ، ويمكن أن تكون أكثر دقة في الاستهداف ، وتنقذ الأرواح من خلال تقليل "الأحذية على الأرض "، والعمل كرادع. لكن قيلت أشياء مماثلة عن الألغام الأرضية والذخائر العنقودية والأسلحة النووية - أسلحة عشوائية قتلت وجرحت مئات الآلاف من الأشخاص قبل حظرها ، والحقيقة هي أن الروبوتات القاتلة ستفتقر إلى التعاطف والحكم البشري. سوف يخفضون من عتبة العنف والصراع ، ويكونون أدوات للاضطهاد. هذا احتمال مخيف ، ويجب أن نتأكد من عدم تحوله إلى حقيقة منتشرة. يمكن تحقيق الدقة دون إزالة السيطرة البشرية الهادفة من استخدام القوة. تهديدات ومخاطر الروبوتات القاتلة تفوق بكثير أي مزايا محتملة.
يستمر الزخم في جميع أنحاء العالم في البناء وراء الدعوة إلى فرض قيود على الاستقلالية في أنظمة الأسلحة من خلال معاهدة دولية جديدة. تعتبر الروبوتات القاتلة تهديدًا كبيرًا للبشرية يتطلب استجابة سريعة وقوية متعددة الأطراف.
أكثر من 185 منظمة غير حكومية تدعم الحركة لوقف الروبوتات القاتلة. ويشارك خبراء تقنيون وزعماء عالميون ومؤسسات دولية وهيئات برلمانية وأبطال سياسيون دعواتنا إلى المعاهدة. اعترفت قرابة 100 دولة بأهمية السيطرة البشرية على استخدام القوة. تعهدت المئات من شركات التكنولوجيا بعدم المشاركة أو دعم تطوير أو إنتاج أو استخدام أنظمة الأسلحة المستقلة. حذر الآلاف من خبراء الذكاء الاصطناعي والروبوتات من هذه الأسلحة ودعوا الأمم المتحدة إلى اتخاذ إجراءات. هناك أيضا قلق عام واضح. في استطلاعات IPSOS التي تم إصدارها في 2019 و 2020 ، صرح أكثر من ثلاثة من كل خمسة أشخاص بمعارضتهم لتطوير أنظمة أسلحة من شأنها تحديد الأهداف ومهاجمتها دون تدخل بشري.
وصف الأمين العام للأمم المتحدة ، غوتيريش ، الأسلحة المستقلة بأنها "بغيضة أخلاقياً وغير مقبولة سياسياً" ، وأصدر عدة بيانات منذ عام 2018 حث فيها الدول على التفاوض بشأن معاهدة. وقالت اللجنة الدولية للصليب الأحمر إن هناك حاجة إلى قانون جديد لمعالجة الحكم الذاتي في الأسلحة ودعت إلى معاهدة تجمع بين المحظورات واللوائح. أيد البرلمان الأوروبي ومقررو مجلس حقوق الإنسان و 26 من الحائزين على جائزة نوبل للسلام وحتى أباطرة التكنولوجيا مثل إيلون ماسك من تسلا وديميس حسابيس من جوجل وستيف وزنياك من شركة آبل دعوات لحظر الأسلحة المستقلة.
هناك مخاوف من أن شركات التكنولوجيا ، خاصة تلك التي تعمل بموجب عقود عسكرية ، ليس لديها سياسات للتأكد من أن عملها لا يساهم في تطوير أسلحة مستقلة. وجد تقرير صدر عام 2019 من PAX أن Microsoft و Amazon قد تم تصنيفهما من بين شركات التكنولوجيا الأكثر خطورة في العالم والتي قد تعرض العالم للخطر من خلال تطوير الروبوتات القاتل. في عام 2018 ، احتج الآلاف من الموظفين على عقد Google مع البنتاغون في مبادرة تسمى Project Maven. أدى إجراء العامل التقني إلى عدم قيام Google بتجديد Project Maven وإصدار مجموعة من المبادئ لتوجيه عملها فيما يتعلق بالذكاء الاصطناعي. في هذه المبادئ الأخلاقية للذكاء الاصطناعي ، تلتزم Google بعدم "تصميم أو نشر ذكاء اصطناعي لاستخدامه في الأسلحة".
يجب استخدام التكنولوجيا لجعل العالم مكانًا أفضل ، ويجب على شركات التكنولوجيا مثل Amazon و Google و Microsoft و Facebook وغيرها الالتزام علنًا بعدم المساهمة في تطوير أسلحة مستقلة. يعرف عمال التكنولوجيا وعلماء الروبوتات والمهندسون والباحثون هذا - ولهذا السبب وقع الآلاف منهم على خطابات مفتوحة وتعهدات تدعو إلى قانون دولي جديد لمعالجة الاستقلالية في الأسلحة وضمان سيطرة بشرية ذات مغزى على استخدام القوة.
انه ممكن. العديد من الجامعات لديها مؤسسات بحثية تعمل على الذكاء الاصطناعي والتعلم الآلي. إذا كنت تريد أن تكون متأكدًا ، يمكنك التحقق مما إذا كانت جامعتك لديها موقف أخلاقي أو بيان واضح لموقفها من الروبوتات القاتلة. أو إذا كان لديهم عقود مع وزارات الدفاع أو الشركات الخاصة التي تعاقدت معهم لتطوير تقنيات معينة. من الأهمية بمكان أن تكون الجامعات على دراية بكيفية استخدام التكنولوجيا التي تطورها في المستقبل. يحذر تقرير PAX بعنوان "Conflicted Intelligence" من مخاطر أبحاث وشراكات الذكاء الاصطناعي في الجامعات ، ويوضح كيف يمكن للجامعات المساعدة في منع تطوير أسلحة مستقلة.
إذا كان يبدو أن جامعتك تطور تقنيات تتعلق بالروبوتات القاتلة ، فلا داعي للذعر! هناك طريقة للعمل. في عام 2018 ، أعلن المعهد الكوري المتقدم للعلوم والتكنولوجيا (KAIST) عن تعاونه مع شركة إنتاج الأسلحة Hanwha Systems. كان الهدف هو "المشاركة في تطوير تقنيات ذكاء اصطناعي لتطبيقها على الأسلحة العسكرية ، والانضمام إلى المنافسة العالمية لتطوير أسلحة مستقلة". أدى الإعلان إلى مقاطعة الأساتذة والطلاب في جميع أنحاء العالم ، مما دفع الجامعة في النهاية إلى تقديم تطمينات علنية بأنها لن تطور روبوتات قاتلة. نفذت سياسة تنص على أن "الذكاء الاصطناعي في أي حدث لا ينبغي أن يؤذي الناس". الأمل يأتي من العمل. لمزيد من الأفكار حول كيفية منع جامعتك من تطوير أسلحة مستقلة ، تحقق من كتيب الإجراءات الرائعة لجامعات PAX.
إذا كنت تقرأ هذا فأنت تساهم بالفعل في الحركة. تابعنا على وسائل التواصل الاجتماعي وانضم إلى شبكة الشباب لدينا. علم الناس من حولك - أصدقائك وعائلتك ومدرستك - عن الروبوتات القاتلة. شارك بأفكارك وآرائك على وسائل التواصل الاجتماعي. الوعي هو الخطوة الأولى للتغيير ، وكلما زاد انتشار الرسالة ، زاد احتمال قدرتنا على المضي قدمًا بمزيد من الزخم.
1
يتشارك النشطاء الشباب في أمريكا اللاتينية لماذا يجب على الشباب الآخرين الاهتمام بالروبوتات القاتلة.
2
يشرح منسق ناشط الشباب المجري إليس كاتونا لماذا يجب على الشباب اتخاذ إجراءات لوقف الروبوتات القاتلة في يوم الشباب العالمي 2020.
3
مارتا كوسمينا تتحدث عن كيف يمكن أن يكون للاختراعات العظيمة عواقب غير مقصودة. فكيف نحمي الروبوتات لدينا من الذهاب إلى الجانب المظلم؟ كطلاب ، أنتم صانعو التغيير اليوم وقادة الغد. لنتحدث عن دور الروبوتات في إنفاذ القانون والحرب ، وكيف نبني روبوتات يمكننا أن نفخر بها.