صورة بطل القائمة
AOAV IGw AWS النهائي 150ppi_LR

جوجل ، الشركات الأخرى يجب أن تؤيد الحظر

AOAV IGw AWS النهائي 150ppi_LR

بدأت Google وشركتها الأم Alphabet في معالجة بعض المخاوف الأخلاقية التي أثارها تطوير الذكاء الاصطناعي (AI) والتعلم الآلي ، ولكن ، حتى الآن ، لم تتخذ موقفًا بشأن الاستخدام غير الخاضع للرقابة للاستقلالية والذكاء الاصطناعي في أنظمة الأسلحة. يجب على هذه الشركات وغيرها من شركات التكنولوجيا مثل أمازون ومايكروسوفت وأوراكل أن تصادق علنًا على الدعوة إلى حظر الأسلحة المستقلة بالكامل والالتزام بعدم المساعدة أبدًا في تطوير هذه الأسلحة. إن القيام بذلك من شأنه أن يدعم الجهود الدولية الآخذة في التوسع بسرعة لضمان عدم تفويض قرار أخذ الحياة البشرية إلى آلة في الحرب أو في الشرطة وغيرها من الظروف.

في الأشهر الأخيرة ، تصاعدت الدعوات إلى Google للالتزام بعدم المساعدة مطلقًا في إنشاء أنظمة أسلحة من شأنها تحديد الأهداف ومهاجمتها دون سيطرة بشرية ذات مغزى. الشهر الماضي ، أكثر من أربعة آلاف أصدر موظفو Google خطابًا مفتوحًا مطالبة الشركة بتبني سياسة واضحة تنص على أنه لن تقوم Google ولا متعاقدوها أبدًا ببناء "تكنولوجيا حربية".

في 14 مايو ، قام أكثر من 800 باحث وأكاديمي وباحث بدراسة تكنولوجيا المعلومات وتدريسها وتطويرها صدر بيان تضامناً مع موظفي Google الذين يدعو الشركات إلى دعم معاهدة دولية لحظر أنظمة الأسلحة المستقلة وتلتزم بعدم استخدام البيانات الشخصية التي تجمعها الشركة لأغراض عسكرية.

في مجلة وصي على 16 مايو، يسلط ثلاثة مؤلفين مشاركين للرسالة الأكاديمية الضوء على الأسئلة الرئيسية التي تواجهها Google ، مثل: "هل يجب أن تستخدم أحدث تقنيات الذكاء الاصطناعي ، وأفضل مهندسيها ، وخدمات الحوسبة السحابية ، والبيانات الشخصية الضخمة التي تجمعها من أجل المساهمة في البرامج التي تعزز تطوير الأسلحة المستقلة؟ هل يجب أن تستمر على الرغم من المعارضة المعنوية والأخلاقية من قبل عدة آلاف من موظفيها؟ "

سابقًا ، في رسالة بتاريخ 12 مارس إلى رؤساء Google و Alphabet، أوصت حملة Stop Killer Robots الشركات بتبني "سياسة عامة استباقية" من خلال الالتزام بعدم الانخراط مطلقًا في العمل الذي يهدف إلى تطوير واكتساب أنظمة أسلحة مستقلة تمامًا ، والمعروفة أيضًا باسم أنظمة الأسلحة الفتاكة ذاتية التشغيل ، وتقديم الدعم العلني للدعوة إلى للحظر.

تعبر كل هذه الرسائل عن القلق بشأن مشاركة Google في مشروع تموله وزارة الدفاع بهدف "مساعدة في التعرف على الأشياء على بيانات غير سرية "الواردة في لقطات فيديو المراقبة التي تم جمعها بواسطة طائرات بدون طيار عسكرية. بحسب البنتاغون، يتضمن Project Maven "تطوير ودمج خوارزميات الرؤية الحاسوبية اللازمة لمساعدة المحللين العسكريين والمدنيين المثقلين بالحجم الهائل لبيانات الفيديو بالحركة الكاملة التي تجمعها وزارة الدفاع كل يوم لدعم عمليات مكافحة التمرد ومكافحة الإرهاب." يسعى المشروع ، الذي بدأ العام الماضي ، إلى تحويل "الحجم الهائل من البيانات المتاحة لوزارة الدفاع إلى معلومات استخباراتية قابلة للتنفيذ ورؤى حول جودة القرار بسرعة".

يثير Project Maven أسئلة أخلاقية وغيرها حول الاستخدام المناسب للتعلم الآلي والذكاء الاصطناعي (AI) للأغراض العسكرية. حملة وقف الروبوتات القاتلة هي قلق أن التعرف على الأجسام المدفوع بالذكاء الاصطناعي يمكن أن يطمس بسرعة أو ينتقل إلى تحديد `` الأهداف '' المدفوع بالذكاء الاصطناعي كأساس لاتجاه القوة المميتة. يمكن أن يمنح هذا الآلات القدرة على اتخاذ قرار بشأن الهدف ، والذي سيكون استخدامًا واسع النطاق بشكل غير مقبول للتكنولوجيا. لهذا السبب تعمل الحملة على الاحتفاظ بالسيطرة البشرية الهادفة على الوظائف الحاسمة لتحديد الأهداف واختيارها وإشراكها.

ممثلو Google هم الانخراط في حوار مع الحملة لإيقاف الروبوتات القاتلة وقدمت الشهر الماضي لمنسقة الحملة ماري ويرهام بيانًا يقول إن عملها في Project Maven "لأغراض غير هجومية واستخدام برنامج التعرف على الكائنات مفتوح المصدر المتاح لأي عميل Google Cloud. تعتمد النماذج على بيانات غير مصنفة فقط. تُستخدم التكنولوجيا لوضع علامة على الصور ليراجعها الإنسان وتهدف إلى إنقاذ الأرواح وإنقاذ الأشخاص من الاضطرار إلى القيام بعمل شاق للغاية ".

في تموز (يوليو) 2015 ، وقع موظفو Google البارزون ، بمن فيهم مدير الأبحاث بيتر نورفيج ، والباحث جيفري هينتون ، ورئيس منظمة العفو الدولية جيف دين رسالة مفتوحة أقرها الآلاف من خبراء منظمة العفو الدولية الذين حددوا المخاطر التي تشكلها أنظمة الأسلحة الفتاكة ذاتية التشغيل ودعوا إلى معاهدة جديدة لحظر الأسلحة.

في Google DeepMind ، وقع الرئيس التنفيذي ديميس هاسابيس ، والشريك المؤسس مصطفى سليمان وعشرون من المهندسين والمطورين والباحثين على خطاب عام 2015. العام التالي في تقديم إلى لجنة برلمانية في المملكة المتحدة صرح Google DeepMind قائلاً: "نحن ندعم حظرًا بموجب معاهدة دولية على أنظمة الأسلحة الفتاكة ذاتية التشغيل التي تحدد الأهداف وتنشر القوة المميتة ضدها دون سيطرة بشرية ذات مغزى. نعتقد أن هذا هو أفضل نهج لتجنب العواقب الضارة التي قد تنجم عن تطوير واستخدام هذه الأسلحة. نوصي الحكومة بدعم جميع الجهود نحو مثل هذا الحظر ".

الشهر الماضي ، جيف بيزوس من أمازون قلق معبر عنه حول إمكانية تطوير أسلحة ذاتية التشغيل بالكامل ، والتي وصفها بأنها "مخيفة حقًا" ، واقترح معاهدة متعددة الأطراف لتنظيمها. ترحب حملة وقف الروبوتات القاتلة بهذه الملاحظات و تشجع أمازون الموافقة على الدعوة إلى معاهدة جديدة لحظر الأسلحة ذاتية التشغيل بالكامل والتعهد بعدم المساهمة في تطوير هذه الأسلحة ، لقد فعلت كليرباث الروبوتات وغيرها.

لا يعني إصدار المبادئ الأخلاقية الكثير إذا فشلت الشركة في التعامل مع التحديات الأساسية التي تثيرها التطبيقات العسكرية للاستقلالية والذكاء الاصطناعي. يجب على الشركات المسؤولة أن تأخذ على محمل الجد والدعم العلني الدعوات المتزايدة للدول للتفاوض بشكل عاجل بشأن معاهدة جديدة لحظر الأسلحة ذاتية التشغيل بالكامل.

تحديث: في 7 يونيو ، أصدرت Google مبادئها الأخلاقية ، بما في ذلك التعهد بعدم تطوير ذكاء اصطناعي لاستخدامه في الأسلحة. أرسل موظفو Google المبادئ إلى منسق الحملة وأرسلوا الشكر على المدخلات المقدمة. جاء الإفراج عقب الأخبار التي أوردتها جزمودو في 1 حزيران (يونيو) قررت Google إنهاء مشاركتها في عقد Project Maven ينتهي العام المقبل.

لمزيد من المعلومات، راجع:

ماري

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا