صورة بطل القائمة

بيان للمجلس الدائم لمنظمة الدول الأمريكية

شكرًا لك ، الرئيس ، وشكرًا لكوستاريكا على دعوتها الكريمة لمخاطبة المجلس الدائم.

أتحدث نيابة عن حملة Stop Killer Robots ، وهي تحالف دولي يضم أكثر من 200 منظمة عضو من أكثر من 70 دولة تدعو إلى التفاوض بشأن صك جديد ملزم قانونًا بشأن أنظمة الأسلحة المستقلة. تحظى هذه الدعوة للتفاوض بدعم هائل من مجموعة واسعة من أصحاب المصلحة ، بما في ذلك الأمين العام للأمم المتحدة ، واللجنة الدولية للصليب الأحمر ، وآلاف الخبراء في التكنولوجيا والذكاء الاصطناعي ، والزعماء الدينيين ، والمجتمع المدني ، وغالبية الرأي العام.

كما ندرك جميعًا بلا شك ، فإن تقنيات الذكاء الاصطناعي وصنع القرار الآلي تتغلغل في المجتمع في مجالات متعددة. في المجال غير العسكري ، فإن المخاطر والتحديات المصاحبة لاستخدام الذكاء الاصطناعي والأنظمة الحسابية معترف بها على نطاق واسع ، وكذلك الحاجة إلى تنظيم فعال. في سبتمبر 2021 ، أشار تقرير صادر عن مفوض الأمم المتحدة السامي لحقوق الإنسان إلى أن `` تقنيات الذكاء الاصطناعي يمكن أن يكون لها آثار سلبية ، بل وكارثية ، إذا تم نشرها دون إيلاء اعتبار كاف لتأثيرها على حقوق الإنسان ''. دعا العديد من الشخصيات البارزة في الصناعة الحكومات إلى تعزيز اللوائح وإنشاء تشريعات وهيئات تنظيمية جديدة من أجل معالجة القضايا الخطيرة التي أثارها الذكاء الاصطناعي وتقنيات التعلم الآلي. على مستوى الاتحاد الأوروبي ، سيصوت البرلمان الأوروبي قريبًا لتمرير قانون الذكاء الاصطناعي ، الذي سيصبح قانونًا بحلول نهاية هذا العام ، والذي سينطبق على جميع الدول الأعضاء في الاتحاد الأوروبي. سيقدم قانون AI عددًا من المعايير والضمانات لتقنيات الذكاء الاصطناعي من أجل حماية حقوق الإنسان ، بما في ذلك متطلبات الشفافية وتصنيفات الذكاء الاصطناعي عالية الخطورة ، وسيحظر استخدام أنظمة التعرف على الوجه البيومترية في الأماكن العامة ، فضلاً عن حظر القياسات الحيوية أنظمة التصنيف وأنظمة التعرف على المشاعر وأنظمة الشرطة التنبؤية.

هناك حاجة ماسة لمثل هذه التدابير ، لأن هناك بالفعل أضرار جسيمة من الذكاء الاصطناعي وأنظمة صنع القرار المؤتمتة. لقد رأينا ضررًا كبيرًا ، في جميع أنحاء العالم ، من استخدام الذكاء الاصطناعي وتقنيات صنع القرار الآلي. لإعطاء مثالين فقط ، في هولندا ، قامت خوارزمية بوضع علامة خطأ على العائلات لارتكابها الاحتيال في رعاية الأطفال ، واستهداف العائلات المهاجرة على وجه الخصوص ، وتسبب في ضائقة مالية شديدة لآلاف الأشخاص. في الولايات المتحدة وغيرها من الولايات القضائية ، تم القبض على الأشخاص - وخاصة الأشخاص الملونين - بعد أن تم التعرف عليهم بشكل خاطئ من خلال أنظمة التعرف على الوجه والقياسات الحيوية. تولد الأنظمة الآلية والخوارزمية مخاوف خاصة بشأن التحيز والتمييز وعدم المساواة وكرامة الإنسان. أولئك الذين سيتحملون العبء الأكبر من آثار هذه التقنيات هم أولئك السكان الذين كانوا تاريخياً "الأكثر تضرراً وتضرراً من ظهور تقنيات وأنظمة أسلحة جديدة".

يجب اعتبار مدى إدراك العديد من الدول والهيئات والمنظمات الدولية في المجال المدني بالمخاطر والتحديات الجسيمة للذكاء الاصطناعي والتعلم الآلي كمصادقة للمخاوف ذات الصلة حول استخدام الذكاء الاصطناعي في المجال العسكري. أنظمة الأسلحة المستقلة ليست افتراضية. إننا نشهد اتجاهًا كبيرًا نحو زيادة الاستقلالية في الوظائف المختلفة لأنظمة الأسلحة ، بما في ذلك الوظائف الحاسمة مثل اختيار الهدف واستخدام القوة. تأتي هذه الأنظمة بأشكال وأحجام مختلفة. بعضها طائرات بدون طيار أو ذخائر متسكعة ؛ بعضها مركبات أرضية غير مأهولة ، مثل الدبابات. هناك ثلاثة أمثلة من الأنظمة المثيرة للقلق والتي يتم استخدامها بالفعل تشمل STM Kargu-2 ، و KUB-BLA من مجموعة كلاشينكوف ، ونظام LANIUS من Elbit System. Kargu-2 هي ذخيرة تسكع ذات قدرات طيران مستقلة ونظام التعرف التلقائي على الهدف ، وفي عام 2021 ، أفاد فريق خبراء تابع للأمم المتحدة أن Kargu-2 قد تم استخدامها في ليبيا ، وتم `` برمجتها لمهاجمة أهداف دون الحاجة إلى ذلك. اتصال البيانات بين المشغل والذخيرة. تم استخدام KUB-BLA من قبل روسيا في أوكرانيا ، ويقال أن لديها تقنية التعرف البصري بالذكاء الاصطناعي (AIVI) للتعرف على الأهداف وتصنيفها في الوقت الفعلي. تدعي Elbit Systems أن نظام LANIUS الخاص بها يمكنه تنفيذ "اكتشاف العدو" و "تصنيف التهديد" ، والتمييز بين المقاتلين وغير المقاتلين ، أو الأفراد المعادين مقابل الأصدقاء.

تزعم القدرة على التمييز بين المقاتلين والمدنيين ، وبين المقاتلين النشطين وغير القتاليين ، أو بين المدنيين والمدنيين ذوي الإعاقة والمدنيين المشاركين مباشرة في الأعمال العدائية على أساس البيانات التي حصلت عليها أجهزة الاستشعار ومعالجتها وتصنيفها بواسطة الخوارزميات. مخاوف قانونية وأخلاقية ومعنوية جادة. الأسلحة المستقلة لا "تنظر" إلينا كبشر. وبدلاً من ذلك ، "تشعرنا" الآلة بأننا مجموعة من نقاط البيانات. إذا كانت هذه المعلومات تتطابق مع ملف تعريف الهدف أو تناسبه ، فسيطبق نظام الأسلحة القوة. لا يوجد إنسان متورط في اتخاذ هذا القرار في الحياة أو الموت. يثير نزع الصفة الإنسانية الذي ينتج عن اختزال الأشخاص إلى نقاط بيانات بناءً على خصائص محددة أسئلة جادة حول كيفية إنشاء ملفات تعريف الهدف الخوارزمية ، وما هي البيانات الموجودة مسبقًا التي تستند إليها هذه الملفات الشخصية المستهدفة ، والبيانات التي تم تدريب الأنظمة عليها. كما أنه يثير تساؤلات حول كيف يمكن للمستخدم فهم ما يقع في ملف تعريف الهدف للسلاح ولماذا قرر نظام الأسلحة استخدام القوة. إن إعطاء الآلات القدرة على اتخاذ قرارات تتعلق بالحياة أو الموت يقوض كرامة الإنسان ويحرمنا من حقوقنا. بدلاً من أن يُنظر إليهم على أنهم أشخاص ، تتم معالجة الأشخاص كأشياء.

كما أشرت بالفعل ، هناك اعتراف واسع النطاق بأن الذكاء الاصطناعي وأنظمة صنع القرار المؤتمتة تمثل العديد من المخاطر والتحديات - أخلاقياً وقانونياً وأخلاقياً - وأن الاستجابات التنظيمية المحددة لهذه المخاطر والتحديات مطلوبة. في المجال العسكري ، تكون المخاطر والأضرار الناجمة عن مثل هذه الأنظمة ، ولا سيما أنظمة الأسلحة المستقلة ، شديدة ، وتنطوي على احتمال وفاة وإصابة الأفراد ، والحرمان من حقوق الإنسان الأساسية. يجب على الدول استخدام سلطتها لوضع قواعد جديدة ملزمة قانونًا ، تحتوي على مزيج من المحظورات واللوائح لأنظمة الأسلحة المستقلة. يجب على الدول أن تحظر أنظمة الأسلحة المستقلة التي لا يمكن استخدامها مع سيطرة بشرية ذات مغزى ، وأن تحظر الأنظمة التي تستخدم أجهزة الاستشعار لاستهداف البشر بشكل مباشر ، وأن تضع التزامات إيجابية لضمان تحكم بشري هادف في جميع الأنظمة الأخرى. هذه التكنولوجيا لا تنتظرنا في مكان ما في المستقبل - إنها هنا والآن ، وحان الوقت لكي تتصرف الدول.

شكرا.

 

 

 

الدكتورة كاثرين كونولي

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا