صورة بطل القائمة
صورة أسطول من الطائرات العسكرية على اليسار. على اليمين صورة يدي شخص يتحكم في طائرة بدون طيار شوهدت من بعيد. الصور مفصولة بخط مثقوب.

ما هو قانون الذكاء الاصطناعي واتفاقية مجلس أوروبا

الثغرات المحتملة في التشريعات الأوروبية الجديدة تعني أنه يمكن استخدام تقنيات الذكاء الاصطناعي المتطفلة كلما تم التذرع بأسباب "الأمن القومي"

* هذه المدونة بقلم فرانشيسكا فانوتشي ، مستشار قانوني أول في المركز الأوروبي للقانون غير الهادف للربح (ECNL) وكاثرين كونولي ، أوقفوا الروبوتات القاتلة مدير أبحاث القرار الآلي

تتفاوض المؤسسات التشريعية الثلاث للاتحاد الأوروبي - أي المفوضية الأوروبية والبرلمان الأوروبي ومجلس الاتحاد الأوروبي - حاليًا على اقتراح لتنظيم الذكاء الاصطناعي (AI) في الدول الأعضاء الـ 27 في الاتحاد الأوروبي. وبشكل أكثر تحديدًا ، سيضع قانون الذكاء الاصطناعي للاتحاد الأوروبي (قانون الذكاء الاصطناعي) قواعد والتزامات مشتركة لمقدمي ومستخدمي الأنظمة القائمة على الذكاء الاصطناعي (أي الناشرون) في السوق الداخلية للاتحاد الأوروبي. من المتوقع أن يتم الانتهاء من AIA قبل نهاية عام 2023.

 

في الوقت نفسه ، يتفاوض مجلس أوروبا (CoE) - وهو منظمة حكومية دولية مختلفة مكونة من 46 دولة عضو ، بما في ذلك 27 دولة عضو في الاتحاد الأوروبي - بشأن معاهدة دولية - تُعرف أيضًا باسم "الاتفاقية الإطارية" - بشأن تطوير وتصميم وتطبيق أنظمة الذكاء الاصطناعي على أساس معايير مجلس أوروبا لحقوق الإنسان والديمقراطية وسيادة القانون. ستكون الاتفاقية الإطارية مفتوحة لانضمام الدول الأخرى غير الأوروبية أيضًا ، وستتحول إلى أداة عالمية لوضع المعايير الخاصة بالذكاء الاصطناعي.

 

الصكين القانونيين - قانون الاتحاد الأوروبي للذكاء الاصطناعي وإطار عمل مركز التميز - قد يتداخلان في بعض القضايا لكنهما يكملان بعضهما البعض بشكل أساسي ، حيث سيضع الأول قواعد مشتركة لمواءمة السوق الداخلية لأنظمة الذكاء الاصطناعي في الاتحاد الأوروبي ، في حين سيركز الأخير على أنظمة الذكاء الاصطناعي "الامتثال لحقوق الإنسان الراسخة دوليًا والديمقراطية وسيادة القانون. لكن، تدرس مفاوضات كل من الاتحاد الأوروبي ومجلس أوروبا استبعاد أنظمة الذكاء الاصطناعي المصممة والمطورة والمستخدمة للأغراض العسكرية ، ومسائل الدفاع الوطني والأمن القومي من نطاق أطرهم التنظيمية النهائية. 

 

بصفتنا مدافعين عن المجتمع المدني وحقوق الإنسان ، نشعر بقلق بالغ إزاء هذه الاستثناءات المقترحة وتأثيرها التراكمي إذا وافق عليها كل من الاتحاد الأوروبي ومجلس أوروبا: إذا لم يقم الاتحاد الأوروبي ضمن دوله الأعضاء البالغ عددها 27 دولة بمواءمة قواعد أنظمة الذكاء الاصطناعي للأغراض العسكرية والدفاع الوطني وأغراض الأمن القومي ، ولم يضع مجلس أوروبا معايير حقوق الإنسان الملزمة التي تنطبق على أنظمة الذكاء الاصطناعي للدفاع الوطني والأمن القومي في 47 دولة عضو وأطراف أخرى في الاتفاقية الإطارية ، سيكون لدينا فجوة تنظيمية ضخمة تؤثر على تصميم ونشر واستخدام هذه الأنظمة. لنكون واضحين تمامًا: نحن لا نؤكد أنه لا توجد قواعد على الإطلاق ستطبق عليهم ، حيث تحتفظ الدول الفردية بسلطة اعتماد اللوائح في نطاق ولايتها القضائية. ومع ذلك ، فإن القواعد المختلفة المحتملة على المستوى الوطني لن تكون فعالة ، لأن سياسات الدفاع الوطني مترابطة حتمًا مع بعضها البعض ، ولها تأثير خارج الإقليم الوطني ، ويجب أيضًا أن تأخذ في الاعتبار تصرفات اللاعبين الدوليين الكبار مثل الولايات المتحدة والصين ودول أخرى. الاتحاد الروسي. ما نحتاجه هو الحد الأدنى من الضمانات التنظيمية الأساسية المشتركة ، بما في ذلك تقييمات الأثر الإلزامية على حقوق الإنسان للأنظمة القائمة على الذكاء الاصطناعي التي يمكن تطويرها واستخدامها في تلك السياقات.

 

عندما نتحدث عن تصميم وتطوير واستخدام أنظمة الذكاء الاصطناعي في القطاع العسكري أو للدفاع الوطني ، فقد يكون من الغريزي بالنسبة لنا أن نفكر على الفور في الأسلحة المستقلة ، أو غيرها من أنظمة الأسلحة التي تدعم الذكاء الاصطناعي. لكن يمكن للقطاع العسكري وقطاع الدفاع الوطني استخدام أنواع أخرى من الذكاء الاصطناعي - وفي بعض الحالات يستخدمها بالفعل في الممارسة - أنواع أخرى من الذكاء الاصطناعي ، على سبيل المثال:

  • أجهزة التعرف على التهديدات عبر أجهزة استشعار تعاونية ومستقلة ، على سبيل المثال ، المركبات الجوية والبرية التي تكتشف التهديدات - مثل سفن العدو وسلوكهم المتوقع - عبر الذكاء الاصطناعي ، (مثل هذه العناصر لديها تم تطويره بالفعل من قبل الجيش الأمريكي);
  • أجهزة ترسم خرائط ساحات القتال في الوقت الفعلي، لا يزال من خلال أجهزة استشعار متنقلة وتعاونية ومستقلة ، من أجل تحديد الأهداف للهجوم وإبعاد المناطق المدنية ؛
  • تم نشر أدوات التعرف على الوجوه على الحدود لاكتشاف تسلل العدو (انظر ، على سبيل المثال ، وزارة الدفاع الأوكرانية استخدام Clearview AI للكشف عن الأفراد الروس)
  • أجهزة التوظيف التي تستخدمها وكالات الدفاع الوطني ، استنادًا إلى أنظمة الذكاء الاصطناعي التي تحدد المرشحين المناسبين عن طريق فرز السير الذاتية ، والبحث في قواعد البيانات الحالية للزيارات / الاستفسارات التي تم تلقيها في الماضي وتحديد الاتجاهات (على سبيل المثال ، المرشحين الناجحين على الأرجح من مجموعة عرقية معينة أو الخلفية التعليمية ، وما إلى ذلك) ؛؛
  • أدوات التدريب القائمة على الذكاء الاصطناعي التي تقدم محتوى للإعداد وقياس التقدم الذي أحرزه الأفراد العسكريون (مستخدمة بالفعل ، على سبيل المثال ، في الولايات المتحدة بواسطة برامج تجريبية لسلاح الجو).
  • تمت إضافة أنظمة الذكاء الاصطناعي إلى المركبات ذاتية القيادة حتى يتمكن الأفراد العسكريون من الحصول على المساعدة في سفرهم.

 

إذا فكرنا في الأمر ، فإن معظم هذه الأجهزة غير المخصصة للأسلحة ، حتى عندما يتم بحثها أو تصميمها خصيصًا للاستخدام في القطاع العسكري ، تكون ذات طبيعة "مزدوجة الاستخدام" ، لأنه يمكن تكييفها وإعادة تصميمها للاستخدام المدني بالإضافة إلى ذلك: على سبيل المثال ، تُستخدم بالفعل أجهزة التعرف على التهديدات القائمة على الذكاء الاصطناعي لتدريب المركبات ذاتية القيادة على التعرف على الأخطار في الشارع ؛ التعرف على المشاعر مستخدم بالفعل للاختبار ردود فعل العملاء على المنتجات المعلن عنها؛ يمكن استخدام أجهزة التوظيف القائمة على الذكاء الاصطناعي من قبل الشركات الخاصة أو حتى الجامعات ساعدهم في اختيار أفضل المرشحين؛ تُستخدم مناطق رسم الخرائط القائمة على الذكاء الاصطناعي في أنظمة الملاحة GPS fأو تحديد المسارات المثلى (على سبيل المثال ، المسارات الأقصر والأقل ازدحامًا ، وما إلى ذلك). علاوة على ذلك ، يمكن أن يكون تأثيرها على الأهداف المدنية والعسكرية غير ضروري وغير متناسب حتى عندما لا يؤدي ذلك إلى خسائر في الأرواح ، لأنه لا يزال من الممكن أن يهدد حقوق الإنسان الخاصة بهم ، مثل الحق في الخصوصية وعدم التمييز (على سبيل المثال ، انظر حالة سيئة السمعة أداة التوظيف في أمازون التي انتهى بها الأمر لصالح المرشحين الذكور فقط).

 

بيغاسوس الشهير من مجموعة NSO برامج التجسس هو أيضًا مثال ممتاز للتكنولوجيا التي يشار إليها اسميًا على أنها "مطورة أو مستخدمة حصريًا لأغراض الأمن القومي والدفاع". ومع ذلك ، فقد أوضحت هذه الممارسة كيف تم استخدام هذه التكنولوجيا أيضًا لأغراض الأمن القومي أو إنفاذ القانون (وفي الواقع ، تفاخرت الشركة بأنها ساعدت السلطات في اكتشاف عصابات تجارة المخدرات والأنشطة الإجرامية الأخرى) وتم إساءة استخدامها حتى في تلك الظروف ، مما أدى إلى انتهاكات حقوق الإنسان: تشمل الأمثلة البارزة لهذه الانتهاكات المراقبة الجماعية العشوائية للمعارضين السياسيين والمحامين والمدافعين عن حقوق الإنسان والصحفيين والأكاديميين وكبار المسؤولين الحكوميين وممثلي المجتمع المدني وما إلى ذلك ، الذين تم اختراق هواتفهم المحمولة وتسريب بياناتهم من قبل حكوماتهم الذين اشتروا هذه التكنولوجيا وأعادوا تخصيصها لأنشطة التجسس الخاصة بهم.

 

So لماذا يجب على الوجهة المزعومة لأنظمة الذكاء الاصطناعي للجيش أو الأمن القومي أو قطاع الدفاع الوطني إعفائها تمامًا من تقييمات الأثر ، والحد الأدنى من الشفافية والتزامات المساءلةالذي نتوقعه عند تطبيق نفس الأنظمة في القطاع المدني؟ 

 

مثل المركز الأوروبي للقانون غير الهادف للربح (ECNL) سبق الإشارة إليه فيما يتعلق بـ AIA ، "بدون ضمانات تنظيمية مناسبة ، يمكن استخدام التقنيات القائمة على الذكاء الاصطناعي المتطفلة - بما في ذلك مع نتائج المراقبة الجماعية - في القطاع العام دون قيود أو ضمانات خاصة عندما تتذرع دولة عضو بأسباب" الأمن القومي ". حتى أنظمة الذكاء الاصطناعي التي تقدم مستويات "غير مقبولة" من المخاطر وبالتالي تحظرها AIA يمكن "إعادة إحيائها" أو "إعادة تدويرها" بسهولةForالغرض الحصري للأمن القومي ، الذي يؤثر على حرياتنا في التنقل والتجمع والتعبير والمشاركة والخصوصية ، من بين أمور أخرى.

 

يتم البحث عن استثناءات لأنظمة الذكاء الاصطناعي مصممة ومطورة ومستخدمة للأغراض العسكرية ومسائل الدفاع الوطني والأمن القومي على مستوى الاتحاد الأوروبي ومجلس أوروبا ، يسلط الضوء بشكل أكبر على الفجوات التنظيمية الدولية الأوسع عندما يتعلق الأمر بالذكاء الاصطناعي واستخدامه للأغراض العسكرية والأمن القومي والدفاع الوطني. كما هو مذكور أعلاه ، سيتم استخدام أنظمة الذكاء الاصطناعي للعديد من الأغراض العسكرية المختلفة ، بما في ذلك أنظمة الأسلحة ذات القدرات الذاتية. 

 

فيما يتعلق بتنظيم الأسلحة المستقلة ، اللجنة الدولية للصليب الأحمر وقد حث الدول للتفاوض بشأن قواعد جديدة ملزمة قانونًا بشأن الحكم الذاتي في أنظمة الأسلحة ، تحتوي على كل من المحظورات واللوائح. منذ ما يقرب من عشر سنوات ، استمرت المناقشات على مستوى الأمم المتحدة حول أنظمة الأسلحة المستقلة بموجب اتفاقية أسلحة تقليدية معينة (CCW). شاركت غالبية الدول في هذه المناقشات دعم التفاوض على قواعد دولية جديدة على أنظمة الأسلحة المستقلة ؛ ومع ذلك ، فإن أقلية صغيرة من الدول ذات العسكرة الشديدة الاستمرار في منع التقدم. على مستوى الاتحاد الأوروبي ، في كليهما 2021 و 2018، أصدر البرلمان الأوروبي قرارات تدعو إلى بدء مفاوضات بشأن صك ملزم قانونًا بشأن الأسلحة ذاتية التشغيل. تقرير 2022 للجنة الخاصة بالبرلمان الأوروبي حول الذكاء الاصطناعي في العصر الرقمي (AIDA) أيضًا اتصل لاجل إطلاق المفاوضات ، بحجة أن "الآلات لا يمكنها اتخاذ قرارات شبيهة بالبشر تتضمن المبادئ القانونية للتمييز والتناسب والحيطة". وفي الوقت نفسه ، يستمر التقدم التكنولوجي في هذا المجال على قدم وساق ينمو في الانتشار، مع أنظمة عديدة تدمج الآن وظائف مستقلة مختلفة ، مثل التعرف على الهدف و تصنيف التهديد قدرات. لا يمكن أن تكون الحاجة الملحة لقواعد دولية جديدة بشأن الحكم الذاتي في أنظمة الأسلحة أكثر وضوحا.

 

ومع ذلك ، ركزت المناقشات حول الحكم الذاتي في أنظمة الأسلحة في الأمم المتحدة وداخل هيئات الاتحاد الأوروبي حتى الآن بشكل أساسي على استخدام مثل هذه الأنظمة في النزاع ، وفي سياق القانون الإنساني الدولي. من الضروري أن تأخذ الدول والهيئات والمنظمات الدولية أيضًا في الاعتبار حقوق الإنسان عند النظر في الذكاء الاصطناعي في أنظمة الأسلحة ، وكذلك عند النظر في جميع أنظمة الذكاء الاصطناعي الأخرى المستخدمة للأغراض العسكرية والأمن القومي والدفاع الوطني. 

 

لطالما كانت الحدود بين تقنيات الحرب وتقنيات قوة الدولة والشرطة مليئة بالثغرات. نزع الإنسانية الرقمية و أضرار موثقة جيدًا من أنظمة الذكاء الاصطناعي ، التي تؤثر بشكل خاص على الفئات المهمشة والأكثر ضعفًا في مجتمعاتنا ، لن تقتصر على القطاع المدني. يجب أن يضمن الاتحاد الأوروبي ومجلس أوروبا ما يلي: أ) لا توجد استثناءات شاملة لـ أنظمة الذكاء الاصطناعي المصممة والمطورة والمستخدمة للأغراض العسكرية ومسائل الدفاع الوطني والأمن القومي ؛ ب) تقوم هذه الأنظمة بتقييم المخاطر والأثر قبل نشرها وطوال فترة استخدامها. إن الفشل في تضمين مثل هذه الأنظمة في نطاق AIA وإطار عمل مركز التميز سيمثل انتقاصًا خطيرًا للمسؤولية من جانب هذه المؤسسات. يدعو ECNL جميع مواطني الاتحاد الأوروبي ومجلس أوروبا والمقيمين فيه إلى الاتصال بممثلي حكومتهم وبرلمانهم ودعوتهم لتشجيع حكوماتهم على ضمان عدم وجود استثناءات شاملة ، وأن تقييمات المخاطر مطلوبة ، في مفاوضات قانون الاتحاد الأوروبي للذكاء الاصطناعي. واتفاقية مجلس أوروبا الإطارية بشأن الذكاء الاصطناعي. تدعو شركة Stop Killer Robots إلى إجراء مفاوضات عاجلة بشأن قانون دولي جديد بشأن الحكم الذاتي في أنظمة الأسلحة - لإظهار دعمك ، يرجى التوقيع على عريضتنا هنا

 

فرانشيسكا فانوتشي * وكاثرين كونولي

نص بديل للصورة
رمز نقاط SKR

أوقف الروبوتات القاتلة

انضم إلينا

مواكبة آخر التطورات في حركة Stop Killer Robots.

انضم إلينا