ارسل ملاحظاتك

ارسل ملاحظاتك لنا







بعض التحديات التي تثيرها أنظمة الأسلحة الفتاكة ذاتية التشغيل على الصعيدين القانون والأخلاقي

المصدر: المجلة القانونية والقضائية
الناشر: وزارة العدل - مركز الدراسات القانونية والقضائية
المؤلف الرئيسي: الشاوي، سما سلطان (مؤلف)
المجلد/العدد: س14, ع2
محكمة: نعم
الدولة: قطر
التاريخ الميلادي: 2020
الصفحات: 331 - 437
رقم MD: 1281416
نوع المحتوى: بحوث ومقالات
اللغة: العربية
قواعد المعلومات: IslamicInfo
مواضيع:
رابط المحتوى:
صورة الغلاف QR قانون

عدد مرات التحميل

92

حفظ في:
المستخلص: أدت التطورات المتسارعة في ميدان الصناعات الحربية باستعمال التكنولوجيا الحديثة إلى إنتاج منظومات تعمل بتقنية الذكاء الاصطناعي وغيرها من التقنيات المتطورة؛ بحيث يمكن الاعتماد على هذه المنظومات في تنفيذ مهمات عسكرية متنوعة تتدرج من جمع المعلومات الاستخباراتية، ونقل المعدات الحربية، وأعمال البحث عن الألغام إلى استعمال القوة ضد الأهداف العسكرية من خلال الطائرات المسيرة بدون طيار مثلا. وقد ظهر الجدل بخصوص الأنظمة ذاتية التشغيل التي تستخدم القوة القاتلة لمهاجمة الخصم والتي يطلق عليها أنظمة الأسلحة الفتاكة ذاتية التشغيل، أو ما يعرف بـــ (Lethal Autonomous Weapon Systems) أو (Lethal Autonomous Robots). وعلى الرغم من أن أنظمة الأسلحة الفتاكة التي تكون ذاتية التشغيل بالكامل غير موجودة لحد الآن، إلا أن الجدل بشأنها قائم منذ فترة لجهة تسارع وتيرة التقدم التكنولوجي الذي قد يجعل من إمكانية تطويرها وإنتاجها مسألة وقت ليس إلا. إن خاصية التشغيل الذاتي الكامل لهذه الأنظمة تثير تحديات على الصعيدين القانوني والأخلاقي. فأنظمة من هذا النوع ستكون قادرة على اتخاذ قرارات باستعمال قوة فتاكة؛ بحيث لن يكون للعنصر البشري تدخل فيها. فهل استعمال هذه الأسلحة يأتي منسجما مع القانون الدولي؟ وهل يعتبر مقبولا من الناحية الأخلاقية أن تتولى آلة (مجردة من المشاعر والإحساس) اتخاذ قرار بإزهاق روح إنسان أو الإبقاء عليها؟ يحاول هذا البحث إلقاء الضوء على بعض الأبعاد القانونية والأخلاقية لاستعمال هذه الأسلحة وموقف القانون الدولي الحالي منها، وعلى وجه الخصوص القانون الدولي الإنساني والقانون الدولي لحقوق الإنسان. وهو لا يهدف إلى تقديم أجوبة للأسئلة الجوهرية التي يثيرها هذا الموضوع، بقدر ما يحاول طرح الموضوع مع التعقيدات التي يثيرها.

Lethal autonomous weapon systems that act independently after being operated to perform the “critical functions” of identifying, tracking, selecting and attacking targets gained a lot of attention during the recent decades. Although such fully autonomous weapon systems, do not exist up until now, however, the constant developments in the field of information technology and artificial intelligence and robotics, made the ability to develop and produce them just a matter of time. The full automation of these systems gives rise to challenges at both legal and ethical levels. It presumes that there is no human control over the decisions made by these systems once operated. Hence, it is uncertain how these systems are to function in a cluttered environment to which they were not programed to in the first place. Their actions might not be predictable, especially when it comes to the use of deadly force, which brings the issue of compliance with international humanitarian law that limits the rights of the parties to the conflict to choose means and methods of warfare. On the other hand, one cannot ignore the ethical aspect associated with the use of such systems. Is it ethically accepted that decisions relating to the life or death of humans are left to be made by a machine, where the life, value and dignity of the targeted person are not more than just algorithms? This paper tries to shed the light on some of those legal and moral challenges related to the use of such weapon systems and the stance of the current international law, particularly, international humanitarian law and international human rights law, towards them. It is not intended to provide specific answers to the questions raised by the use of these weapon systems, but to bring up the topic with its complexities.