العنوان بلغة أخرى: |
Smart Robots and the Scope of their Protection under Criminal Law: A Fundamental Analytical Study |
---|---|
المصدر: | المجلة العربية لعلوم الأدلة الجنائية والطب الشرعي |
الناشر: | جامعة نايف العربية للعلوم الأمنية - الجمعية العربية لعلوم الأدلة الجنائية والطب الشرعي |
المؤلف الرئيسي: | شوقي، محمد (مؤلف) |
المؤلف الرئيسي (الإنجليزية): | Chawki, Mohamed |
مؤلفين آخرين: | محمد، محمد أحمد المنشاوي (م. مشارك) , محمد، محمد سعيد عبدالعاطي (م. مشارك) |
المجلد/العدد: | مج5, ع1 |
محكمة: | نعم |
الدولة: |
السعودية |
التاريخ الميلادي: |
2023
|
الشهر: | يونيو |
الصفحات: | 102 - 120 |
ISSN: |
1658-6786 |
رقم MD: | 1393522 |
نوع المحتوى: | بحوث ومقالات |
اللغة: | العربية |
قواعد المعلومات: | IslamicInfo, HumanIndex |
مواضيع: | |
كلمات المؤلف المفتاحية: |
علوم الأدلة الجنائية | الذكاء الاصطناعي | الإنسآلة | القانون الجنائي | المجني عليه | المصلحة المحمية | Forensic Science | Artificial Intelligence | Robots | Criminal Law | Victims | Protected Interest
|
رابط المحتوى: |
المستخلص: |
بسبب تزايد استعمال تطبيقات الذكاء الاصطناعي، خاصة الإنسالة (Robots)، تزايد تفاعل هذه التطبيقات مع الأفراد؛ مما قد يترتب عليه حدوث اعتداء عليها، ويتطلب هذا الاعتداء، تدخل القانون الجنائي لحمايتها من هذه الاعتداءات؛ ولكن لحداثة هذه التطبيقات، وعدم وجود نصوص جنائية خاصة بها، حاولنا في هذ البحث أن نوظف النصوص الجنائية في قانون العقوبات، وكذلك النصوص الجنائية الخاصة بالجريمة المعلوماتية، لسد هذا الفراغ التشريعي، لحماية هذه التطبيقات؛ لذا برزت إشكالية هذا البحث، التي تتمثل في دور القانون الجنائي بقواعده العامة أو الخاصة في حماية الإنسآلة. وانتهينا إلى الأخذ بنظرية المصلحة المحمية جنائيا، كمعيار لتعريف المجني عليه، وطبقا لما أقره الاتحاد الأوروبي بنقل المسئولية المترتبة على أفعال الإنسآلة، إلى النائب الإنساني المسؤول، فإن صاحب المصلحة المحمية هو النائب الإنساني المسؤول المتحمل للمسئولية عن أفعال الإنسآلة، ومن ثم الإنسآلة لا تكون مجنيا عليها، وأن المجني عليه هو النائب الإنساني المسؤول؛ وبالنسبة للكيان المادي للإنسآلة: يمكن أن يعتبر من الأشياء، ولأنها تستطيع التحرك، والتصرف، واتخاذ قرارات، دون الحاجة إلى مالكها، ومع ذلك لم تحصل -حتى حينه- على الأهلية القانونية، وبالتالي فهي تعد من الأشياء الذكية، ذات الطبيعة الخاصة؛ لذلك يمكن حمايتها بالنصوص الجنائية الخاصة بحماية المكونات المادية للحاسب الآلي بقانون الجرائم المعلوماتية، أما الكيان المعنوي للإنسآلة: المتمثل في برامج الذكاء الاصطناعي، فهي تشير إلى نوعين من الأفعال الجرمية: في حق المبرمج، الذي يعتبر هذه البرامج نتاج عمل قريحته، وبالتالي يعد ابتكارا، وينطبق عليه قانون حق المؤلف، أما حق مالك الإنسآلة؛ فيكون له السيطرة عليها، وبالتالي يكون حقه المطلوب حمايته، هو حق ملكية، لذلك قانون الجرائم المعلوماتية، هو الأجدر بحماية هذا الحق. وأخيرا، إذا كان الاعتداء الذي وقع على الإنسآلة بفعل المبرمج صاحب حق الاختراع عليها، أو من المالك صاحب حق الملكية عليها، وفي ظل غياب النصوص الجنائية الخاصة بالإنسآلة، فلا مفر من اللجوء إلى النصوص الخاصة بالجمعيات الأهلية التي تعنى بحماية حقوقها والدفاع عنها، وهذا ما أقرته القواعد القانونية المدنية الخاصة بالروبوت –الإنسآلة- الصادرة عن الاتحاد الأوروبي، بضرورة إنشاء جمعيات أو نقابات يكون منوطا بها الدفاع عن حقوق وحماية الإنسآلة، مثل الوكالة الأوروبية للإنسآلة؛ بغية تحديد القواعد الأخلاقية لعملية التصنيع والاتجار، ولكن يظل طلب ضرورة التدخل التشريعي لإقرار حماية خاصة لكافة تطبيقات الذكاء الاصطناعي، حتى تتوافق مع طبيعتها الخاصة. Due to the continual increase use of artificial intelligence (AI) applications, especially robots, people’s interaction with these applications increases; a matter that may lead to aggressive activities. This requires that Criminal Law provisions should be applied to protect these applications against such aggression. However, due to the novelty of these applications as well as the lack of any relevant legal provisions, this paper shall attempt to employ the existing provisions of Criminal Code as well as those provisions on cybercrimes to bridge this gap in legislation, with the intention of protecting these new applications. This, in turn, leads to the research problem that has to do with the role of the penal code with all its general/private rules and provisions to protect the robots. In doing so, the authors relied on the theory of the interest protected by the Penal Code to identify the victim. As per the EU rule on transferring the labiality resulting from the robot’s actions to the human representative in charge, owner of the protected interest, that is, the human representative in charge is the person responsible for the robot’s actions, meaning that robots won’t be the victims, but rather the human representative in charge. Regarding the material es- sence of robots, it may be considered an item. Since they can neither move nor take a decision without their owners; that’s to say that they are not competent yet, they are considered smart items of special nature. This thus means that they can be protected under the criminal provisions relating to the protection of computer hardware by cybercrimes law. As for the robot’s incorporeal essence represented in the AI programs, it has to do with two kinds of criminal acts: against the programmer whose programs are the product of his thoughts and are thus considered an innovation. As such, the same law on the author’s right applies to the robot’s owner, since he has control over them. Therefore, his right to be protected is that of property. For this reason, Cybercrime Law is the most worthy to protect this very right. Finally, if the aggression against the robot is done by the programmer – owner of the invention – or by the owner, especially in light of the lack of criminal provisions on robots, there is no way out from resorting to provisions on the NGOs concerned with safeguarding the rights of these organizations. This is what is approved by the civil, legal rules on robots issued by the EU on the necessity of establishing associations and organizations entitled to defending the rights of robots, such as the European Agency on Robots, to define the ethical rules for manufacturing and conduct trade on robots. However, there is still a necessity for legislative interventions to protect all the AI apps so that they would be compatible with their special nature. |
---|---|
ISSN: |
1658-6786 |