العنوان بلغة أخرى: |
النظام القانوني لمسؤولية المرفق العام عن استخدامات الأجهزة الذكية |
---|---|
المصدر: | المجلة الجزائرية للحقوق والعلوم السياسية |
الناشر: | المركز الجامعي أحمد بن يحي الونشريسي تيسمسيلت - معهد العلوم القانونية والإدارية |
المؤلف الرئيسي: | Rabhi, Ahcene (Author) |
المجلد/العدد: | مج9, ع1 |
محكمة: | نعم |
الدولة: |
الجزائر |
التاريخ الميلادي: |
2024
|
الشهر: | جوان |
الصفحات: | 1723 - 1737 |
DOI: |
10.51840/2115-009-001-091 |
ISSN: |
2507-7635 |
رقم MD: | 1484650 |
نوع المحتوى: | بحوث ومقالات |
اللغة: | الإنجليزية |
قواعد المعلومات: | EcoLink, IslamicInfo |
مواضيع: | |
كلمات المؤلف المفتاحية: |
الذكاء الاصطناعي | الروبوت | المسؤولية المرفقية | المسؤولية العقدية | المسؤولية الشخصية | المسؤولية الموضوعية | الخطأ | المخاطر | Artificial Intelligence | Robot | Vicarious Liability | Contractual Liability | Personal Liability | Objective Liability | Fault | Risks
|
رابط المحتوى: |
المستخلص: |
لقد ساهمت التطورات النوعية الحاصلة في مجال العلوم والتكنولوجيا إلى توسيع استخدامات تقنيات الذكاء الاصطناعي لا سيما الروبوتات هذه الظاهرة وإن كانت تتسم بجاذبية كبيرة من حيث المظهر بحكم قدرتها على "اختزال الجهد المادي البشري" على نطاق واسع، إلا أن تطور خصائصها الرئيسية لاسيما منها ذات المنظور الفني خلق- في المقابل -عدة مشاكل وتحديات قانونية، وهذا بسبب عدم كفاية المعايير والأسس القانونية الناظمة للمسؤولية، فالخوارزميات والشبكات العصبية وغيرها من البرامج الذكية قد تكون سببا في إلحاق أضرار مادية بالغير دون إمكانية حصر مسؤوليتها عن تغطية الأضرار، وهذا لأن الأسس التقليدية لهذه المنظومة القانونية عادة ما تفترض المسؤولية المباشرة للشخص الطبيعي (الموظف) أو الشخص المعنوي (المرفق العام) ولكن لا يوجد في ظل النظام القانوني التقليدي ما يحمل الروبوتات المسؤولية الخطئية أو المسؤولية في إطار المخاطر، الأمر الذي فرض على المجنع الفقهي إعادة رسم معادلة المسؤولية الإدارية بشكل جديد يكون فيه حضور ضروري للروبوت في إطار متعدد الأشكال، ونحن من جهتنا نقدم هذا الجهد كمحاولة نظرية لتأسيس البناء القانوني للمسؤولية الناجمة عن استخدامات الروبوت لاسيما في المجالين العسكري والطبي. Advancements in science and technology have expanded the use of artificial intelligence, particularly robots, due to their ability to significantly reduce human physical effort. However, this progress has introduced legal challenges, especially regarding liability. Current legal norms and rules are inadequate for addressing damages caused by algorithms, neural networks, and other intelligent programs. Traditional liability principles typically assign responsibility to natural persons (employees) or legal entities (public bodies), making it difficult to clearly define liability for AI-induced damages. Accordingly, this research explores the legal challenges and issues arising from the expanding use of artificial intelligence technologies, specifically robots. It points out the difficulty in attributing liability within the traditional legal framework, which typically assigns responsibility to natural persons (employees) or legal entities (public bodies). Consequently, the research aims to propose a theoretical approach for establishing a new legal framework to regulate administrative liability involving robots, with a particular focus on their application in military and medical fields |
---|---|
ISSN: |
2507-7635 |