ارسل ملاحظاتك

ارسل ملاحظاتك لنا







الحماية القانونية من مخاطر أدوات الذكاء الاصطناعي المستخدمة في تصفية المحتويات المرئية عبر شبكة الانترنت

العنوان بلغة أخرى: Legal Protection Against Risks of Artificial Intelligence Tools Used in Filtering Visual Content on the Internet
المصدر: مجلة البحوث الفقهية والقانونية
الناشر: جامعة الأزهر - كلية الشريعة والقانون بدمنهور
المؤلف الرئيسي: عبدالجواد، محمود عبدالجواد عبدالهادي (مؤلف)
المؤلف الرئيسي (الإنجليزية): Abdelhady, Mahmoud Abdelgawwad
المجلد/العدد: ع41, ج1
محكمة: نعم
الدولة: مصر
التاريخ الميلادي: 2023
التاريخ الهجري: 1444
الشهر: أبريل
الصفحات: 79 - 127
ISSN: 1110-3779
رقم MD: 1380172
نوع المحتوى: بحوث ومقالات
اللغة: العربية
قواعد المعلومات: IslamicInfo
مواضيع:
كلمات المؤلف المفتاحية:
الذكاء الاصطناعي | المسؤولية المشددة | تصفية المحتويات المرئية | Artificial Intelligence | Visual Content | Content Filtering | Internet
رابط المحتوى:
صورة الغلاف QR قانون
حفظ في:
المستخلص: تقدم تكنولوجيا الذكاء الاصطناعي المستخدمة في تصفية المحتوي المرئي المعروض على منصات العرض الرقمي خدمات كبيرة في تصفية المحتويات وفهرستها وترشيحها بما يعزز دورها التنافسي وتنظيم محتواها، كما أنها تنطوي على عدد من المخاطر أيضا، منها إمكانية التسبب في أضرار مباشرة لمستخدمي منصات عرض المحتوي المرئي عبر شبكات الإنترنت، حيث يثير استخدام تكنولوجيا الذكاء الاصطناعي كأداة لتصفية المحتوي في الأنظمة الأساسية لهذه المنصات تساؤلات قانونية حول نظام المسؤولية المتبع في الحالات التي تقع فيها أضرار بسبب أنشطة تصفية المحتوي، وذلك بسبب النقص التشريعي في القواعد القانونية المنظمة لاستخدام تكنولوجيا الذكاء الاصطناعي وكون أغلب القواعد القانونية ذات العلاقة قيد التطوير، أو غير موجودة، في حين أن مستخدمي هذه المنصات في ازدياد مستمر. وتقترح الدراسة تبني نظام مسئولية يحقق التوازن بين مالكي أو مشغلي أو مطوري هذه المنصات ومستخدميها بحيث تنشأ مسئولية الطرف الأقوى بمجرد وقوع الضرر، باعتبار أن هذا النوع من المسئولية أكثر مناسبة للظروف المحيطة بتوظيف أدوات الذكاء الاصطناعي في تصفية وترشيح المحتوي المرئي في منصات العرض الرقمي عبر شبكات الإنترنت.

Artificial intelligence technology used for filtering visual content on digital display platforms provides valuable services in content filtering, indexing, and organization, thereby enhancing its competitive edge. However, the use of AI technology in content filtering on the internet raises legal questions about liability in cases where damages occur. This is due to the lack of legal rules regulating the use of AI technology and the fact that most relevant laws are either still in development or non-existent, while the number of platform users continues to grow. To address this, the study suggests adopting a liability system that strikes a balance between platform owners, operators, or developers and their users, such that the stronger party assumes responsibility when damage occurs. This type of liability is more suitable for situations involving the use of AI tools in visual content filtering on digital display platforms via the internet.

ISSN: 1110-3779

عناصر مشابهة