العنوان بلغة أخرى: |
Civil Liability Resulting from the Illegal Use of AI Applications: Deep Fake is a Model |
---|---|
المصدر: | مجلة البحوث الفقهية والقانونية |
الناشر: | جامعة الأزهر - كلية الشريعة والقانون بدمنهور |
المؤلف الرئيسي: | الخولي، أحمد محمد فتحي (مؤلف) |
المؤلف الرئيسي (الإنجليزية): | Elkholy, Ahmed Mohamed Fathy |
المجلد/العدد: | ع36, ج2 |
محكمة: | نعم |
الدولة: |
مصر |
التاريخ الميلادي: |
2021
|
التاريخ الهجري: | 1443 |
الشهر: | أكتوبر |
الصفحات: | 221 - 293 |
ISSN: |
1110-3779 |
رقم MD: | 1223390 |
نوع المحتوى: | بحوث ومقالات |
اللغة: | العربية |
قواعد المعلومات: | IslamicInfo |
مواضيع: | |
كلمات المؤلف المفتاحية: |
المسئولية المدنية | تطبيقات | الذكاء الاصطناعي | التزييف العميق | Civil Responsibility | Applications | Artificial Intelligence | Deep Fake
|
رابط المحتوى: |
الناشر لهذه المادة لم يسمح بإتاحتها. |
المستخلص: |
إن التزييف العميق يقوم على تقنيات صناعة مقاطع الفيديو والصوت لشخصيات مختلفة بالاعتماد على التعلم الآلي. والتي تعد أحد سمات الذكاء الاصطناعي الذي بات يلعب دوراً مهما في شتي المجالات المختلفة. بما يساعد البشرية على تحقيق الإنجازات التي تتطلب قدرة غير عادية على التفكير والإدراك. إلا أن الاستخدام غير السليم لتكنولوجيا الذكاء الاصطناعي وما يتولد عنها من عمليات التزييف العميق سوف يتولد عنها انعدام للثقة في المحتوي المرئي والمسموع وهو الأمر الذي سيشكل عظيم القلق لدي رواد ومستخدمي تلك التكنولوجيا والقائمين على سياساتها. لذا فإن إثارة مفهوم المسئولية أصبح امر ضروري لحماية الأفراد والمؤسسات والمجتمعات من هول المخاطر التي تختلج بهذه التقنية. Deep fakes are based on the techniques of making video and audio clips of different characters, using machine learning. Which is one of the characteristics of artificial intelligence, which plays an important role in various different fields. Including helping humanity achieve achievements that require an extraordinary ability to think and perceive. However, the improper use of AI technology and the deep fake it generates will generate a lack of confidence in the visual and audiovisual content, which will be of great concern to the pioneers and users of this technology and those in charge of its policies. Therefore, raising the concept of responsibility has become necessary to protect individuals, institutions and societies from the enormous risks involved in this technology. |
---|---|
ISSN: |
1110-3779 |