LEADER |
05641nam a2200229 4500 |
001 |
2164277 |
041 |
|
|
|a ara
|
044 |
|
|
|b الإمارات
|
100 |
|
|
|a البابلي، عمار ياسر محمد زهير
|g Al-Babli, Ammar Yasir Mohammed Zuhair
|e مؤلف
|9 570050
|
245 |
|
|
|a المخاطر الأمنية للتزييف العميق وآليات المواجهة
|
246 |
|
|
|a Security Risks of Deepfakes and Coping Mechanisms
|
260 |
|
|
|b القيادة العامة لشرطة الشارقة - مركز بحوث الشرطة
|c 2023
|g أكتوبر
|
300 |
|
|
|a 167 - 222
|
336 |
|
|
|a بحوث ومقالات
|b Article
|
520 |
|
|
|a تناول البحث المخاطر الأمنية للتزييف العميق وآليات المواجهة والـ (Deepfake) تقنية تستخدم الذكاء الاصطناعي (AI) لإنشاء مقاطع فيديو وأصوات وصور مزيفة تبدو واقعية لدرجة أنه يصعب التفريق بينها وبين المحتوى الأصلي، وله مخاطر كانتشار المعلومات الزائفة والاحتيال والاستدراج حيث يتم إنشاء فيديوهات تبدو كأنها من أشخاص حقيقيين لطلب المعلومات الشخصية وتهديد الخصوصية فيديوهات مزيفة لأشخاص دون موافقتهم، مما ينتهك خصوصيتهم ويتسبب في أضرار نفسية واجتماعية ولخلق تصرفات وتصريحات مزيفة للشخصيات العامة أو السياسيين بهدف التأثير على القرارات السياسية أو الاقتصادية، وهي أداة من أدوات الحرب النفسية وترتفع هذه الظاهرة بسبب التزايد العددي لمواقع ومنصات التوصل الاجتماعي وصولا 4.9 مليار حول العالم، وتم الاعتماد المنهج الوصفي التحليلي لوصف المشكلة واستعراض التقنيات الداعمة لكشف التزييف العميق. ويهدف البحث إلى شرح كيفية صناعة تلك المزيفات باستخدام الذكاء الاصطناعي، وكيفية نشرها وتداولها ومخاطرها المجتمعية، وتوصلت النتائج إلى أن تلك الظاهرة تؤثر سلبيا على الأشخاص داخل المجتمعات والتفكك الأسري وصولا لتشويه السمعة والانتحار. وأسفرت الدراسة إلى تعزيز آليات التقييم الدقيق للمحتوى المنشور عبر مواقع التواصل الاجتماعي باستخدام الخوارزميات والتعلم الآلي والعميق والشبكات العصبية الاصطناعية وعودة التوعية الأسرية والمجتمعية والإعلامية، والاستعانة بتقنية التعاملات الرقمية (بلوك تشين) في تنفيذ المعاملات الحكومية والإعلامية.
|b The research addresses the security risks of deep fakes, coping mechanisms, and Deepfake technology using artificial intelligence (AI) to create fake videos, sounds, and images that seem realistic and are challenging to differentiate from original content. It has risks such as spreading false information, fraud, and solicitation, where videos created appear as real people to request personal information and threaten their privacy. This can cause psychological and social harm by making false actions and statements to public figures or politicians intending to influence political or economic decisions. This phenomenon rises due to the numerical increase of social sites and platforms, up to 4.9 billion worldwide. The analytical descriptive methodology was adopted to describe the problem and review the techniques supporting the detection of deepfakes. The research aims to explain how these fakes are made using artificial intelligence, how they are spread, and their societal risks. The findings showed that this phenomenon negatively affects people within societies, causing family disintegration, defamation, and suicide. The study strengthened the mechanisms for accurately evaluating content posted on social media sites using algorithms, machine learning, in-depth and synthetic neural networks, spreading families, society, and media awareness, and the use of block chain in implementing government and media transactions.
|
653 |
|
|
|a المنصات الإلكترونية
|a تقنية التزييف العميق
|a حقوق الإنسان
|a انتهاك الخصوصية
|
692 |
|
|
|a التزييف العميق
|a الذكاء الاصطناعي
|a الشبكات العصبية
|a التعلم الآلي والعميق
|a نظام GAN
|a البلوك تشين
|a نظام توليد البيانات
|a تقنية الهندسة العكسية
|a منصات التواصل الاجتماعي
|a الشائعات الإلكترونية
|a المحتوى المزيف
|b Deepfake
|b Artificial Intelligence
|b Neural Networks
|b Machine and Deep Learning
|b GAN System
|b Blockchain
|b Data Generation System
|b Technology "Reverse Engineering"
|b Social Media Platforms
|b Electronic Rumors
|b Fake Content
|
773 |
|
|
|4 العلوم الاجتماعية ، متعددة التخصصات
|4 العلوم الإنسانية ، متعددة التخصصات
|6 Social Sciences, Interdisciplinary
|6 Humanities, Multidisciplinary
|c 004
|f Al-fikr al-šurṭī
|l 127
|m مج32, ع127
|o 1388
|s الفكر الشرطي
|t Police thought
|v 032
|x 1681-5297
|
856 |
|
|
|u 1388-032-127-004.pdf
|
930 |
|
|
|d y
|p y
|q n
|
995 |
|
|
|a HumanIndex
|
999 |
|
|
|c 1415794
|d 1415794
|