ارسل ملاحظاتك

ارسل ملاحظاتك لنا









The Impact of the Privacy Paradox in Artificial Intelligence and Digital Transformation: A Dynamic Capability Approach to Managing Deepfakes

العنوان بلغة أخرى: تأثير مفارقة الخصوصية في الذكاء الاصطناعي والتحول الرقمي: نهج القدرة الديناميكية لإدارة التزييف العميق
المصدر: الإداري
الناشر: معهد الإدارة العامة
المؤلف الرئيسي: ليانااراتشي، جاجيندرا (مؤلف)
المؤلف الرئيسي (الإنجليزية): Lianarachi, Jagendra
مؤلفين آخرين: فيجليا، جيامباولو (م. مشارك) , إنفيرنيزي، آنا كيارا (م. مشارك)
المجلد/العدد: س44, ع170
محكمة: نعم
الدولة: سلطنة عمان
التاريخ الميلادي: 2024
التاريخ الهجري: 1446
الشهر: ديسمبر
الصفحات: 163 - 202
DOI: 10.52789/0302-044-170-005
ISSN: 2313-3244
رقم MD: 1548766
نوع المحتوى: بحوث ومقالات
اللغة: الإنجليزية
قواعد المعلومات: EcoLink
مواضيع:
كلمات المؤلف المفتاحية:
الذكاء الاصطناعي | التحول الرقمي | التزييف العميق | مفارقة الخصوصية | القدرة الديناميكية | استراتيجية الخصوصية | Artificial Intelligence | Digital Transformation | Deepfakes | Privacy Paradox | Dynamic Capability | Privacy Strategy
رابط المحتوى:
صورة الغلاف QR قانون
حفظ في:
المستخلص: تبحث هذه الدراسة في كيفية قيام الذكاء الاصطناعي والتحول الرقمي بإعادة تشكيل مخاوف خصوصية المستهلك، مع التركيز على المخاطر المتزايدة التي تشكلها تكنولوجيا التزييف العميق. يشير التحول الرقمي إلى دمج التقنيات الرقمية في جميع مجالات الأعمال، مما يؤدي إلى تغيير جذري في كيفية عمل المؤسسات وتقديم القيمة للعملاء. إنها مدفوعة بقدرة الذكاء الاصطناعي على تمكين اتخاذ القرار في الوقت الفعلي والتخصيص، والكفاءة التشغيلية، مما يجعلها حجر الزاوية في استراتيجية الأعمال الحديثة. في حين يعمل الذكاء الاصطناعي على تعزيز التخصيص والسرعة التشغيلية واتخاذ القرار في الوقت الفعلي، فإنه يقدم أيضا تحديات معقدة تتعلق بالخصوصية والأمان. تعمل تقنية Deepfakes- التلاعب بالوسائط التي يولدها الذكاء الاصطناعي- على تكثيف هذه المخاطر، مما يقوض حماية خصوصية المستهلك ويخلق تهديدا للتحول الرقمي. يهدف هذا البحث إلى فهم مفارقة الخصوصية في سياق الذكاء الاصطناعي والتعرض للتزييف العميق، واستكشاف التحديات التنظيمية المرتبطة بها، واقتراح استراتيجيات قابلة للتنفيذ للتخفيف من حدتها. ومن خلال المنهج التجريبي، نقوم بتقييم تأثير التعرض للتزييف العميق بشأن مخاوف خصوصية المستهلك. تشير النتائج التي توصلنا إليها إلى أن المشاركين في كثير من الأحيان لا يستطيعون التعرف على التزييف العميق باعتباره مزيفًا. علاوة على ذلك، كثيرًا ما يُنظر إلى مقاطع الفيديو الأصلية على أنها مزيفة. لذلك، من الضروري تحديد ممارسات الذكاء الاصطناعي للتخفيف من تهديدات التزييف العميق وحماية الشركات والمستهلكين. نحن نساهم في الأدبيات من خلال توسيع مفهوم مفارقة الخصوصية داخل البيئات التي تعتمد على الذكاء الاصطناعي وتوسيع إطار القدرات الديناميكية ليشمل الخصوصية باعتبارها الكفاءة التنظيمية الأساسية. نقترح إطار عمل مبتكر لاستراتيجية الخصوصية الديناميكية (DPS) لمعالجة هذه التحديات، وتحويل إدارة الخصوصية كقدرة استراتيجية بدلاً من كونها متطلبا تنظيميا. كما نقدم أيضا نموذجا عمليا للمؤسسات التي تتنقل في تعقيدات ابتكار الذكاء الاصطناعي والتحول الرقمي.

This study examines how artificial intelligence (AI) and digital transformation reshape consumer privacy concerns, focusing on the heightened risks posed by deepfake technology. Digital transformation refers to integrating digital technologies into all business areas, fundamentally changing how organizations operate and deliver customer value. It is driven by AI’s ability to enable real-time decision-making, personalization, and operational efficiency, making it a cornerstone of modern business strategy. While AI enhances personalization, operational agility, and real-time decisionmaking, it also introduces complex privacy and security challenges. Deepfakes-AI- generated manipulations of media—intensify these risks, undermining consumer privacy protection and creating a threat to digital transformation. This research aims to understand the privacy paradox in the context of AI and deepfake exposure, explore the associated organizational challenges, and propose actionable strategies for mitigation. Through an experimental approach, we assess the impact of deepfake exposure on consumer privacy concerns. Our findings indicate that participants often cannot recognize a deepfake as fake. Moreover, genuine videos are frequently perceived as fake. Therefore, it is essential to identify AI practices to mitigate deepfake threats and safeguard businesses and consumers. We contribute to the literature by extending the concept of the privacy paradox within AI-driven environments and broadening the dynamic capabilities framework to include privacy as a core organizational competency. We propose an innovative Dynamic privacy strategy (DPS) framework to address these challenges, transforming privacy management as a strategic capability rather than a regulatory requirement. We also offer a practical model for organizations navigating the complexities of AI innovation and digital transformation.

ISSN: 2313-3244