ارسل ملاحظاتك

ارسل ملاحظاتك لنا







Public Sphere Distortion in the Age of Internet Giants: Regulatory Pathways toward the Implications of Automated Online Content Filtering

العنوان بلغة أخرى: تشوه المجال العام في عصر عمالقة الإنترنت: المسارات التنظيمية تجاه الآثار المترتبة على التصفية الآلية للمحتوى عبر الإنترنت
المصدر: مجلة القانون والتكنولوجيا
الناشر: الجامعة البريطانية - كلية القانون
المؤلف الرئيسي: صبره، إبراهيم (مؤلف)
المؤلف الرئيسي (الإنجليزية): Sabara, Ibrahim
مؤلفين آخرين: القاضي، مصطفى (م. مشارك)
المجلد/العدد: مج2, ع1
محكمة: نعم
الدولة: مصر
التاريخ الميلادي: 2022
الشهر: أبريل
الصفحات: 51 - 85
ISSN: 2535-2237
رقم MD: 1283718
نوع المحتوى: بحوث ومقالات
اللغة: الإنجليزية
قواعد المعلومات: IslamicInfo
مواضيع:
كلمات المؤلف المفتاحية:
عمالقة الإنترنت | تصفية المحتوى | الاتخاذ الآلي للقرار | الأخبار الكاذبة | التحيز الخوارزمي | فقاعات التصفية | غرف الصدى | الحقوق الرقمية | حرية المعلومات | المجال العام | Internet Giants | Content Filtering | Fake News | Algorithmic Bias | Filter Bubbles | Automated Decision-Making | Public Sphere | Freedom of Information | Digital Rights | Echo Chambers
رابط المحتوى:
صورة الغلاف QR قانون

عدد مرات التحميل

25

حفظ في:
المستخلص: يلعب عمالقة الإنترنت في ظل فيض المعلومات الحالي دورا رئيسيا في تحديد المحتوى الذي يستهلكه الأفراد عبر الإنترنت. فعلى سبيل المثال، تدعي منصات وسائل التواصل الاجتماعي أن عوامل "التصفية الآلية" الخاصة بها يمكن أن توفر للمستخدمين تجربة شخصية في العالم الرقمي والمساعدة على إنهاء فوضى المعلومات على الإنترنت. ومع ذلك، تستخدم اليوم تلك المنصات "التصفية الآلية" على نطاق واسع لتنسيق وتنظيم المحتوى المنشور عبر الإنترنت بطريقة مبهمة لمستخدميها. يعتقد البعض أن الحديث عن التأثير السلبي للتصفية الآلية مبالغ فيه لأن الأخيرة تمكن الأفراد من الاستمتاع بتجربة مصممة لهم عبر الإنترنت بناء على تفضيلاتهم، ولكن يجادل آخرون بأن لها تداعيات خطيرة. تسلط هذه الورقة الضوء أولا على دور الإنترنت في إعادة تشكيل مستقبل قطاع الإعلام ودوره الرقابي. ثانيا، تناقش ما يسمى بوسائل "التصفية الآلية للمحتوى عبر الإنترنت" وعددا من المفاهيم المرتبطة. ومن ثم تستخدم المنهج الاجتماعي القانوني لتحليل الجدل ذي الصلة والآثار المترتبة لاستخدام تلك الوسائل على الخطاب العام. أخيرا، تشرح بشكل مقارن الإجراءات التنظيمية المعتمدة حاليا والخطوات الموصي بها لتقليل الضرر الناجم عن "التصفية الآلية" للمحتوى الرقمي. تخلص الورقة إلى أنه نتيجة لمبدأ "تعزيز التفاعل الربحي" والذي يدفع منصات وسائل التواصل الاجتماعي إلى عدم إعطاء الأولوية للمحتوى الذي يرجح أن يكون أقل جذبا لانتباه المستخدمين، فإن "التصفية الآلية" قد تضخم التحيزات السياسية والتطرف، وتساعد على انتشار الأخبار الكاذبة والمحتوى التحريضي وتؤدي إلى تفاقم التلاعب بالناخبين والتحيز الخوارزمي والرقابة على المحتوى. لذلك، يجب على المجتمع الدولي اتخاذ تدابير تنظيمية ملموسة للتخفيف من آثار تلك التداعيات، وكذلك الضغط على عمالقة الإنترنت لاعتماد معايير من شأنها أن تؤدي إلى مجال عام رقمي أكثر صحة.

In an era of information profusion, Internet giants play a key role in determining the content that individuals consume online. Social media platforms, for instance, claim that their automated filters can provide users with a personalized online experience and end internet chaos. However, these platforms today use automated filtering extensively to curate content disseminated online in an opaque way to their users. Some believe that the negative impact of automated filtering is overstated since it empowers individuals to enjoy a tailored online experience based on their preferences; however, others argue that it has severe repercussions. This paper first sheds light on the Internet’s role in reshaping the future of the media sector and its role as a watchdog. Secondly, it discusses the so-called “Automated Online Content Filtering” and a number of correlated concepts. It then analyses using a socio-legal approach the related controversy and the consequential implications of employing automated filtering on public sphere. Finally, it comparatively explains the adopted regulatory measures and recommended steps to minimize the prejudice caused by these filters. The paper concludes that due to profit-based engagement optimization, which drives social media platforms to deprioritize content likely to be less engaging, automated filtering may amplify biases and extremism, induce the proliferation of false news and inflammatory content, and exacerbate the manipulation of the electorate, algorithmic bias, and censorship. Thus, the international community must take concrete regulatory measures to mitigate such ramifications and sway Internet giants to adopt standards that would lead to a healthier digital public sphere.

ISSN: 2535-2237