ارسل ملاحظاتك

ارسل ملاحظاتك لنا







الدراية بالذكاء الاصطناعي AI literacy في الصحافة: الإشكاليات والآليات والتحديات

العنوان بلغة أخرى: Artificial Intelligence Literacy in Journalism: Issues, Mechanisms and Challenges
المصدر: المجلة العلمية لدراسات الإعلام الرقمي والرأي العام
الناشر: جامعة بني سويف - كلية الإعلام
المؤلف الرئيسي: السيد، شحاته (مؤلف)
المؤلف الرئيسي (الإنجليزية): El Sayed, Shehata
المجلد/العدد: مج1, ع2
محكمة: نعم
الدولة: مصر
التاريخ الميلادي: 2024
الشهر: يوليو
الصفحات: 160 - 197
ISSN: 3009-7398
رقم MD: 1479029
نوع المحتوى: بحوث ومقالات
اللغة: العربية
قواعد المعلومات: HumanIndex
مواضيع:
رابط المحتوى:
صورة الغلاف QR قانون

عدد مرات التحميل

38

حفظ في:
المستخلص: تحاول هذه الورقة البحثية إلقاء الضوء على الآليات والتحديات في مجال الدراية أو محو الأمية بالذكاء الاصطناعي (AI Literacy)، والرقابة الأخلاقية وتقييم أنظمة الذكاء الاصطناعي، مع التركيز بشكل خاص على الوعي الاجتماعي بالمخاطر والفوائد المرتبطة بهذه التقنيات. تحديدا، يهدف الذكاء الاصطناعي المسؤول إلى تطوير فهم عميق للأبعاد الاجتماعية المتأصلة في تصميم هذه الأنظمة. يؤكد الباحثون على ضرورة الالتزام بمجموعة من المعايير الأخلاقية الأساسية التي تشتمل على الشفافية، الخصوصية، النتائج العادلة لجميع الأطراف المعنية، بالإضافة إلى رفاهية المستخدمين والموظفين، وحيادية الخوارزميات، وقابلية تفسيرها، وكذلك الأمان والموثوقية. استنادا إلى هذه المعايير، قامت العديد من الدول والمؤسسات بتطوير إطارات توجيهية لضمان تطوير واستخدام أنظمة الذكاء الاصطناعي بمسؤولية. ومع ذلك، تظل هناك تحديات معينة، بما في ذلك الاختلافات في تفسير هذه المبادئ وتطبيقها عمليا. كما ذكر في الدراسة المرجعية، ملخصا للمبادئ التوجيهية المقترحة للاستخدام المسؤول لأنظمة الذكاء الاصطناعي، مقسمة إلى مبادئ من الدرجة الأولى والثانية. مبادئ الدرجة الأولى تشمل تقييم ومراقبة التحيز وتخفيفه، وضمان إنتاج نتائج عادلة ومتوازنة، بينما تتناول مبادئ الدرجة الثانية كيفية تحقيق هذه الأهداف من خلال ضمان شفافية النظام ومساءلته. من الضروري أن تتضمن هذه المبادئ أيضا حماية الأمن السيبراني ودعم خصوصية البيانات، فضلا عن تعزيز وكالة الإنسان وتوفير وسائل انتصاف واضحة للأفراد المتأثرين بأعطال النظام. من خلال هذه المبادئ، تسعى المجتمعات الأكاديمية والصناعية إلى توجيه عمليات تصميم وتنفيذ الذكاء الاصطناعي بشكل يحقق الاستفادة القصوى من هذه التقنيات مع تقليل المخاطر المحتملة.

This research paper aims to shed light on the mechanisms and challenges in the field of AI literacy and ethical monitoring and evaluation of AI systems, with a particular focus on social awareness of the risks and benefits associated with these technologies. Specifically, responsible AI strives to develop a deep understanding of the social dimensions inherent in the design of these systems. Researchers emphasize the need to adhere to a set of core ethical standards that include transparency, privacy, fair outcomes for all stakeholders, as well as user and employee well-being, algorithm neutrality, explain ability, and safety and reliability. Based on these standards, many countries and institutions have developed frameworks to ensure the responsible development and use of AI systems. However, there remain certain challenges, including differences in the interpretation and practical application of these principles. As mentioned in the reference study, summarizing the proposed guidelines for the responsible use of AI systems, divided into first-order and second-order principles. First-order principles include assessing and monitoring bias and mitigating it, and ensuring the production of fair and balanced outcomes, while second-order principles address how to achieve these goals by ensuring system transparency and accountability. These principles must also include protecting cybersecurity and supporting data privacy, as well as empowering human agency and providing clear remedies for individuals affected by system failures. Through these principles, academic and industrial communities seek to guide AI design and implementation processes in a way that maximizes the benefits of these technologies while minimizing potential risks.

ISSN: 3009-7398