ارسل ملاحظاتك

ارسل ملاحظاتك لنا







Arabic and English Relative Clauses and Machine Translation Challenges

العنوان بلغة أخرى: عبارات الوصل باللغتين العربية والإنجليزية وتحديات الترجمة الآلية
المصدر: مجلة الدراسات الاجتماعية
الناشر: جامعة العلوم والتكنولوجيا
المؤلف الرئيسي: Nagi, Khalil A. (مؤلف)
المجلد/العدد: مج29, ع3
محكمة: نعم
الدولة: اليمن
التاريخ الميلادي: 2023
الشهر: سبتمبر
الصفحات: 145 - 165
ISSN: 2312-525X
رقم MD: 1419372
نوع المحتوى: بحوث ومقالات
اللغة: الإنجليزية
قواعد المعلومات: EduSearch
مواضيع:
كلمات المؤلف المفتاحية:
الطلاقة | الدقة | تحليل الأخطاء | التقييم | الاختبار | Fluency | Accuracy | Error Analysis | Evaluation | Test Suite
رابط المحتوى:
صورة الغلاف QR قانون

عدد مرات التحميل

2

حفظ في:
المستخلص: تهدف هذه الدراسة إلى تحليل أخطاء الترجمة الآلية العصبية (NMT) وتقييم جودتها ممثلة بمترجم جوجل عند ترجمة عبارات الوصل. تستخدم الدراسة اختبارين مكونين من جمل تحتوي على عبارات وصل حيث يتكون الاختبار الأول من 108 جملة تمت ترجمتها من الإنجليزية إلى العربية بينما يتكون الاختبار الثاني من 72 جملة عربية تمت ترجمتها إلى الإنجليزية. تم تحديد الأخطاء بواسطة 6 خبراء. تقدم الدراسة قائمة مصنفة بأخطاء الترجمة بناء على ما يعرف بمقياس الجودة متعددة الأبعاد (MQM). تم أيضا إجراء تقييم بواسطة الخبراء الستة بالإضافة إلى تقييم BLEU الآلي. أظهرت النتائج أن أخطاء الطلاقة أكثر تكرارا من أخطاء الدقة وأن تكرار الأخطاء وجودة الترجمة الآلية عند الترجمة من الإنجليزية إلى العربية أقل من تكرار الأخطاء وجودة الترجمة الآلية عند الترجمة من العربية إلى الإنجليزية توصلت الدراسة إلى أن الفجوة بين الترجمة الآلية والترجمة البشرية الاحترافية لا تزال كبيرة.

The study aims at performing an error analysis as well as providing an evaluation of the quality of neural machine translation (NMT) represented by Google Translate when translating relative clauses. The study uses two test suites are composed of sentences that contain relative clauses. The first test suite composes of 108 pair sentences that are translated from English to Arabic whereas the second composes of 72 Arabic sentences that are translated into English. Errors annotation is performed by 6 professional annotators. The study presents a list of the annotated errors divided into accuracy and fluency errors that occur based on MQM. Manual evaluation is also performed by the six professionals along with a BLEU automatic evaluation using the Tilde Me platform. The results show that fluency errors are more frequent than accuracy errors. They also show that the frequency of errors and MT quality when translating from English into Arabic is lower than the frequency of errors and MT quality when translating from Arabic into English is also presented. Based on the performed error analysis and both manual and automatic evaluation, it is pointed out that the gap between MT and professional human translation is still large.

ISSN: 2312-525X

عناصر مشابهة