المصدر: | مجلة المترجم |
---|---|
الناشر: | جامعة وهران 1 أحمد بن بله - مخبر تعليمية الترجمة وتعدد الألسن |
المؤلف الرئيسي: | Al Swuee, Ali Ali Naeimah (Author) |
مؤلفين آخرين: | Babchikh, Mohammad (Co-Author) |
المجلد/العدد: | مج24, ع1 |
محكمة: | نعم |
الدولة: |
الجزائر |
التاريخ الميلادي: |
2024
|
الشهر: | ديسمبر |
الصفحات: | 21 - 47 |
DOI: |
10.46314/1704-024-001-002 |
ISSN: |
1112-4679 |
رقم MD: | 1541296 |
نوع المحتوى: | بحوث ومقالات |
اللغة: | الإنجليزية |
قواعد المعلومات: | AraBase |
مواضيع: | |
كلمات المؤلف المفتاحية: |
Quality Metrics | MQM Framework | METEOR | Legal Translation | Machine Translation | Quality Assessment | Amazon Translate
|
رابط المحتوى: |
الناشر لهذه المادة لم يسمح بإتاحتها. |
المستخلص: |
This study examines the role of Quality Assessment Metrics METEOR and MQM framework in assessing the accuracy of legal Amazon Translate output. The researchers assume that the full reliance on the use of automatic metrics in assessing Machine Translation (MT) quality cannot lead to achieving reliable results. Instead, they recommend assessing MT production based on MQM typology. The findings showed that the MQM assessment was mostly faithful in rating the MT production. However, in order that METEOR achieves precise evaluation, it should correlate with human translation, since the MQM framework revealed that Amazon Translate output has inferior quality, and the same is true for METEOR. |
---|---|
ISSN: |
1112-4679 |