العنوان بلغة أخرى: |
التعرف على الحروف في لغة الإشارة العربية من منظور التعلم الآلي |
---|---|
المصدر: | مجلة كلية الآداب بقنا |
الناشر: | جامعة جنوب الوادي - كلية الآداب |
المؤلف الرئيسي: | Khattab, Mahmoud M. (Author) |
مؤلفين آخرين: | Zeki, Akram M. (Co-Author) , Matter, Safaa S. (Co-Author) , Abdella, Mohamed A. (Co-Author) , Atiia, Rada A. E. (Co-Author) |
المجلد/العدد: | ع62 |
محكمة: | نعم |
الدولة: |
مصر |
التاريخ الميلادي: |
2024
|
الشهر: | يناير |
الصفحات: | 1 - 32 |
ISSN: |
1110-614X |
رقم MD: | 1509512 |
نوع المحتوى: | بحوث ومقالات |
اللغة: | الإنجليزية |
قواعد المعلومات: | AraBase |
مواضيع: | |
كلمات المؤلف المفتاحية: |
الحروف | لغة | الإشارة | العربية | التعلم الآلي | Arsl | Feature Extraction | Gestures | Machine Learning | Classification
|
رابط المحتوى: |
المستخلص: |
اكتسب التعرف على الأنماط في أنظمة التفاعل بين الإنسان والحاسب اهتماما كبيرا في السنوات الأخيرة، وخاصة في مجال رؤية الحاسب وتطبيقات التعلم الآلي. واحدة من التطبيقات المهمة هي التعرف على إيماءات اليد المستخدمة في التواصل مع الأشخاص الصم، وتحديدا في تحديد الحروف المتقطعة في سور القرآن الكريم. يقترح هذا البحث نموذجا جديدا للتعرف على لغة الإشارة العربية القائمة على الحروف الأبجدية. يتكون النظام من أربع مراحل: جمع البيانات المعالجة المسبقة للبيانات، استخراج الميزات، والتصنيف. يتيح النموذج المقترح ثلاثة أنواع من مجموعات البيانات: الأيدي العارية أمام خلفية داكنة، الأيدي العارية أمام خلفية فاتحة، والأيدي التي ترتدي قفازات ذات لون داكن. تبدأ العملية بالتقاط صورة لإيماءة الأحرف الأبجدية، ثم يتم فصل اليد وعزل الخلفية. بعد ذلك يتم استخراج ميزات اليد بناء على الطريقة المختارة. من حيث التصنيف، يتم استخدام تقنيات التعلم النظامي لتصنيف حروف الأبجدية العربية المكونة من ۲۸ حرفا باستخدام 9240 صورة. يركز البحث على تصنيف الحروف الأبجدية الــــــ ١٤ التي تمثل فواتح سور القرآن في لغة الإشارة العربية تظهر النتائج التجريبية أن النموذج المقترح الجديد يحقق دقة ممتازة تبلغ 99.5% باستخدام مصنف أقرب جار. Pattern recognition in human-computer interaction systems has gained significant attention in recent years, particularly in computer vision and machine learning applications. One prominent application is the recognition of hand gestures used in communication with deaf individuals, specifically in identifying the dashed letters within Quranic surahs. This paper proposes a new alphabet-based Arabic sign language recognition model, which employs a vision-based approach. The system comprises four stages: data acquisition, data preprocessing, feature extraction, and classification. The proposed model accommodates three types of datasets: bare hands against a dark background, bare hands against a light background, and hands wearing dark-colored gloves. The process begins with capturing an image of the alphabet gesture, followed by hand separation and background isolation. Hand features are then extracted based on the chosen method. In terms of classification, supervised learning techniques are employed to classify the 28-letter Arabic alphabet using 9,240 images. The focus is on classifying the 14 alphabetic letters representing the initial Quranic surahs in the Quranic sign language. The experimental results demonstrate that the new proposed model has achieved an impressive accuracy of 99.5% using the k nearest neighbor classifier. |
---|---|
ISSN: |
1110-614X |