LEADER |
04222nam a22002657a 4500 |
001 |
1832599 |
024 |
|
|
|3 10.26389/AJSRP.R080420
|
041 |
|
|
|a eng
|
044 |
|
|
|b فلسطين
|
100 |
|
|
|9 562907
|a الزبيدي، إسراء حسين عبدالأمير
|e مؤلف
|
245 |
|
|
|a English Text Classification Using Improved Recursive Feature Elimination "IRFE" Algorithm
|
246 |
|
|
|a تصنيف النص الإنجليزي باستخدام الخوارزمية العودية المحسنة لإزالة الخواص "IRFE"
|
260 |
|
|
|b المركز القومي للبحوث
|c 2020
|g يونيو
|
300 |
|
|
|a 110 - 120
|
336 |
|
|
|a بحوث ومقالات
|b Article
|
520 |
|
|
|a تصنيف الوثائق هو أحد أهم المجالات في معالجة اللغات الطبيعية وتنقيب النصوص. هناك العديد من الخوارزميات التي يمكن استخدامها لهذه المهمة. في هذه الورقة، نركز على تحسين TC عن طريق اختيار الخواص. وهذا يعني تحديد مجموعة فرعية من الخواص الأصلية دون التأثير على دقة العمل، حيث اقترحنا طريقة جديدة لاختيار الخواص والتي يمكن أن تكون صيغة عامة ونموذج رياضي الى (RFE) قارنا الطريقة المستخدمة مع طريقتين أخرى معروفة لاختيار الخواص هي Chi-square, and Threshold أثبتت النتائج ان الطريقة الجديدة منافسة للطرق الأخرى المعروفة، وكانت أفضل النتائج% 83 عند استخدام% 60 من الخواص، و %82 عند استخدام %40 من الخواص، و %82 عند استخدام %20 من الخواص. تم إجراء الاختبارات باستخدام خوارزميتي التصنيف (DT) Decision Tree وNaïve Bayes (NB) حيث مجموعة البيانات المستخدمة هي مجموعة بيانات معروفة (20 newsgroups text) تتكون من (18846) مستند. وأظهرت النتائج بأن طريقة اختيار الخواص المقترحة قابلة للمقارنة مع الطريقة القياسية لاختيار الخواص مثل (Chi-square)
|
520 |
|
|
|b Documents classification is from most important fields for Natural language processing and text mining. There are many algorithms can be used for this task. In this paper, focuses on improving Text Classification by feature selection. This means determine some of the original features without affecting the accuracy of the work, where our work is a new feature selection method was suggested which can be a general formulation and mathematical model of Recursive Feature Elimination (RFE). The used method was compared with other two well-known feature selection methods: Chi-square and threshold. The results proved that the new method is comparable with the other methods, The best results were 83% when 60% of features used, 82% when 40% of features used, and 82% when 20% of features used. The tests were done with the Naïve Bayes (NB) and decision tree (DT) classification algorithms , where the used dataset is a well-known English data set “20 newsgroups text” consists of approximately 18846 files. The results showed that our suggested feature selection method is comparable with standard Like Chi-square.
|
653 |
|
|
|a التصنيف
|a الوثائق
|a اللغات الطبيعية
|a النص الإنجليزي
|
692 |
|
|
|a تصنيف النص
|a شجرة القرار
|a نايف بايز
|a اختيار الخواص
|b Decision Tree
|b Naive Bayes
|b Text Classification
|b Features Selection
|
700 |
|
|
|9 587624
|a عليوي، أحمد حسين
|e م. مشارك
|
773 |
|
|
|4 العلوم الإنسانية ، متعددة التخصصات
|6 Humanities, Multidisciplinary
|c 007
|f Mağallaẗ al-ʿulūm al-handasiyyaẗ wa-al-tiknūlūğiyā al-maʿlūmāt
|l 002
|m مج4, ع2
|o 1746
|s مجلة العلوم الهندسية وتكنولوجيا المعلومات
|t Journal of Engineering Sciences and Information Technology
|v 004
|x 2522-3321
|
856 |
|
|
|u 1746-004-002-007.pdf
|
930 |
|
|
|d y
|p y
|q y
|
995 |
|
|
|a HumanIndex
|
999 |
|
|
|c 1091617
|d 1091617
|