English Text Classification Using Improved Recursive Feature Elimination (IRFE) Algorithm

Esraa H. Abd Al-Ameer

Ahmed H. Aliwy

Faculty Education for Girls || University of Kufa || Iraq

DOI PDF

Documents classification is from most important fields for Natural language processing and text mining. There are many algorithms can be used for this task. In this paper, focuses on improving Text Classification by feature selection. This means determine some of the original features without affecting the accuracy of the work, where our work is a new feature selection method was suggested which can be a general formulation and mathematical model of Recursive Feature Elimination (RFE). The used method was compared with other two well-known feature selection methods: Chi-square and threshold. The results proved that the new method is comparable with the other methods, The best results were 83% when 60% of features used, 82% when 40% of features used, and 82% when 20% of features used. The tests were done with the Naïve Bayes (NB) and decision tree (DT) classification algorithms , where the used dataset is a well-known English data set “20 newsgroups text” consists of approximately 18846 files. The results showed that our suggested feature selection method is comparable with standard Like Chi-square. Keywords: Decision Tree; Naïve Bayes, Text Classification, features selection.

تصنيف النص الإنجليزي باستخدام الخوارزمية العودية المحسنة لإزالة الخواص (IRFE)

إسراء حسين عبد الأمير

أحمد حسين عليوي

كلية التربية للبنات || جامعة الكوفة || العراق

تصنيف الوثائق هو أحد أهم المجالات في معالجة اللغات الطبيعية وتنقيب النصوص. هناك العديد من الخوارزميات التي يمكن استخدامها لهذه المهمة. في هذه الورقة، نركز على تحسين TC عن طريق اختيار الخواص. وهذا يعني تحديد مجموعة فرعية من الخواص الأصلية دون التأثير على دقة العمل، حيث اقترحنا طريقة جديدة لاختيار الخواص والتي يمكن أن تكون صيغة عامة ونموذج رياضي الى (RFE). قارنا الطريقة المستخدمة مع طريقتين أخرى معروفة لاختيار الخواص هي :Chi-square, and Threshold . أثبتت النتائج ان الطريقة الجديدة منافسة للطرق الأخرى المعروفة، وكانت أفضل النتائج 83% عند استخدام 60% من الخواص، و 82% عند استخدام 40% من الخواص، و 82% عند استخدام 20% من الخواص. تم إجراء الاختبارات باستخدام خوارزميتي التصنيف(DT) Decision Tree و. Naïve Bayes (NB) حيث مجموعة البيانات المستخدمة هي مجموعة بيانات معروفة(20 newsgroups text) تتكون من (18846) مستند. وأظهرت النتائج بأن طريقة اختيار الخواص المقترحة قابلة للمقارنة مع الطريقة القياسية لاختيار الخواص مثل .(Chi-square) الكلمات المفتاحية: تصنيف النص, شجرة القرار, نايف بايز, اختيار الخواص.

==> أرسل بحثك <==