المصدر: | مجلة المنصور |
---|---|
الناشر: | كلية المنصور الجامعة |
المؤلف الرئيسي: | عباس، حيدر هادي (مؤلف) |
المجلد/العدد: | ع 14 |
محكمة: | نعم |
الدولة: |
العراق |
التاريخ الميلادي: |
2010
|
الصفحات: | 230 - 243 |
DOI: |
10.36541/0231-000-014-022 |
ISSN: |
1819-6489 |
رقم MD: | 448966 |
نوع المحتوى: | بحوث ومقالات |
اللغة: | العربية |
قواعد المعلومات: | EcoLink, HumanIndex |
مواضيع: | |
رابط المحتوى: |
الناشر لهذه المادة لم يسمح بإتاحتها. |
المستخلص: |
يتناول هذا البحث موضوع تصميم مزيل للضوضاء باستخدام الشبكات العصبية. تم بناء برنامجين مختلفين لنوعين مختلفين من مزيلات الضوضاء ومن ثم تم فحص خصائص كلا النوعين وذلك باستخدام خوارزميات تعلم مختلفة. في البداية تم استخدام الخوارزمية (batch gradient descent) ولمستويات ضوضاء مختلفة. إن تأثير زيادة مستوى الضوضاء هو تدني المواصفات (أو زيادة mean square error) لكلا المنظومتين المأخوذتين بنظر الاعتبار. وباستخدام نفس خوارزمية التعلم تم بحث تأثير الخلايا العصبية للطبقة الخفية. وتبين انه من الواضح إن زيادة عدد الخلايا العصبية للطبقة الخفية سوف يؤدي إلى تدني المواصفات لكلا المنظومتين أعلاه. إن خوارزمية التعلم الثانية التي تم استخدامها هي (gradient descent with momentum). أن تأثير زيادة العزم هو تحسين المواصفات لكلا النوعين من مزيلات الضوضاء المقترحة. إن خوارزمية التعلم الثالثة التي تم استخدامها هي (gradient descent with variable learning rate) وكما في حالة زيادة العزم نجد إن زيادة معدل التعلم سوف يحسن المواصفات لكلا المنظومتين أعلاه. تم فحص تأثير العزم مع زيادة معدل التعلم ومن الواضح أن تأثير العزم مع زيادة معدل التعلم سوف يحسن المواصفات. أن خوارزمية التعلم الأخيرة التي تم استخدامها هي (resilient backpropagation) وتبين إن هذه الخوارزمية أعطت أفضل المواصفات عل الإطلاق. This paper deals with the implementation of noise canceller using neural networks. Two types of noise canceller has been software implemented. Then the performance of them has been checked for different training algorithms. At first, batch gradient descent algorithm is used with different noise levels. The effect of increasing noise levels is to degrade the performance (increasing the mean square error) for the two systems under consideration. Then for the same training algorithm, the effect of hidden layer neurons is investigated. It is clear that increasing hidden layer neurons degrades the performance of the two above systems. The second training algorithm which is used is gradient descent with momentum. The effect of increasing momentum is to improve the performance of the two noise canceller systems. The third training algorithm which is used is gradient descent with variable learning rate. As in the case of momentum, increasing learning rate improves the performance of the two above systems. Then the effect of momentum with learning rate increase is investigated. It is clear that the effect of momentum with learning rate increase will improve the performance. The last training algorithm which is used is resilient backpropagation and it gives the best performance at all. |
---|---|
وصف العنصر: |
ملخص لبحث منشور باللغة الانجليزية |
ISSN: |
1819-6489 |