العنوان بلغة أخرى: |
عامل تعلم جديد لخوارزمية الانتشار العكسي مستند الى معادلة القاطع المطورة |
---|---|
المصدر: | المجلة العراقية للعلوم الإحصائية |
الناشر: | جامعة الموصل - كلية علوم الحاسوب والرياضيات |
المؤلف الرئيسي: | Abbo, Khalil K. (Author) |
مؤلفين آخرين: | Jaborry, Marwa S. (Co-Author) |
المجلد/العدد: | ع26 |
محكمة: | نعم |
الدولة: |
العراق |
التاريخ الميلادي: |
2014
|
الصفحات: | 1 - 11 |
ISSN: |
1680-855X |
رقم MD: | 636179 |
نوع المحتوى: | بحوث ومقالات |
قواعد المعلومات: | EcoLink |
مواضيع: | |
رابط المحتوى: |
الناشر لهذه المادة لم يسمح بإتاحتها. |
المستخلص: |
تعد خوارزمية الانتشار العكسي القياسية ابسط خوارزمية لتعليم الشبكات العصبية ذوات التغذية الأمامية، يستخدم اتجاه الانحدار السلبي مع عامل تعليم ثابت في كل تكرار لتصغير دالة الخطأ. لأن عامل التعليم ثابت في كل تكرار وهذا يسبب بطء تقارب الخوارزمية. في هذا البحث اقترحنا صيغة جديدة لحساب عامل التعليم باستخدام معادلة القاطع المطورة لتعجيل تقارب خوارزمية الانتشار العكسي القياسية. وقد عرضت نتائج المحاكاة وقورنت مع خوارزميات تعليم أخر. The classical Back propagation method (CBP) is the simplest algorithm for training feed-forward neural networks. It uses the steepest descent direction with fixed learning rate to minimize the error function E, since is fixed for each iteration this causes slow convergence for the CBP algorithm. In this paper we suggested a new formula for computing learning rate k , using modified secant equation to accelerate the convergence of the CBP algorithm. Simulation results are presented and compared with other training algorithms. |
---|---|
ISSN: |
1680-855X |