ارسل ملاحظاتك

ارسل ملاحظاتك لنا







Learning rate for the back propagation algorithm based on modified scant equation

العنوان بلغة أخرى: عامل تعلم جديد لخوارزمية الانتشار العكسي مستند الى معادلة القاطع المطورة
المصدر: المجلة العراقية للعلوم الإحصائية
الناشر: جامعة الموصل - كلية علوم الحاسوب والرياضيات
المؤلف الرئيسي: Abbo, Khalil K. (Author)
مؤلفين آخرين: Jaborry, Marwa S. (Co-Author)
المجلد/العدد: ع26
محكمة: نعم
الدولة: العراق
التاريخ الميلادي: 2014
الصفحات: 1 - 11
ISSN: 1680-855X
رقم MD: 636179
نوع المحتوى: بحوث ومقالات
اللغة: الإنجليزية
قواعد المعلومات: EcoLink
مواضيع:
رابط المحتوى:
صورة الغلاف QR قانون
حفظ في:
المستخلص: تعد خوارزمية الانتشار العكسي القياسية ابسط خوارزمية لتعليم الشبكات العصبية ذوات التغذية الأمامية، يستخدم اتجاه الانحدار السلبي مع عامل تعليم ثابت في كل تكرار لتصغير دالة الخطأ. لأن عامل التعليم ثابت في كل تكرار وهذا يسبب بطء تقارب الخوارزمية. في هذا البحث اقترحنا صيغة جديدة لحساب عامل التعليم باستخدام معادلة القاطع المطورة لتعجيل تقارب خوارزمية الانتشار العكسي القياسية. وقد عرضت نتائج المحاكاة وقورنت مع خوارزميات تعليم أخر.

The classical Back propagation method (CBP) is the simplest algorithm for training feed-forward neural networks. It uses the steepest descent direction with fixed learning rate to minimize the error function E, since is fixed for each iteration this causes slow convergence for the CBP algorithm. In this paper we suggested a new formula for computing learning rate k , using modified secant equation to accelerate the convergence of the CBP algorithm. Simulation results are presented and compared with other training algorithms.

ISSN: 1680-855X