ارسل ملاحظاتك

ارسل ملاحظاتك لنا







Conjugate Gradient Back - Propagation with Modified Polack - Rebier updates for training feed forward neuaral network

المصدر: المجلة العراقية للعلوم الإحصائية
الناشر: جامعة الموصل - كلية علوم الحاسوب والرياضيات
المؤلف الرئيسي: Al Bayiati, Abbas Y. (Author)
مؤلفين آخرين: Saleh, Ibrahem A. (Co-Author), Abbo, Khalil K. (Co-Author)
المجلد/العدد: ع20
محكمة: نعم
الدولة: العراق
التاريخ الميلادي: 2011
الصفحات: 164 - 173
ISSN: 1680-855X
رقم MD: 422189
نوع المحتوى: بحوث ومقالات
قواعد المعلومات: EcoLink
مواضيع:
رابط المحتوى:
صورة الغلاف QR قانون

عدد مرات التحميل

4

حفظ في:
المستخلص: طورت عدة خوارزميات التعليم للشبكات العصيبة ذوات التغذية الأمامية وتستند كثير من هذه الخوارزميات الى خوارزمية الانحدار السلبي، ومن المعروف في نظرية الأمثلية انها ليست ذات كفاءة في التطبيقات العملية. في هذا البحث نحاول تطوير طريقة بولاك-ريبيير للمتجهات المترافقة لتعليم الشبكة العصبية ذات التغذية الأمامية، وتطويرنا استند الى معادلة القاطع (شرط شبيه نيوتن) الخوارزمية المقترحة اختبرت لبعض مسائل الاختبار المعروفة وقورنت مع بعض الخوارزميات المعروفة في هذا المجال.

S everal learning algorithms for feed-forward (FFN) neural networks have been developed, many of these algorithms are based on the gradient descent algorithm well-known in optimization theory which have poor performance in practical applications. In this paper we modify the Polak- Ribier conjugate gradient method to train feed forward neural network. Our modification is based on the secant equation (Quasi-Newton condition). The suggested algorithm is tested on some well known test problems and compared with other algorithms in this field.

وصف العنصر: ملخص لبحث منشور باللغة الانجليزية
ISSN: 1680-855X

عناصر مشابهة