المستخلص: |
تعد تعليم شبكة BP احدى مسائل الأمثلية غير المقيدة. إن الهدف من تعليم الشبكة هو البحث عن اوزان مثلى بحيث ان الخطاء الناتج من اخراج الشبكة يصبح اقل ما يمكن. في هذا البحث طورت خوارزمية فليتجر-ريفييز التقليدية الى طريقة التدرج الترافق بمعلمة (SFRB) لتعليم الشبكات العصبية ذات التغذية الامامية، استندنا في تطوير هذه الخوارزمية الى خاصية الانحدار الكافي وشرط الترافق. قورنت الخوارزمية المقترحة مع بعض الخوارزميات المعروفة في المجال نفسه لثلاثة انواع من مسائل الاختبار.
T he training phase of a Back-Propagation (BP) network is an unconstrained optimization problem. The goal of the training is to search an optimal set of connection weights in the manner that the error of the network out put can be minimized. In this paper we developed the Classical Fletcher-Revees (CFRB) method for non-linear conjugate gradient to the scaled conjugate gradient (SFRB say) to train the feed forward neural network. Our development is based on the sufficient descent property and pure conjugacy conditions. Comparative results for (SFRB), (CFRB) and standard Back-Propagation (BP) are presented for some test problems.
|