ارسل ملاحظاتك

ارسل ملاحظاتك لنا







خوارزمية تدرج مترافق مستندة على طريقة MEYERS لتدريب الشبكات العصبية الإصطناعية

المصدر: المجلة العراقية للعلوم الإحصائية
الناشر: جامعة الموصل - كلية علوم الحاسوب والرياضيات
المؤلف الرئيسي: المحمد، هند (مؤلف)
مؤلفين آخرين: أبو، خليل ك. (م. مشارك)
المجلد/العدد: ع25
محكمة: نعم
الدولة: العراق
التاريخ الميلادي: 2013
الصفحات: 118 - 132
ISSN: 1680-855X
رقم MD: 637127
نوع المحتوى: بحوث ومقالات
قواعد المعلومات: EcoLink
مواضيع:
رابط المحتوى:
صورة الغلاف QR قانون
حفظ في:
المستخلص: إن الإخلاف بين الناتج المطلوب والناتج الفعلي للشبكة العصبية الاصطناعية متعددة الطبقات ينتج عنه قيمة خطأ يمكن التعبير عنه بدلالة أوزان الشبكة وبذلك تصبح مسألة تدريب الشبكة من مسائل الامثلية التي تبحث في تقليل دالة الخطأ اقل ما يمكن. يهتم هذا البحث بتحسين الآلية التي يتم بموجها تقليل دالة الخطأ حيث تم اقتراح صيغة جديدة لحساب عامل تعليم مستندة على صيغة Meyers لتطوير خوارزمية تدرج مترافق لتدريب الشبكات العصبية الاصطناعية ذات التغذية الامامية. عمليا عجلت هذه الطريقة تدريب الشبكة عند مقارنتها بطريقتي (PRCG) و (FRCG) لحل ثلاث انواع مختلفة من المسائل المشهورة في الشبكات العصبية الاصطناعية (وهي تقريب الدوال، مسألة XOR ومسألة Monkl) حيث تم تنفيذها لـ100 محاكاة.

The difference between the desired output and the actual output of an multi-layers feed forward neural network produces an error value can be expressed it as a function of the network weights. Therefore training the network becomes an optimization problem to minimize the error function. This search suggests a new formula for computing learning rate based on Meyers formula to modify conjugate gradient algorithm (MCG) for training the FFNN. Typically this method accelerate the method of Fletcher–Reeves (FRCG) and Polak–Ribere (PRCG) when using it to solve three different types problems well known in the artificial neural network (namely, XOR problem, function approximation, and the Monk1 problem ) with 100 simulations.

ISSN: 1680-855X