ارسل ملاحظاتك

ارسل ملاحظاتك لنا







Two - Point Stepsize Gradient Algoriyhms For Unconstrained Optimization

المصدر: المجلة العراقية للعلوم الإحصائية
الناشر: جامعة الموصل - كلية علوم الحاسوب والرياضيات
المؤلف الرئيسي: Al Bayiati, Abbas Y. (مؤلف)
مؤلفين آخرين: Ahmed, Huda Issam. (م. مشارك)
المجلد/العدد: ع 11
محكمة: نعم
الدولة: العراق
التاريخ الميلادي: 2007
الصفحات: 1 - 26
ISSN: 1680-855X
رقم MD: 419514
نوع المحتوى: بحوث ومقالات
قواعد المعلومات: EcoLink
مواضيع:
رابط المحتوى:
صورة الغلاف QR قانون
حفظ في:
المستخلص: تم التقصي في هذا البحث عن ثلاث خوارزميات جديدة؛ الخوارزمية الأولى تم اشتقاق خوارزمية التدرج ذات الخطوة المثلى والمفضلة على خوارزمية (SD) القياسية نظريا وعمليا. الخوارزمية الثانية تم اشتقاق صيغة جديدة لنموذج غير تربيعي لاحتساب معلمة جديدة (Pi) وأثبتت كفاءتها عمليا. الخوارزمية الثالثة تم التهجين بين الخطوات الثلاثة المثلى السابقة الذكر، بشكل عام أثبتت النتائج العددية كفاءتها باستخدام عشر دوال غير خطية وأبعاد مختلفة.

In this paper we have investigated three algorithms. In the first algorithm we have derived a new optimal step size gradient algorithm which is preferable over the classical SD algorithm both in theory and in the real computation. In the second algorithm we have derived and implemented a new formula for the non-quadratic model with a new _i . In the third algorithm we have tried to make a new hybrid algorithm between the above three different step sizes. Our numerical results are promising in general by implementing ten non-linear different test functions with different dimensions.

وصف العنصر: ملخص لبحث منشور باللغة الانجليزية
ISSN: 1680-855X