یادگیری شبکه عصبی با روش لونبرگ-مارکوارت بهبودیافته | ||
پژوهش های نظری و کاربردی هوش ماشینی | ||
دوره 2، شماره 2، اسفند 1403، صفحه 125-143 اصل مقاله (1.8 M) | ||
نوع مقاله: مقاله پژوهشی | ||
شناسه دیجیتال (DOI): 10.22034/abmir.2025.22500.1082 | ||
نویسندگان | ||
رضا یظهری کرمانی1؛ محمد ملائی امام زاده* 2؛ مجتبی برخورداری یزدی3 | ||
1دانشجوی کارشناسی ارشد، دانشکده فنی و مهندسی، دانشگاه شهید باهنر کرمان، کرمان، ایران | ||
2استادیار، دانشکده فنی و مهندسی، دانشگاه شهید باهنر کرمان، کرمان، ایران | ||
3دانشیار، دانشکده فنی و مهندسی، دانشگاه شهید باهنر کرمان، کرمان، ایران | ||
چکیده | ||
دراین مقاله روشی جدید برای افزایش سرعت همگرایی و کارایی روش لونبرگ-مارکوارت ارائه میشود. روش لونبرگ-مارکوارت یک روش مبتنی بر نیوتن است که در بهینهسازی و تعیین ضرایب شبکههای عصبی دارای کارایی مناسبی در مقایسه با سایر روشها ازجمله روش پسانتشارخطا است. بااینحال، عملکرد این روش بهطور قابلتوجهی به انتخاب ضریب دمپینگ مناسب بستگی دارد. ازجمله روشهای مختلف تعیین ضریب دمپینگ، روش جستجو خطی مارکوارت و روشهای مبتنی بر نرم خطا و مبتنی بر نرم ژاکوبین میباشند که در این مقاله با بررسی نقاط ضعف و قوت این روشها، یک روش ترکیبی جهت افزایش سرعت همگرایی ارائه میشود. درروش پیشنهادی بازه جستجوی ضریب دمپینگ و درنتیجه مقدار پارامتر نرخ تنظیم کاهشیافته است. با انجام این اصلاحات دقت جستجوی ضریب دمپینگ افزایشیافته و سرعت همگرایی روش پیشنهادی افزایش مییابد. بهمنظور ارزیابی روش پیشنهادی، یادگیری یک شبکهعصبی برای شناسایی یک تابع غیرخطی پیچیده، یک مسأله رگرسیون و یک مسأله طبقهبندی مورد شبیهسازی قرارگرفته و نتایج بهدستآمده نشان میدهد که روش پیشنهادی در مقایسه با سایر روشهای مورد بررسی، دارای کارایی مناسبی بوده و توانسته است خطای یادگیری را به حد قابل قبولی کاهش داده و سرعت همگرایی بالاتری داشته باشد. | ||
کلیدواژهها | ||
ضریب دمپینگ؛ الگوریتم لونبرگ-مارکوارت؛ الگوریتم نیوتن؛ یادگیری شبکههای عصبی؛ بهینهسازی غیرخطی | ||
عنوان مقاله [English] | ||
Neural Network Learning Using an Improved Levenberg-Marquardt Algorithm | ||
نویسندگان [English] | ||
Reza Yazhari Kermani1؛ Mohammad Mollaie Emamzadeh2؛ Mojtaba Barkhordari Yazdi3 | ||
1MSc. Student, Department of Electrical Engineering, Shahid Bahonar University of Kerman, Kerman, Iran | ||
2Assistant Professor, Department of Electrical Engineering, Shahid Bahonar University of Kerman, Kerman, Iran | ||
3Associate Professor, Department of Electrical Engineering, Shahid Bahonar University of Kerman, Kerman, Iran | ||
چکیده [English] | ||
This paper presents a new method to improve the convergence speed and efficiency of the Levenberg-Marquardt algorithm. The Levenberg-Marquardt algorithm is a Newton-based method that is efficient in optimization and determining the weights of neural networks compared to other methods, including the backpropagation method. However, the performance of this method depends significantly on the selection of an appropriate damping factor. Among the various methods for determining the damping factor, the Marquardt line search method and methods based on error norm and based on Jacobian norm are mentioned, which in this paper, by examining the strengths and weaknesses of these methods, a combined method is presented to increase the convergence speed. In the proposed method, the search range of the damping factor and, as a result, the value of the adjustment rate parameter is reduced. By making these corrections, the accuracy of the damping factor search is increased and the convergence speed of the proposed method is increased. In order to evaluate the proposed method, learning a neural network to identify several problems including a nonlinear complex function, a regression and a classification task has been simulated and the results show that the proposed method has good efficiency compared to other methods studied and has been able to reduce the learning error to an acceptable level and has a higher convergence speed. | ||
کلیدواژهها [English] | ||
Damping Factor, Levenberg-Marquardt Algorithm, Newton Algorithm, Neural Network Learning, Non-linear Optimization | ||
مراجع | ||
[1] O. I. Abiodun, A. Jantan, A. E. Omolara, K. V. Dada, N. A. Mohamed, and H. Arshad, “State-of-the-art in artificial neural network applications: A survey,” Heliyon, vol. 4, no. 11, p. e00938, Nov. 2018, doi: 10.1016/j.heliyon.2018.e00938. [2] M. Sh. Daoud, M. Shehab, H. M. Al-Mimi, L. Abualigah, R. A. Zitar, and M. K. Y. Shambour, “Gradient-Based Optimizer (GBO): A Review, Theory, Variants, and Applications,” Archives of Computational Methods in Engineering, vol. 30, no. 4, pp. 2431–2449, May 2023, doi: 10.1007/s11831-022-09872-y. [3] X. Wei and H. Huang, “A survey on several new popular swarm intelligence optimization algorithms,” 2023, doi: 10.21203/rs.3.rs-2450545/v1. [4] S. Ruder, “An overview of gradient descent optimization algorithms,” Sep. 2016. [5] B. T. Polyak, “Newton’s method and its use in optimization,” Eur J Oper Res, vol. 181, no. 3, pp. 1086–1096, Sep. 2007, doi: 10.1016/j.ejor.2005.06.076. [6] M. S. Osigbemeh, C. Osuji, M. O. Onyesolu, and U. P. Onochie, “Comparison of the Artificial Neural Network’s Approximations for the Levenberg-Marquardt Algorithm and the Gradient Descent Optimization on Datasets,” Artificial Intelligence Evolution, pp. 24–38, Mar. 2024, doi: 10.37256/aie.5120243781. [7] O. Umar, I. M. Sulaiman, M. Mamat, M. Y. Waziri, and N. Zamri, “On damping parameters of Levenberg-Marquardt algorithm for nonlinear least square problems,” J Phys Conf Ser, vol. 1734, no. 1, p. 012018, Jan. 2021, doi: 10.1088/1742-6596/1734/1/012018. [8] K. Levenberg, “A method for the solution of certain non-linear problems in least squares,” Q Appl Math, vol. 2, no. 2, pp. 164–168, 1944, doi: 10.1090/qam/10666. [9] D. W. Marquardt, “An Algorithm for Least-Squares Estimation of Nonlinear Parameters,” Journal of the Society for Industrial and Applied Mathematics, vol. 11, no. 2, pp. 431–441, Jun. 1963, doi: 10.1137/0111030. [10] M. K. Transtrum and J. P. Sethna, “Improvements to the Levenberg-Marquardt algorithm for nonlinear least-squares minimization,” Jan. 2012. [11] J. J. Moré, “The Levenberg-Marquardt algorithm: Implementation and theory,” 1978, pp. 105–116. doi: 10.1007/BFb0067700. [12] Y. Wang, “Gauss–Newton method,” WIREs Computational Statistics, vol. 4, no. 4, pp. 415–420, Jul. 2012, doi: 10.1002/wics.1202. [13] C. Chen, S. Reiz, C. Yu, H.-J. Bungartz, and G. Biros, “Fast Approximation of the Gauss-Newton Hessian Matrix for the Multilayer Perceptron,” Oct. 2019. [14] M. R. Osborne, “Nonlinear least squares — the Levenberg algorithm revisited,” The Journal of the Australian Mathematical Society. Series B. Applied Mathematics, vol. 19, no. 3, pp. 343–357, Jun. 1976, doi: 10.1017/S033427000000120X. [15] A. Suratgar, M. B. Tavakoli, and A. Hoseinabadi, “Modified Levenberg-Marquardt method for neural networks training,” in Proceedings - Wec 05: Fourth World Enformatika Conference, 2005. doi: 10.5281/zenodo.1333881. [16] Y. H. Irawan and P. T. Lin, “Parametric optimization technique for continuous and combinational problems based on simulated annealing algorithm,” Journal of Energy, Mechanical, Material, and Manufacturing Engineering, vol. 8, no. 2, pp. 75–82, 2023, doi: 10.22219/jemmme.v8i2.29556. [17] Tsanas and A. Xifara, “Accurate quantitative estimation of energy performance of residential buildings using statistical machine learning tools,” Energy and Buildings, vol. 49, pp. 560–567, 2012, doi: 10.1016/j.enbuild.2012.03.003. [18] S. S. Mohammadi, M. Salehirad, M. M. Emamzadeh et al., “Improved equilibrium optimizer for accurate training of feedforward neural networks,” Optical Memory and Neural Networks, vol. 33, pp. 133–143, 2024, doi: 10.3103/S1060992X24700048. | ||
آمار تعداد مشاهده مقاله: 107 تعداد دریافت فایل اصل مقاله: 79 |