استفاده از شبکه های عصبی تابعی پله ای شعاعی مبتنی بر الگوریتم جستجوی گرانشی با بهینه عمومی راهنما به‌منظور دسته‌بندی دادگان سونار

نویسندگان

دانشکده مهندسی برق، دانشگاه علم و صنعت ایران

چکیده

با توجه به خصوصیات فیزیکی بسیار مشابه اکوی اهداف واقعی و کاذب سونار فعال، طبقه‌بندی و تمیز دادن آن‌ها از یکدیگر به یکی از زمینه‌های دشوار و پیچیده برای محققان و صنعتگران این حوزه تبدیل شده است. شبکه‌های عصبی تابعی پله‌ای شعاعی (RBF NN) یکی از پرکاربردترین شبکه‌های عصبی مصنوعی در دسته‌بندی اهداف دنیای واقعی هستند. آموزش از مهمترین بخش‌های توسعه این نوع شبکه است که در سال‌های اخیر بسیار مورد توجه قرار گرفته است. به منظور آموزش RBF NN از دیر باز استفاده از روش‌های بازگشتی و گرادیان نزولی مرسوم بوده است. با این وجود، دقت دسته‌بندی نامناسب، گیر افتادن در کمینه‌های محلی و سرعت همگرایی پایین از معایب روش‌های سنتی می‌باشد. در سال‌های اخیر استفاده از الگوریتم‌های ابتکاری و فرا ابتکاری به‌منظور غلبه بر این معایب بسیار مرسوم گردیده است. این مقاله برای آموزش RBF NN از الگوریتم جستجوی گرانشی با هدایت بهینه عمومی (LMGSA) به‌منظور غلبه بر نقص الگوریتم جستجوی گرانشی (GSA) در فاز بهره‌برداری، استفاده می‌کند. نتایج نشان می‌دهد که دسته‌بندی‌کننده طراحی شده در تمام زمینه‌ها نتایج بهتری نسبت به دسته‌بندی‌کننده‌های معیار ارائه می‌نماید. به‌منظور آزمودن دسته‌بندی‌کننده طراحی شده، این الگوریتم با الگوریتم‌های GSA، گرادیان نزولی (GD)، فیلتر کالمن (KF)، فیلتر کالمن تفکیک‌شده (DKF) و الگوریتم ژنتیک (GA) توسط سه مجموعه دادگان سنجیده می‌شود. معیار‌های مورد سنجش عبارتند از: سرعت همگرایی، احتمال گیر افتادن در کمینه‌های محلی و دقت دسته‌بندی. در پایان نیز به‌عنوان یک کاربرد عملی دادگان سونار توسط این شبکه دسته‌بندی می‌شوند.

کلیدواژه‌ها


  1. E. G. Carayannis, F. J. David, and M. P. Efthymiopoulos, “Cyber-Development, Cyber-Democracy and Cyber-Defense Challenges, Opportunities and Implications for Theory, Policy and Practice,” Springer Science Business and Media, pp. 5-22, 2014.
  2. M. R. Mosavi, M. Khishe and M. Aghababaie, “Modeling and Mitigation of Active Sonar Clutter”, Noshahr University of Marine Science and Technology, 2015. (In Persian)
  3. M. R. Mosavi, M. Khishe, A. Ghamgosar and M. J. Ghalandari, “Classification of Sonar Data Set using the Gray Wolf Optimizer Algorithm”, Journal of Electronics Industries, Vol.7, No.1, pp.27-41, 1395. (In Persian)
  4. M. R. Mosavi, M. Khishe and E. Ebrahimi, “Classification of Sonar Targets using OMKC, Genetic Algorithm and Statistical Moments,” Journal of Advances in Computer Research, vol. 7, no. 1, pp. 143-156, 2016.
  5. V. Abedifar, M. Eshghi, S. Mirjalili, and S. M. Mirjalili, “An Optimized Virtual Network Mapping using PSO in Cloud Computing,” 21st Iranian Conference on Electrical Engineering, pp. 1-6, 2013.
  6. L. S. Nguyen, D. Frauendorfer, M. S. Mast, and D. Gatica-Perez, “Hire Me: Computational Inference of Hirability in Employment Interviews based on Nonverbal Behavior,” IEEE Transactions on Multimedia, vol. 16, no. 4, pp. 1018-1031, 2014.
  7. P. Auer, H. Burgsteiner, and W. Maass, “A Learning Rule for Very Simple Universal Approximators Consisting of a Single Layer of Perceptrons,” Neural Networks, vol. 21, no. 5, pp. 786-795, June 2008.
  8. J. Moody and C. J. Darken, “Fast Learning in Networks of Locally-Tuned Processing Units,” Neural Computation, vol. 1, no. 2, pp. 281-294, 1989.
  9. N. Karayiannis, “Reformulated Radial Basis Neural Networks Trained by Gradient Descent,” IEEE Transactions on Neural Networks, vol. 10, no.3, pp. 657-671, 1999.
  10. C. Liu, H. Wang, and P. Yao, “On Terrain-Aided Navigation for Unmanned Aerial Vehicle using B-spline Neural Network and Extended Kalman Filter,” IEEE Conference on Guidance, Navigation and Control (CGNCC), pp. 2258- 2263, 2014.
  11. D. Simon, “Training Radial Basis Neural Networks with the Extended Kalman Filter,” Neurocomputing, vol. 48, no. 1-4, pp. 455-475, 2002.
  12. Q. Zhang and B. Li, “A Low-Cost GPS/INS Integration Based on UKF and BP Neural Network,” IEEE Conference on
  13. Intelligent Control and Information Processing (ICICIP), pp. 100-107, 2014.
  14. X. Li, T. Zhang, Z. Deng, and J. Wang, “A Recognition Method of Plate Shape Defect Based on RBF-BP Neural Network Optimized by Genetic Algorithm,” IEEE Conference on Control and Decision, pp. 3992-3996, 2014.
  15. K. S. Narendra and M. A. L. Thathachar, “Learning Automata: An Introduction,” Prentice-Hall, Englewood Cliffs, NJ, 1989.
  16. S. Kirkpatrick, C. D. Gelatt, and M. P. Vecchi, “Optimization by Simulated Annealing,” Science, New Series, vol. 220, no. 4598, pp. 671-680, 1983.
  17. C. Ozturk and D. Karaboga, “Hybrid Artificial Bee Colony Algorithm for Neural Network Training,” IEEE Congress on Evolutionary Computation (CEC 2011), pp. 84-88, 2011.
  18. J. J. Yu, A.Y. Lam, and V. O. Li, “Evolutionary Artificial Neural Network based on Chemical Reaction Optimization,” IEEE Congress on Evolutionary Computation (CEC 2011), pp. 2083-2090, 2011.
  19. S. Mirjalili and A. S. Sadiq, “Magnetic Optimization Algorithm for Training Multi-Layer Perceptron,” IEEE Conference on Communication Software and Networks (ICCSN 2011), pp. 42-46, 2011.
  20. R. C. Green, L. Wang, and M. Alam, “Training Neural Networks Using Central Force Optimization and Particle Swarm Optimization: Insights and Comparisons,” Expert System with Application, vol. 39, no. 1, pp. 555-563, 2012.
  21. P. Moallem and N. Razmjooy, “A Multi-Layer Perceptron Neural Network Trained by Invasive Weed Optimization for Potato Color Image Segmentation,” Trends in Applied Sciences Research, vol. 7, no. 6, pp. 445-455, 2012.
  22. L. A. Pereira, L. C. Afonso, J. P. Papa, Z. A. Vale, C. C. Ramos, D. S. Gastaldello, and A. N. Souza, “Multilayer Perceptron Neural Networks Training Through Charged System Search and Its Application for Non-Technical Losses Detection on Innovative Smart Grid Technologies,” IEEE PES Conference on Latin America (ISGT LA 2013), pp. 1-6, 2013.
  23. L. Pereira, D. Rodrigues, P. Ribeiro, J. Papa, and S. A. Weber, “Social-Spider Optimization-Based Artificial Neural Networks Training and its Applications for Parkinson’s Disease Identification,” IEEE Symposium on Computer-based Medical Systems (CBMS 2014), pp. 14-17, 2014.
  24. E. Uzlu, M. Kankal, A. Akpınar, and T. Dede, “Estimates of Energy Consumption in Turkey using Neural Networks with the Teaching-Learning-based Optimization Algorithm,” nergy, vol. 75, pp. 295-303, 2014.
  25. S. Mirjalili, S. M. Mirjalili, and A. Lewis, “Let a Biogeography-based Optimizer Train Your Multi-Layer Perceptron,” Journal of Information Sciences, vol. 269, pp. 188-209, June 2014.
  26. N. Muangkote, K. Sunat, and S. Chiewchanwattana, “An Improved Grey Wolf Optimizer for Training q-Gaussian Radial Basis Functional-link Nets,” 2014 International Computer Science and Engineering Conference (ICSEC), pp. 209-214, 2014.
  27. S. Mirjalili, S. M. Mirjalili, and A. Lewis, “Grey Wolf Optimizer,” Advances in Engineering Software, vol. 69, pp. 46-61, 2014.
  28. M. R. Mosavi, M. Khishe, and A. Moridi, “Sonar Dataset Classification using Hybrid PSO-GSA Method,” Marine Technology, vol. 3, no. 1, pp. 1-14, 2016.
  29. O. Olorunda and A. P. Engelbrecht, “Measuring Exploration/Exploitation in Particle Swarms using Swarm Diversity,” IEEE World Congress on Computational Intelligence, pp. 1128-1134, 2008.
  30. L. Lin and M. Gen, “Auto-Tuning Strategy for Evolutionary Algorithms: Balancing between Exploration and Exploitation,” Soft Computing, vol. 13, no. 2, pp. 157-168, 2009.
  31. S. Mirjalili, S. Z. M. Hashim, and H. M. Sardroudi, “Training Feedforward Neural Networks using Hybrid Particle Swarm Optimization and Gravitational Search Algorithm,” Applied Mathematics and Computation, vol. 218, no. 22, pp. 11125-11137, 2012.
  32. R. E. Precup, R. C. David, E. M. Petriu, and M. B. Radac, “Adaptive GSA-Based Optimal Tuning of PI Controlled Servo Systems with Reduced Process Parametric Sensitivity, Robust Stability and Controller Robustness,” IEEE Transactions on Cybernetics, vol. 44, no. 11, pp. 1997-2009, 2014.
  33. B. Yu and X. He, “Training Radial Basis Function Networks with Differential Evolution,” IEEE Conference on Granular Computing, pp. 369-372, 2006.
  34. M. Gauci, T. J. Dodd, and R. Groß, “Why ‘GSA: A Gravitational Search Algorithm’ is not Genuinely based on the Law of Gravity,” Natural Computing, vol. 11, no. 4, pp. 719-720, 2012.
  35. E. Rashedi, H. Nezamabadi-pour, and S. Saryazdi, “BGSA: Binary Gravitational Search Algorithm,” Natural Computing, vol. 9, no. 3, pp. 727-745, 2010.
  36. http://archive.ics.uci.edu/ml/datasets.
  37. R. P. Gorman and T. J. Sejnowski, “Analysis of Hidden Units in a Layered Network Trained to Classify Neural Networks, vol. 1, pp. 75-89, 1988.