Применение биоинспирированных алгоритмов глобальной оптимизации для повышения точности прогнозов компактных машин экстремального обучения
https://doi.org/10.32362/2500-316X-2022-10-2-59-74
Аннотация
Цели. В результате современных исследований в машинном обучении, направленных на повышение точности и снижение вычислительной сложности алгоритмов анализа данных, была предложена новая архитектура искусственной нейронной сети – машина экстремального обучения. Это нейронная сеть прямого распространения с единственным скрытым слоем. В этой сети веса соединений между входными нейронами и нейронами скрытого слоя инициализируются случайно, а веса соединений между нейронами скрытого слоя и выходными нейронами вычисляются с использованием операции псевдообращения Мура – Пенроуза. Замена итерационного процесса обучения, присущего многим архитектурам нейронных сетей, на случайную инициализацию одной части весов и вычисление другой части делает рассматриваемый инструмент существенно более производительным, с сохранением хорошей обобщающей способности. Однако случайная инициализация входных весов не гарантирует оптимальной точности прогнозов. Цель работы – разработка и исследование подходов к интеллектуальной настройке входных весов в машинах экстремального обучения биоинспирированными алгоритмами для повышения точности прогнозов этого инструмента анализа данных в задачах восстановления регрессии.
Методы. Использованы методы теории оптимизации, теории эволюционных вычислений и роевого интеллекта, теории вероятностей и математической статистики, системного анализа.
Результаты. Разработаны и исследованы подходы к интеллектуальной настройке входных весов в машинах экстремального обучения, основанные на применении генетического алгоритма, алгоритма роя частиц, алгоритма поиска косяком рыб, алгоритма хаотического поиска косяком рыб с экспоненциальным убыванием шага, предложенного авторами настоящего исследования. Выявлено, что применение биоинспирированных алгоритмов способно улучшить точность прогнозов машин экстремального обучения в задачах восстановления регрессии, причем машине экстремального обучения с уточненными биоинспирированными алгоритмами весами требуется меньшее число нейронов на скрытом слое для достижения высокой точности прогнозов на тренировочных и тестовых наборах данных. С помощью хаотического алгоритма поиска косяком рыб с экспоненциальным убыванием шага могут быть получены наилучшие конфигурации машин экстремального обучения в рассмотренных задачах.
Выводы. Полученные результаты показывают, что точность прогнозов машин экстремального обучения может быть улучшена посредством применения биоинспирированных алгоритмов интеллектуальной настройки входных весов. Для выполнения настройки весов требуются дополнительные вычисления, поэтому использование машин экстремального обучения в сочетании с биоинспирированными алгоритмами может быть целесообразно в тех областях, где необходимо получение наиболее точной и компактной конфигурации машины экстремального обучения.
Об авторах
Л. А. ДемидоваРоссия
Демидова Лилия Анатольевна, д.т.н., профессор, профессор кафедры корпоративных информационных систем Института информационных технологий
119454, Москва, пр-т Вернадского, д. 78
Scopus Author ID 56406258800
ResearcherID R-6077-2016
А. В. Горчаков
Россия
Горчаков Артём Владимирович, аспирант кафедры корпоративных информационных систем Института информационных технологий
119454, Москва, пр-т Вернадского, д. 78
Scopus Author ID 57215001290
ResearcherID ABC-8911-2021
Список литературы
1. Wu Y., Ianakiev K., Govindaraju V. Improved k-nearest neighbor classification. Pattern Recognition. 2002;35(10):2311–2318. https://doi.org/10.1016/S0031-3203(01)00132-7
2. Noble W.S. What is a support vector machine? Nat. Biotechnol. 2006;24(12):1565–1567. https://doi.org/10.1038/nbt1206-1565
3. Demidova L.A. Two-stage hybrid data classifiers based on SVM and kNN algorithms. Symmetry. 2021;13(4):615. https://doi.org/10.3390/sym13040615
4. Lin W., Wu Z., Lin L., Wen A., Li J. An ensemble random forest algorithm for insurance Big Data analysis. IEEE Access. 2017;5:16568–16575. https://doi.org/10.1109/ACCESS.2017.2738069
5. Deng L., Hinton G., Kingsbury B. New types of deep neural network learning for speech recognition and related applications: An overview. In: 2013 IEEE International Conference on Acoustics, Speech and Signal Processing. 2013:8599–8603. https://doi.org/10.1109/ICASSP.2013.6639344
6. Rosenblatt F. The perceptron: a probabilistic model for information storage and organization in the brain. Psychological Review. 1958;65(6):386–408. https://doi.org/10.1037/h0042519
7. Affonso C., Debiaso Rossi A.L., Antunes Vieira F.H., Ponce de Leon Ferreira de Carvalho A.C. Deep learning for biological image classification. Expert Systems with Applications. 2017;85:114–122. https://doi.org/10.1016/j.eswa.2017.05.039
8. Chen N., Xiong C., Du W., Wang C., Lin X., Chen Z. An improved genetic algorithm coupling a back-propagation neural network model (IGA-BPNN) for water-level predictions. Water. 2019;11(9):1795. https://doi.org/10.3390/w11091795
9. Such F.P., Madhavan V., Conti E., Lehman J., Stanley K.O., Clune J. Deep neuroevolution: Genetic algorithms are a competitive alternative for training deep neural networks for reinforcement learning. arXiv preprint arXiv:1712.06567. 2017. https://arxiv.org/abs/1712.06567
10. Shao B., Li M., Zhao Y., Bian G. Nickel price forecast based on the LSTM neural network optimized by the improved PSO algorithm. Mathematical Problems in Engineering. 2019;2019(2):1934796. https://doi.org/10.1155/2019/1934796
11. Ruder S. An overview of gradient descent optimization algorithms. arXiv preprint arXiv:1609.04747. 2016. https://arxiv.org/abs/1609.04747
12. Куликов А.А. Структура локального детектора модели репринта объекта на изображении. Russ. Technol. J. 2021;9(5):7–13. https://doi.org/10.32362/2500-316X-2021-9-5-7-13 [Kulikov A.A. The structure of the local detector of the reprint model of the object in the image. Russ. Technol. J. 2021;9(5):7–13. https://doi.org/10.32362/2500-316X-2021-9-5-7-13]
13. Dean J., Corrado G.S., Monga R., Chen K., Devin M., Le Q.V., Mao M.Z., Ranzato M.A., Senior A., Tucker P., Yang K., Ng A.Y. Large scale distributed deep networks. Advances in Neural Information Processing Systems. 2012;25:1223–1231.
14. Huang G.B., Zhu Q.Y., Siew C.K. Extreme learning machine: theory and applications. Neurocomputing. 2006;70(1–3):489–501. https://doi.org/10.1016/j.neucom.2005.12.126
15. Rao C.R. Generalized inverse of a matrix and its applications. In: Proceedings of the Sixth Berkeley Symposium on Mathematical Statistics and Probability. 1972. V. 1. Theory of Statistics. 1972:601–620. https://doi.org/10.1525/9780520325883-032
16. Cai W., Yang J., Yu Y., Song Y., Zhou T., Qin J. PSO-ELM: A hybrid learning model for short-term traffic flow forecasting. IEEE Access. 2020;8:6505–6514. https://doi.org/10.1109/ACCESS.2019.2963784
17. Liu Y., Loh H.T., Tor S.B. Comparison of extreme learning machine with support vector machine for text classification. In: International Conference on Industrial, Engineering and Other Applications of Applied Intelligent Systems. Innovations in Applied Artificial Intelligence. 2005;3533:390–399. http://doi.org/10.1007/11504894_55
18. Li G.X. Application of extreme learning machine algorithm in the regression fitting. In: 2016 International Conference on Information System and Artificial Intelligence (ISAI). 2016:419–422. https://doi.org/10.1109/ISAI.2016.0095
19. Song S., Wang Y., Lin X., Huang Q. Study on GA-based training algorithm for extreme learning machine. In: 2015 7th International Conference on Intelligent HumanMachine Systems and Cybernetics. IEEE. 2015;2:132–135. https://doi.org/10.1109/IHMSC.2015.156
20. Никонов В.В., Горчаков А.В. Тренировка моделей машинного обучения с использованием современных средств контейнеризации и облачной инфраструктуры. Промышленные АСУ и контроллеры. 2021;6:33–43. https://doi.org/10.25791/asu.6.2021.1288 [Nikonov V.V., Gorchakov A.V. Train machine learning models using modern containerization and cloud Infrastructure. Promyshlennye ASU i kontrollery = Industrial Automated Control Systems and Controllers. 2021;6:33–43 (in Russ.). https://doi.org/10.25791/asu.6.2021.1288]
21. Eremeev A.V. A genetic algorithm with tournament selection as a local search method. J. Appl. Ind. Math. 2012;6(3):286–294. https://doi.org/10.1134/S1990478912030039
22. Kennedy J., Eberhart R. Particle swarm optimization. In: Proceedings of ICNN’95-International Conference on Neural Networks. 1995;4:1942–1948. https://doi.org/10.1109/ICNN.1995.488968
23. Bastos Filho C.J.A., de Lima Neto F.B., Lins A.J.C.C., Nascimento A.I.S., Lima M.P. A novel search algorithm based on fish school behavior. In: 2008 IEEE Int. Conference on Systems, Man and Cybernetics. 2008:2646–2651. https://doi.org/10.1109/ICSMC.2008.4811695
24. Demidova L.A., Gorchakov A.V. A study of chaotic maps producing symmetric distributions in the fish school search optimization algorithm with exponential step decay. Symmetry. 2020;12(5):784. https://doi.org/10.3390/sym12050784
25. Cao W., Gao J., Ming Zh., Cai Sh. Some tricks in parameter selection for extreme learning machine. IOP Conf. Ser.: Mater. Sci. Eng. 2017;261(1):012002. https://doi.org/10.1088/1757-899X/261/1/012002
26. Dos Santos W., Barbosa V., de Souza R., Ribeiro R., Feitosa A., Silva V., Ribeiro D., Covello de Freitas R., Lima M., Soares N. Image reconstruction of electrical impedance tomography using fish school search and differential evolution. In: Critical Developments and Applications of Swarm Intelligence. IGI Global; 2018. P. 301–338. https://doi.org/10.4018/978-1-5225-5134-8.ch012
27. Demidova L.A., Gorchakov A.V. Application of chaotic Fish School Search optimization algorithm with exponential step decay in neural network loss function optimization. Procedia Computer Science. 2021;186(6):352–359. https://doi.org/10.1016/j.procs.2021.04.156
28. Harrison D. Jr., Rubinfeld D.L. Hedonic housing prices and the demand for clean air. J. Environ. Econ. Manag. 1978;5(1):81–102. https://doi.org/10.1016/0095-0696(78)90006-2
29. Kibler D., Aha D.W., Albert M.K. Instance-based prediction of real-valued attributes. Comput. Intell. 1989;5(2):51–57. https://doi.org/10.1111/j.1467-8640.1989.tb00315.x
30. Li H., Xu Z., Taylor G., Studer C., Goldstein T. Visualizing the loss landscape of neural nets. In: NIPS’18: Proceedings of the 32nd International Conference on Neural Information Processing Systems. 2018:6391–6401. https://arxiv.org/abs/1712.09913v3
31. Dai B., Gu C., Zhao E., Zhu K., Cao W., Qin X. Improved online sequential extreme learning machine for identifying crack behavior in concrete dam. Adv. Struct. Eng. 2019;22(2):402–412. https://doi.org/10.1177/1369433218788635
Дополнительные файлы
|
1. Визуализация ландшафтов многомерных функций оценки потерь вблизи найденного оптимума для CPU Performance | |
Тема | ||
Тип | Исследовательские инструменты | |
Посмотреть
(34KB)
|
Метаданные |
- Предложены способы интеллектуальной настройки входных весов машины экстремального обучения биоинспирированными алгоритмами в задачах восстановления регрессии.
- Экспериментальное исследование показало, что применение биоинспирированных алгоритмов способно улучшить точность прогнозов машины экстремального обучения, причем применение весов с уточненными биоинспирированными алгоритмами требует меньшего числа нейронов на скрытом слое для достижения наилучшей точности прогнозов на тестовых данных.
- Дополнительно приведены визуализации ландшафтов многомерных функций оценки потерь, оптимизированных биоинспирированными алгоритмами, в трехмерной прямоугольной системе координат вблизи найденного оптимума.
Рецензия
Для цитирования:
Демидова Л.А., Горчаков А.В. Применение биоинспирированных алгоритмов глобальной оптимизации для повышения точности прогнозов компактных машин экстремального обучения. Russian Technological Journal. 2022;10(2):59-74. https://doi.org/10.32362/2500-316X-2022-10-2-59-74
For citation:
Demidova L.A., Gorchakov A.V. Application of bioinspired global optimization algorithms to the improvement of the prediction accuracy of compact extreme learning machines. Russian Technological Journal. 2022;10(2):59-74. https://doi.org/10.32362/2500-316X-2022-10-2-59-74