МЕТОД ОПТИМІЗАЦІЇ РОЗПІЗНАВАННЯ ОБʼЄКТІВ У ЗАКРИТОМУ СЕРЕДОВИЩІ ДЛЯ МОБІЛЬНИХ РОБОТИЗОВАНИХ СИСТЕМ З ОБХОДОМ ПЕРЕШКОД (ENGLISH)

https://doi.org/10.23939/ujit2024.02.041
Надіслано: Вересень 27, 2024
Прийнято: Листопад 19, 2024
1
Національний університет "Львівська політехніка", м. Львів, Україна
2
Національний університет "Львівська політехніка", м. Львів, Україна

Запропоновано використання модифікованого процесу навчання нейронної мережі з почерговим використанням декількох наборів даних для розпізнавання обʼєктів мобільними роботизованими системами у закритому просторі. Проаналізовано останні дослідження та підходи до вирішення проблеми розпізнавання точних контурів обʼєктів, виявлено ключові особливості декількох архітектур нейронних мереж. Виявлено нестачу даних про ефективність використання систем розпізнавання обʼєктів у мобільних роботизованих системах із обходом перешкод у закритому просторі. Розроблено метод, що ґрунтується на поєднанні нейронної мережі глибинного навчання для отримання точних контурів обʼєктів із візуальними даними перешкод у закритому середовищі. Застосовано архітектуру Deeplab для пошуку точних меж обʼєктів та використано для тренування моделей набори даних, які пропонують велику кількість анотацій для різноманітних сцен і категорій обʼєктів, а саме NYU Depth Dataset V2 і ADE20K. Здійснено експерименти для порівняння точності моделей UNet та Deeplab на різних наборах даних та їх комбінаціях для визначення доцільності використання запропонованого підходу для розвʼязання поставлених завдань. Визначено точність розпізнавання розробленого методу на рівні 86,9 % із використанням архітектури Deeplab та комбінації наборів даних ADE20K та NYU Depth. Подано результати у графічному вигляді розпізнавання обʼєктів у різних типах закритого простору із порівнянням точності розпізнавання різних підходів. Встановлено, що запропонована модифікація процесу навчання сприяє підвищенню точності розпізнавання перешкод у закритому просторі, надає оптимальніше рішення для навігаційної компоненти роботизованих систем за допомогою отримання інформації про точні обриси перешкод і побудови оптимальнішого шляху, і є ефективною для виконання поставлених завдань.

[1] Tsmots, I. G., Teslyuk, V. M., Opotiak, Yu. V., & Oliinyk, O. O. (2023). Development of the scheme and improvement of the motion control method of a group of mobile robotic platforms. Ukrainian Journal of Information Technology, 5(2), 97 104. https://doi.org/10.23939/ujit2023.02.097
https://doi.org/10.23939/ujit2023.02.097
[2] Tsmots I.G., Opotiak Yu. V., Obelovska K.M., & Tesliuk S.V. (2024). Methods and means of conflict-free data exchange in the group of mobile robotic platforms. Ukrainian Journal of Information Tecnology, 6(1), 65 75. https://doi.org/10.23939/ujit2024.01.065
https://doi.org/10.23939/ujit2024.01.065
[3] Huan Wang, Can Qin, Yue Bai, Yulun Zhang, & Yun Fu. (2022). Recent Advances on Neural Network Pruning at Initialization. https://doi.org/10.48550/arXiv.2103.06460
https://doi.org/10.24963/ijcai.2022/786
[4] Borkivskyi, B. P., Teslyuk, V. M. (2023). Application of neural network tools for object recognition in mobile systems with obstacle avoidance. Scientific Bulletin of UNFU, 33(4), 84-89. https://doi.org/10.36930/40330412
https://doi.org/10.36930/40330412
[5] Liang-Chieh Chen, George Papandreou, Iasonas Kokkinos, Kevin Murphy, & Alan L. Yuille. (2017). DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs. https://doi.org/10.48550/arXiv.1606.00915
https://doi.org/10.1109/TPAMI.2017.2699184
[6] Kaiming He, Xiangyu Zhang, Shaoqing Ren, & Jian Sun. (2015). Deep Residual Learning for Image Recognition. https://doi.org/10.48550/arXiv.1512.03385
[7] Omar Mohamed Awad, Habib Hajimolahoseini, Michael Lim, Gurpreet Gosal, Walid Ahmed, Yang Liu, & Gordon Deng. (2023). Improving Resnet-9 Generalization Trained on Small Datasets. https://doi.org/10.48550/arXiv.2309.03965
[8] François Chollet. (2017). Xception: Deep Learning with Depthwise Separable Convolutions. https://doi.org/10.48550/arXiv.1610.02357
https://doi.org/10.1109/CVPR.2017.195
[9] Olaf Ronneberger, Philipp Fischer, & Thomas Brox. (2015). U-Net: Convolutional Networks for Biomedical Image Segmentation. https://doi.org/10.48550/arXiv.1505.04597
https://doi.org/10.1007/978-3-319-24574-4_28
[10] Gaurav Prasanna, John Rohit Ernest, Lalitha G, & Sathiya Narayanan. (2023). Squeeze Excitation Embedded Attention UNet for Brain Tumor Segmentation. https://doi.org/10.48550/arXiv.2305.07850
https://doi.org/10.1007/978-981-99-6855-8_9
[11] Hengshuang Zhao, Jianping Shi, Xiaojuan Qi, Xiaogang Wang, & Jiaya Jia. (2017). Pyramid Scene Parsing Network. https://doi.org/10.48550/arXiv.1612.01105
[12] Li Wang, Dong Li, Han Liu, Jinzhang Peng, Lu Tian, & Yi Shan. (2021). Cross-Dataset Collaborative Learning for Semantic Segmentation in Autonomous Driving. https://doi.org/10.48550/arXiv.2103.11351
[13] Jingdong Wang, Ke Sun, Tianheng Cheng, Borui Jiang, Chaorui Deng, Yang Zhao, Dong Liu, Yadong Mu, Mingkui Tan, Xinggang Wang, Wenyu Liu, & Bin Xiao. (2020). Deep High-Resolution Representation Learning for Visual Recognition. https://doi.org/10.48550/arXiv.1908.07919
[14] Yixuan Zhou, Xuanhan Wang, Xing Xu, Lei Zhao, & Jingkuan Song. (2023). X-HRNet: Towards Lightweight Human Pose Estimation with Spatially Unidimensional Self-Attention. https://doi.org/10.48550/arXiv.2310.08042
https://doi.org/10.1109/ICME52920.2022.9859751
[15] Liu, G., Guo, Y., Jin, Q., Chen, G., Saheya, B., & Wu, C. (2024). A region of interest focused Triple UNet architecture for skin lesion segmentation. International Journal of Imaging Systems and Technology, 34(3). https://doi.org/10.48550/arXiv.2311.12581
https://doi.org/10.1002/ima.23090
[16] Vinh Quoc Luu, Duy Khanh Le, Huy Thanh Nguyen, Minh Thanh Nguyen, Thinh Tien Nguyen, & Vinh Quang Dinh. (2024). Semi-Supervised Semantic Segmentation using Redesigned Self-Training for White Blood Cells. https://doi.org/10.48550/arXiv.2401.07278
[17] Liang-Chieh Chen, George Papandreou, Florian Schroff, & Hartwig Adam. (2017). Rethinking Atrous Convolution for Semantic Image Segmentation. https://doi.org/10.48550/arXiv.1706.05587
[18] Silberman, N., Hoiem, D., Kohli, P., & Fergus, R. (2012). Indoor Segmentation and Support Inference from RGBD Images. In Computer Vision - ECCV 2012 (pp. 746-760). Springer Berlin Heidelberg. https://doi.org/10.1007/978-3-642-33715-4_54
https://doi.org/10.1007/978-3-642-33715-4_54
[19] Zhou, B., Zhao, H., Puig, X., Fidler, S., Barriuso, A., & Torralba, A. (2017). Scene Parsing through ADE20K Dataset. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (pp. 5122-5130). https://doi.org/10.1109/CVPR.2017.544
https://doi.org/10.1109/CVPR.2017.544