Побудовано систему розпізнавання об’єктів, знятих у режимі реального часу на відеокамеру в зашумленому та змінному щодо навколишніх умов середовищі. Досліджено методику наповнення бази даних для мобільних військових об’єктів. Для розпізнавання об’єктів використано нейромережу YOLO v8, яка дає змогу відстежувати рухомі та ідентифікувати об’єкти, які потрапляють на відео із відеокамери. Ця нейромережа дає змогу відстежувати об’єкти зі зміною масштабу, під час руху з перешкодами. З’ясовано, що розпізнавання об’єктів здійснюється на основі контурного аналізу, зіставлення із шаблоном та виявлення і встановлення відповідності ознакам. Використано методи штучного інтелекту на основі YOLO v8 для розпізнавання військової техніки. Здійснено навчання для різних моделей YOLO із використанням оптимізаторів Adam W, Adam, SGD та роздільної здатності 512×512, 640×640, 1024×1024 px зображень. Поліпшення розпізнавання об’єктів досягається завдяки аналізу контурів, порівнянню шаблонів і введених особливих точок. Різні роздільні здатності зображень та оптимізатори по-різному впливали на продуктивність моделі, а стандартні метрики оцінки не надають найточнішого вигляду. Найефективнішим оптимізатором є метод градієнтного спуску (SGD), який показав найкращі показники точності для розпізнавання бойових машин. Градієнт зазвичай розглядають як суму градієнтів, зумовлених кожним елементом навчання, і використовують для коригування параметрів моделі. Внаслідок розроблення системи сформовано показники із точністю розпізнавання (accuracy) 92 %, F1-оцінка (F1 score) – 89 %, середній показник точності (mAP) – 90 %. Запропоновано спосіб наповнення набору даних та створення класифікатора. Побудовано модель розпізнавання бойових машин. Наведено графіки, результати розпізнавання рухомих об’єктів у нейромережі Yolo8 x.
ADDIN ZOTERO_BIBL {"uncited":[],"omitted":[],"custom":[]} CSL_BIBLIOGRAPHY [1] Li, Z., Liu, F., Yang, W., Peng, S., & Zhou, J. (2021). A survey of convolutional neural networks: analysis, applications, and prospects. IEEE transactions on neural networks and learning systems.
[2] Zhang, Y., Zhang, H., Huang, Q., Han, Y., & Zhao, M. (2024). DsP-YOLO: An anchor-free network with DsPAN for small object detection of multiscale defects. Expert Systems with Applications, 241, 122669.
[3] Patel, M., Liu, X. C., Yang, K., Tassone, C., Escott, B., & Thometz, J. (2024). 3D Back Contour Metrics in Predicting Idiopathic Scoliosis Progression: Retrospective Cohort Analysis, Case Series Report and Proof of Concept. Children, 11(2), 159.
[4] Wang, Q., Lu, C., Gao, L., & He, G. (2024). Transformer-Based Multiple-Object Tracking via Anchor-Based-Query and Template Matching. Sensors (Basel, Switzerland), 24(1).
[5] Lu, H., Nie, J. (2024). Coarse registration of point cloud base on deep local extremum detection and attentive description. Multimedia Systems, 30(1), 23.
[6] Moksyakov A, Wu Y, Gadsden SA, Yawney J, AlShabi M. Object Detection and Tracking with YOLO and the Sliding Innovation Filter. Sensors. 2024; 24(7):2107. https://doi.org/10.3390/s24072107
[7] Diwan, T., Anirudh, G., & Tembhurne, J. V. (2023). Object detection using YOLO: Challenges, architectural successors, datasets and applications. multimedia Tools and Applications, 82(6), 9243-9275.
[8] Du, J. (2018, April). Understanding of object detection based on CNN family and YOLO. In Journal of Physics: Conference Series (Vol. 1004, p. 012029). IOP Publishing.
[9] Shafiee, M. J., Chywl, B., Li, F., & Wong, A. (2017). Fast YOLO: A fast you only look once system for real-time embedded object detection in video. arXiv preprint arXiv:1709.05943.
[10] Zhang, Z., Lu, X., Cao, G., Yang, Y., Jiao, L., & Liu, F. (2021). ViT-YOLO: Transformer-based YOLO for object detection. In Proceedings of the IEEE/CVF international conference on computer vision (pp. 2799-2808).
[11] S. Li, Y. Li, Y. Li, M. Li and X. Xu, "YOLO-FIRI: Improved YOLOv5 for Infrared Image Object Detection," in IEEE Access, vol. 9, pp. 141861-141875, 2021, doi: 10.1109/ACCESS.2021.3120870.
[12] Malik, J., Belongie, S., Leung, T., Shi, J. (2001). Contour and texture analysis for image segmentation. International journal of computer vision, 43, 7-27.
[13] Hashemi, N. S., Aghdam, R. B., Ghiasi, A. S. B., Fatemi, P. (2016). Template matching advances and applications in image analysis. arXiv preprint arXiv:1610.07231.
[14] Cox, G. S. (1995). Template matching and measures of match in image proce-ssing. University of Cape Town, South Africa.
[15] Lowe, D. G. (2004). Distinctive image features from scale-invariant keypoints. International journal of computer vision, 60, 91-110.
[16] Mukherjee, D., Jonathan Wu, Q. M., Wang, G. (2015). A comparative experimental study of image feature detectors and descriptors. Machine Vision and Applications, 26, 443-466.
[17] Liu, Q., Ye, H., Wang, S., & Xu, Z. (2024). YOLOv8-CB: Dense Pedestrian Detection Algorithm Based on In-Vehicle Camera. Electronics, 13(1), 236.
[18] Koga, S., Hamamoto, K., Lu, H., & Nakatoh, Y. (2024). Optimizing Food Sample Handling and Placement Pattern Recognition with YOLO: Advanced Techniques in Robotic Object Detection. Cognitive Robotics.
[19] Wang, Y., Wang, B., Huo, L., & Fan, Y. (2024). GT-YOLO: Nearshore Infrared Ship Detection Based on Infrared Images. Journal of Marine Science and Engineering, 12(2), 213.
[20] Wang, Z., Hua, Z., Wen, Y., Zhang, S., Xu, X., & Song, H. (2024). E-YOLO: Recognition of estrus cow based on improved YOLOv8 n model. Expert Systems with Applications, 238, 122212.
[21] Giudici, P., Centurelli, M., & Turchetta, S. (2024). Artificial Intelligence risk measurement. Expert Systems with Applications, 235, 121220.
[22] Shinde, S., Khoje, S., Raj, A., Wadhwa, L., & Shaikha, A. S. (2024). Artificial intelligence approach for terror attacks prediction through machine learning. Multidisciplinary Science Journal, 6(1), 2024011-2024011.
[23] Dogan, A., Okatan, A., & Cetinkaya, A. (2021). Vehicle Classification and Tracking Using Convolutional Neural Network Based on Darknet Yolo with Coco Dataset. AI and Big Data in Engineering Applications, 179.
[24] Nazarkevych, M., Oliarnyk, R., Troyan, O., & Nazarkevych, H. (2016, September). Data protection based on encryption using Ateb-functions. In 2016 XIth International Scientific and Technical Conference Computer Sciences and Information Technologies (CSIT) (pp. 30-32). IEEE.
[25] Medykovskyy, M., Lipinski, P., Troyan, O., & Nazarkevych, M. (2015, September). Methods of protection document formed from latent element located by fractals. In 2015 Xth International Scientific and Technical Conference" Computer Sciences and Information Technologies"(CSIT) (pp. 70-72). IEEE.
[26] Sheketa, V., Zorin, V., Chupakhina, S., Kyrsta, N., Pasyeka, M., & Pasieka, N. (2020, November). Empirical method of evaluating the numerical values of metrics in the process of medical software quality determination. In 2020 International Conference on Decision Aid Sciences and Application (DASA) (pp. 22-26). IEEE.