ДЕКЛАРАТИВНИЙ ПІДХІД ДО ПРОЄКТУВАННЯ ТА ВІДТВОРЮВАНОГО НАВЧАННЯ СКЛАДНИХ МОДЕЛЬНИХ СТРУКТУР ДЛЯ МОНІТОРИНГОВИХ ПРОГРАМНИХ АГЕНТІВ

https://doi.org/10.23939/ujit2025.02.001
Надіслано: Жовтень 14, 2025
Переглянуто: Жовтень 20, 2025
Прийнято: Жовтень 30, 2025

Цитування за ДСТУ: Голуб С. В., Остапюк В. В. Декларативний підхід до проєктування та відтворюваного навчання складних модельних структур для моніторингових програмних агентів. Український журнал інформаційних технологій. 2025, т. 7, № 2. С. 01–08.
Citation APA: Holub, S. V., & Ostapiuk, V. V. (2025). A declarative approach to the design and reproducible learning of complex model structures for monitoring software agents. Ukrainian Journal of Information Technology, 7(2), 01–08. https://doi.org/10.23939/ujit2025.02.001

1
Черкаський державний технологічний університет, м. Черкаси, Україна
2
Черкаський державний технологічний університет, м. Черкаси, Україна

Розроблення ефективних моніторингових програмних агентів, що є важливими компонентами сучасних мультиагентних систем (МАС), все більше покладається на складні модельні структури, такі як багатошарові ансамблі машинного навчання. Однак зростання складності цих архітектур створює значні виклики стосовно забезпечення надійності, аудитоздатності та, що найважливіше, відтворюваності експериментальних результатів. Для вирішення цього завдання у статті запропоновано декларативний підхід, зосереджений на новоствореній предметно-орієнтованій мові (DSL). Ця мова надає структурований, зрозумілий формат для описання усього процесу побудови моделі: від підготовки даних та гіперпараметричної оптимізації до складної конфігурації багатошарових ансамблів, ураховуючи механізми рециркуляції та підвищення однорідності даних. Розроблено програмну систему, що інтерпретує цю DSL для автоматизації процесу навчання. Ключовою особливістю цього процесу є автоматична генерація самодостатнього, відтворюваного пакета, що містить не лише серіалізовані моделі, а й усі пов’язані конфігурації, метрики продуктивності та детальні дані про походження. Основні результати демонструють, що цей декларативний підхід дає змогу ефективно управляти складними просунутими експериментами, забезпечує цілісність створених моделей та гарантує їхню повну відтворюваність. Також було встановлено, що формалізація експериментальних налаштувань у DSL надає надійну основу для об’єктивного порівняння різних модельних архітектур. Загалом запропонований DSL-орієнтований підхід створює надійну та аудитоздатну основу для розроблення та валідації ефективних програмних агентів, долаючи критичний розрив між алгоритмічними дослідженнями та практичною потребою у надійних системах машинного навчання, що можна розгорнути.

[1] Wooldridge, M. (2009). An Introduction to MultiAgent Systems. John Wiley & Sons..
[2] Голуб, С. (2007). Багаторівневе моделювання в технологіях моніторингу оточуючого середовища. Черкаси: Вид. Від. ЧНУ Імені Богдана Хмельницького, 220.
[3] Holub, S. V., Ostapiuk, V. V.(2025). Machine learning of multilayer models of a monitoring software agent. Mathematical Machines and Systems, 2, 76–96. https://doi.org/10.34121/1028-9763-2025-2-76-95.
[4] Hutson, M. (2018). Artificial intelligence faces reproducibility crisis. Science, 359(6377), 725–726. https://doi.org/10.1126/ science.359.6377.725.
[5] Zaharia, M. A., Chen, A., Davidson, A., Ghodsi, A., Hong, S. A., Konwinski, A., Murching, S., Nykodym, T., Ogilvie, P., Parkhe, M., Xie, F., & Zumar, C. (2018). Accelerating the Machine Learning Lifecycle with MLflow. IEEE Data Eng. Bull., 41, 39–45.
[6] The Kubeflow Authors. (2025). Kubeflow Pipelines. https://github.com/kubeflow/pipelines
[7] Feurer, M., Klein, A., Eggensperger, K., Springenberg, J. T., Blum, M., & Hutter, F. (2015, December 7). Efficient and Robust Automated Machine Learning. Neural Information Processing Systems. https://www.semanticscholar.org/ paper/Efficient-and-Robust-Automated-Machine-Learning-Feurer-Klein/775a4e375cc79b53b94e37fa3eedff481823e4a6
[8] Abadi, M., Barham, P., Chen, J., Chen, Z., Davis, A., Dean, J., Devin, M., Ghemawat, S., Irving, G., Isard, M., Kudlur, M., Levenberg, J., Monga, R., Moore, S., Murray, D. G., Steiner, B., Tucker, P., Vasudevan, V., Warden, P., … Zheng, X. (2016). TensorFlow: A system for large-scale machine learning (No. arXiv:1605.08695). arXiv. https://doi.org/10.48550/ arXiv. 1605.08695.
[9] Paszke, A., Gross, S., Massa, F., Lerer, A., Bradbury, J., Chanan, G., Killeen, T., Lin, Z., Gimelshein, N., Antiga, L., Desmaison, A., Kopf, A., Yang, E., DeVito, Z., Raison, M., Tejani, A., Chilamkurthy, S., Steiner, B., Fang, L., … Chintala, S. (2019). PyTorch: An Imperative Style, High-Performance Deep Learning Library. Advances in Neural Information Processing Systems, 32. https://papers.nips.cc/paper_files/ paper/2019/hash/ bdbca288fee7f92f2bfa9f7012727740-Abstract.html
[10] Wolpert, D. H. (1992). Stacked generalization. Neural Networks, 5(2), 241–259. https://doi.org/10.1016/S0893-6080(05)80023-1.
[11] Akiba, T., Sano, S., Yanase, T., Ohta, T., & Koyama, M. (2019). Optuna: A Next-generation Hyperparameter Optimization Framework (No. arXiv:1907.10902). arXiv. http://arxiv. org/abs/1907.10902