Проведено формалізацію математичних моделей спотворень цифрових зображень, що виникають при аерофотозйомці з бортових систем безпілотних літальних апаратів та істотно впливають на точність і достовірність алгоритмів автоматизованого виявлення й класифікації візуальних об’єктів у складному зовнішньому середовищі. Запропоновано узагальнену схему класифікації спотворень, яка враховує джерела їх виникнення та розподіляє дефекти на апаратно-оптичні, динамічні та зовнішні фактори, що зумовлюють структурну нестабільність вхідних фотоданих. У рамках дослідження здійснено постановку задачі математичного моделювання ключових типів апаратно-оптичних спотворень, таких як сферична аберація, що формалізується через позиційно-залежну функцію розсіювання точки; хроматична аберація, яка описується як лінійне зміщення координат каналів адитивної колірної схеми залежно від радіальної відстані до центру кадру; геометрична дисторсія, представлена у вигляді радіальної трансформації координат пікселів із урахуванням калібрувальних параметрів лінзи; дефокусування, моделювання якого виконано за допомогою просторово-варіативного гаусового ядра розмиття з урахуванням локальної глибини сцени; а також шуми фотоматриці, описані як сукупність випадкових процесів з використанням нормального та пуасонівського розподілів. У статті обґрунтовано вибір зазначених математичних моделей як бази для генерації синтетичних зображень у задачах тренування нейромережевих архітектур глибинного навчання, спрямованих на підвищення стійкості до реальних спотворень. Проведено порівняльний аналіз впливу кожного типу спотворення на якість матриці цифрового зображення, ступінь втрати інформативності, а також його придатність до подальшої обробки, зокрема на етапах сегментації, виявлення та класифікації візуальних об’єктів в умовах змінного фону, часткового перекриття або слабкого освітлення. Розроблено методологічні рекомендації щодо генерації навчальних вибірок із заданими характеристиками складності та спотворень, які враховують реальні умови функціонування систем фотореєстрації безпілотних літальних апаратів, включаючи змінне природне освітлення, нестабільність платформи, вібраційні навантаження, атмосферне розсіювання, а також конструктивні обмеження компактних сенсорів. Зазначено, що застосування адаптивно згенерованих наборів даних із апріорно змодельованими спотвореннями дозволяє суттєво підвищити стійкість, точність і властивості до узагальнення сучасних нейромережевих моделей, зокрема в умовах практичного застосування безпілотних платформ на лінії зіткнення.
- Barisić, A., Petrić, F., & Bogdan, S. (2021). Sim2Air – Synthetic aerial dataset for UAV monitoring. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 2021.
- Barisić, A., Petrić, F., & Bogdan, S. (2022). Sim2Air – Synthetic aerial dataset for UAV monitoring. IEEE Robotics and Automation Letters, 7(2), 3757–3764. https://doi.org/10. 1109/LRA.2022.3147337
- Chabok, M. (2012). Eliminating and modelling non-metric camera sensor distortions caused by sidewise and forward motion of the UAV. In ISPRS Archives—XL‑1/W2 (pp. 73–78). International Society for Photogrammetry and Remote Sensing.
- Dewez, T. J. B., Diogo, A., François, M., & Clercq, E. (2021). UAV-based structural damage mapping: A review.ISPRS International Journal of Geo-Information, 9(3), 187.
- Gao, Y.-L., Chen, J., Dam, T., Ferdaus, M. M., Poenar, D. P., & Duong, V. N. (2024). Dehazing remote sensing and UAV imagery: A review of deep learning, prior-based, and hybrid approaches. arXiv. https://doi.org/10.48550/arXiv.2405.07520
- Incekara, A. H., & Şeker, D. Z. (2021). Rolling shutter effect on the accuracy of photogrammetric product produced by low‑cost UAV. International Journal of Environment and Geoinformatics, 8(4), 549–553. https://doi.org/10.30897/ijegeo.948676
- Jiang, H., Meingast, M., Geyer, C., Sastry, S. (2005). Geometric models of rolling-shutter cameras. arXiv.https://doi.org/10.48550/arXiv.cs/0503076
- Kamilaris, A., van den Brink, C., & Karatsiolis, S. (2019). Training deep learning models via synthetic data: Application in unmanned aerial vehicles. arXiv. https://doi.org/10.48550/arXiv.1908.06472
- Kiefer, B., Ott, D., & Zell, A. (2021). Leveraging synthetic data in object detection on unmanned aerial vehicles.arXiv. https://doi.org/10.48550/arXiv.2112.12252
- Kong, F., Huang, B., Bradbury, K., & Malof, J. M. (2020). The Synthinel‑1 dataset: A collection of high‑resolution synthetic overhead imagery for building segmentation. arXiv. https://doi.org/10.48550/ arXiv.2001.05130
- Lenhard, T. R., Weinmann, A., Franke, K., & Koch, T. (2025). SynDroneVision: A synthetic dataset for image‑based drone detection. Proceedings of WACV 2025.
- Li, X., Suo, J., Zhang, W., Yuan, X., & Dai, Q. (2021). Universal and Flexible Optical Aberration Correction Using Deep‑Prior Based Deconvolution. arXiv. https://doi.org/10.48550/arXiv.2104.03078
- Maxey, C., Choi, J., Lee, H., Manocha, D., & Kwon, H. (2023). UAV‑Sim: NeRF‑based synthetic data generation for UAV‑based perception. arXiv. https://doi.org/10.48550/arXiv.2310.16255
- Munir, A., Siddiqui, A. J., Anwar, S., El‑Maleh, A., Khan, A. H., & Rehman, A. (2024). Impact of adverse weather and image distortions on vision‑based UAV detection: A performance evaluation of deep learning models. Drones, 8(11), 638. https://doi.org/10.3390/drones8110638
- Pável, S., Sándor, C., & Csató, L. (2019). Distortion Estimation Through Explicit Modeling of the Refractive Surface. arXiv. https://doi.org/10.48550/arXiv.1909.10820
- Riazul Islam, S. M. (2023). Drones on the rise: Exploring the current and future potential of UAVs. arXiv. https://doi.org/10.48550/arXiv.2304.13702
- Shelekhov, A., Afanasiev, A., Shelekhova, E., Kobzev, A., Tel’minov, A., Molchunov, A., & Poplevina, O. (2022). Low-altitude sensing of urban atmospheric turbulence with UAV. Drones, 6(3), 61. https://doi.org/10.3390/drones6030061
- Trouvé-Peloux, P., Champagnat, F., Le Besnerais, G., Druart, G., & Idier, J. (2021). Performance model of depth from defocus with an unconventional camera. Journal of the Optical Society of America A, 38(10), 1489– 1500. https://doi.org/10.1364/JOSAA.424621
- Wu, S., He, X., & Chen, X. (2025). Weamba: Weather-degraded remote sensing image restoration with multi- router state space model. Remote Sensing, 17(3), 458. https://doi.org/10.3390/rs17030458
- Zhang, Q., & Fraser, C. (2022). A Bi‑Radial Model for Lens Distortion Correction of Low‑Cost UAV Cameras.
- Remote Sensing, 15(22), 5283. https://doi.org/10. 3390/rs15225283
- Zheng, T., Zhang, G., Xu, Y., & Xia, G.-S. (2023). A review on deep learning in UAV remote sensing. Remote Sensing, 15(1), 149.
- Zwęgliński, T. (2020). The use of drones in disaster aerial needs reconnaissance and damage assessment – Three- dimensional modeling and orthophoto map study. Sustainability, 12(15), 6080. https://doi.org/10. 3390/su12156080