Проаналізовано завдання, які виконують інтелектуальні компоненти мобільних робототехнічних систем (МРС), і визначено їхні особливості. Визначено операційний базис для реалізації апаратних прискорювачів штучних нейронних мереж (ШНМ) і розділено його на три групи нейрооперацій: попереднього оброблення, процесорних та обчислення передатних функцій. Показано, що операції першої групи забезпечують перетворення вхідних даних до вигляду, який дасть найкращі результати, операції другої групи (множення, додавання, групового підсумовування, обчислення скалярного добутку, обчислення двовимірної згортки, множення матриці на вектор) виконуються безпосередньо у самій нейромережі у процесі навчання та функціонування, операції третьої групи забезпечують обчислення передатних функцій. Визначено, що спеціалізовані апаратні засоби інтелектуальних компонентів МРС повинні забезпечувати роботу в реальному часі та враховувати обмеження стосовно габаритів і енергоспоживання. Запропоновано розроблення спеціалізованих апаратних засобів інтелектуальних компонентів МРС здійснювати на основі інтегрованого підходу, який охоплює можливості сучасної елементної бази, паралельні методи оброблення даних, алгоритми та структури апаратних засобів і враховує вимоги конкретних застосувань. Для розроблення апаратних прискорювачів ШНМ вибрано принципи: модульності; однорідності та регулярності структури; локалізації та зменшення кількості зв’язків між елементами; конвеєризації та просторового паралелізму; узгодження інтенсивностей під час надходження вхідних даних, обчислення та видавання результатів; спеціалізації та адаптації апаратних структур до алгоритмів реалізації нейрооперацій. Запропоновано для оцінювання спеціалізованих апаратних засобів використовувати такі характеристики: витрати обладнання, час виконання операції та ефективність використання обладнання. Розроблено аналітичні вирази та імітаційну модель оцінювання характеристик спеціалізованих апаратних засобів, результати оцінювання яких використовують для вибору найефективнішої структури прискорювача й елементної для реалізації інтелектуальних компонентів МРС. Вдосконалено метод вибору елементної бази для реалізації інтелектуальних компонентів МРС, який завдяки врахуванню результатів оцінювання характеристик апаратних прискорювачів, вимог конкретного застосування та наявної елементної бази для їх реалізації забезпечує вибір найефективнішої з наявних.
1. Lee, D., Park, M., Kim, H., & Jeon, M. (2021). AI-based mobile robot navigation using deep neural networks and reinforcement learning. IEEE Access, 9, 329-345. https://doi.org/10.1109/ACCESS.2021.3102345
2. Soori, M., Arezoo, B., & Dastres, R. (2023). Artificial intelligence, machine learning and deep learning in advanced robotics: A review. Cognitive Robotics, 3, 54-70. https://doi.org/10.1016/j.cogr.2023.04.001
https://doi.org/10.1016/j.cogr.2023.04.001
3. Sze, V., Chen, Y.-H., Yang, T.-J., & Emer, J. S. (2017). Efficient processing of deep neural networks: A tutorial and survey. Proceedings of the IEEE, 105(12), 2295-2329. https://doi.org/10.1109/JPROC.2017.2761740
https://doi.org/10.1109/JPROC.2017.2761740
4. Chen, J., Lin, K., Yang, L., & Ye, W. (2024). An energy-efficient edge processor for radar-based continuous fall detection utilizing mixed-radix FFT and updated blockwise computation. IEEE Internet of Things Journal, 11(19), 32117-32128. https://doi.org/10.1109/JIOT.2024.3422251
https://doi.org/10.1109/JIOT.2024.3422251
5. Gu, J., & Joseph, R. (2024). Perspective Chapter: Dynamic timing enhanced computing for microprocessor and deep learning accelerators. In Deep Learning - Recent Findings and Research. https://doi.org/10.5772/intechopen.113296
https://doi.org/10.5772/intechopen.113296
6. Sabareeshwari, V., & S. K. C. (2025). Artificial Intelligence in Communications. In Z. Hammouch & O. Jamil (Eds.), Convergence of Antenna Technologies, Electronics, and AI (pp. 209-238). IGI Global. https://doi.org/10.4018/979-8-3693-3775-2.ch008
https://doi.org/10.4018/979-8-3693-3775-2.ch008
7. Li, Z., Liu, F., Yang, W., Peng, S., & Zhou, J. (2020). A survey of convolutional neural networks: Analysis, applications, and prospects. IEEE Transactions on Neural Networks and Learning Systems, 31(7), 2227-2249. https://doi.org/10.1109/TNNLS.2020.2996649
8. Hussain, M. (2024). Sustainable machine vision for Industry 4.0: A comprehensive review of convolutional neural networks and hardware accelerators in computer vision. AI, 5(3), 1324-1356. https://doi.org/10.3390/ai5030064
https://doi.org/10.3390/ai5030064
9. Wang, C., & Luo, Z. (2022). A review of the optimal design of neural networks based on FPGA. Applied Sciences, 12(21), 10771. https://doi.org/10.3390/app122110771
https://doi.org/10.3390/app122110771
10. Gilbert, M., Wu, Y. N., Emer, J. S., & Sze, V. (2024). LoopTree: Exploring the fused-layer dataflow accelerator design space. IEEE Transactions on Circuits and Systems for Artificial Intelligence, 1(1), 97-111. https://doi.org/10.1109/TCASAI.2024.3461716
https://doi.org/10.1109/TCASAI.2024.3461716
11. Taherdoost, H. (2023). Deep learning and neural networks: Decision-making implications. Symmetry, 15(9), 1723. https://doi.org/10.3390/sym15091723
https://doi.org/10.3390/sym15091723
12. Xu, Y., Luo, J., & Sun, W. (2024). Flare: An FPGA-based full precision low power CNN accelerator with reconfigurable structure. Sensors, 24, 2239. https://doi.org/10.3390/s24072239
https://doi.org/10.3390/s24072239
13. Li, Z., Liu, F., Yang, W., Peng, S., & Zhou, J. (2022). A survey of convolutional neural networks: Analysis, applications, and prospects. IEEE Transactions on Neural Networks and Learning Systems, 33(12), 6999-7019. https://doi.org/10.1109/TNNLS.2021.3084827
https://doi.org/10.1109/TNNLS.2021.3084827
14. Goel, S., Kedia, R., Sen, R., & Balakrishnan, M. (2024). EXPRESS: A framework for execution time prediction of concurrent CNNs on Xilinx DPU accelerator. ACM Transactions on Embedded Computing Systems, 24(1), 11. https://doi.org/10.1145/3697835
https://doi.org/10.1145/3697835
15. Tsmots, I., Rabyk, V., Kryvinska, N., Yatsymirskyy, M., & Teslyuk, V. (2022). Design of processors for fast cosine and sine Fourier transforms. Circuits, Systems, and Signal Processing, 41(9), 4928-4951. https://doi.org/10.1007/s00034-022-02012-8
https://doi.org/10.1007/s00034-022-02012-8
16. Tsmots, I., Teslyuk, V., Kryvinska, N., Skorokhoda, O., & Kazymyra, I. (2023). Development of a generalized model for parallel-streaming neural element and structures for scalar product calculation devices. Journal of Supercomputing, 79(5), 4820-4846. https://doi.org/10.1007/s11227-022-04838-0
https://doi.org/10.1007/s11227-022-04838-0
17. Цмоць, І. Г., Скорохода, О. В., & Теслюк, В. М. (2013). Пристрій для обчислення скалярного добутку. Патент України на винахід №101922, 13.05.2013, Бюл. №9.